-
Notifications
You must be signed in to change notification settings - Fork 59
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Export all crawled URLS #442
Comments
Comme l'indique la page EXPORT, celle-ci vise uniquement à exporter les métadonnées des webentités, pas de récupérer les données ni sur le réseau ni sur les pages web.
|
Merci, je vais tenter ça ! |
Bonjour. Visiblement il y a un "truc" qui cloche, et je me demande si ce n'est pas parce que sur ma machine (Ubuntu 20.04) c'est python3 qui est installé par défaut. |
Sinon il me semble que notre outil |
Alors oui, c'est ce que je me suis dit et j'ai en effet installé minet. |
Alors en fait je confonds les deux scripts. |
@g-arcas une fois en python2 il faut que tus utilises l'environnement python de hyphe pour avoir toutes les dépendances. |
ok, trouvé : il faut passer le nom du corpus en minuscules même si dans Hyphe il est défini en majuscules ! |
id ≠ nom :) |
Oui et en effet minet marche très bien (en plus il peut être installé sur une autre machine). Merci pour votre aide ! |
Est-il possible d'exporter la liste de toutes les URLs complètes crawlées par Hyphe ?
Je précise "complètes" parce que la fonction EXPORT de l'interface Web de Hyphe ne semble pas le faire.
The text was updated successfully, but these errors were encountered: