accueil > Gestion réseau > wget

wget -i : Télécharger des URL à partir d'une liste de fichiers

`wget -i` est utilisé pour lire une liste d'URL répertoriées dans un fichier texte et télécharger les fichiers séquentiellement. Il est très utile pour télécharger des fichiers en masse ou pour traiter des listes d'URL générées dynamiquement dans des scripts. Chaque URL doit être écrite sur une ligne distincte dans le fichier.

Aperçu

`wget -i` réduit la complexité de la saisie manuelle de chaque URL lorsque vous devez télécharger plusieurs fichiers à la fois. Il est particulièrement efficace pour télécharger des résultats de web scraping ou des fichiers correspondant à un modèle spécifique. Cette commande traite toutes les URL du fichier spécifié dans l'ordre, et vous pouvez combiner d'autres options `wget` avec chaque téléchargement.

Caractéristiques principales

  • Traitement par lots de listes d'URL
  • Facilité d'intégration avec les scripts
  • Prise en charge de la reprise des téléchargements
  • Combinaison avec diverses options `wget`

Options principales

Options couramment utilisées avec `wget -i`.

Contrôle des entrées/sorties

Commande générée :

Essayez de combiner les commandes.

Description:

`wget` Exécute la commande.

Essayez d'exécuter virtuellement les commandes avec l'IA en combinant les options ci-dessus.

Exemples d'utilisation

Scénarios variés utilisant la commande `wget -i`.

Exemple de création de fichier d'URL

echo "http://example.com/file1.zip\nhttp://example.com/image.jpg\nhttps://www.gnu.org/software/wget/manual/wget.pdf" > urls.txt

Crée un fichier `urls.txt` contenant la liste des URL à télécharger.

Utilisation de base

wget -i urls.txt

Télécharge toutes les URL listées dans le fichier `urls.txt` dans le répertoire courant.

Télécharger dans un répertoire spécifique

wget -i urls.txt -P /data/downloads

Enregistre les fichiers téléchargés dans le répertoire `/data/downloads`.

Reprise du téléchargement et enregistrement dans un journal

wget -i urls.txt -c -o wget_log.txt

Reprend les téléchargements interrompus et enregistre toute la progression et les erreurs dans le fichier `wget_log.txt`.

Limitation du débit de téléchargement et non-écrasement des fichiers existants

wget -i urls.txt --limit-rate=500k -nc

Limite le débit de téléchargement à 500 Ko/s et ignore les fichiers existants sans les écraser.

Conseils et précautions

Conseils pour améliorer l'efficacité et éviter les problèmes potentiels lors de l'utilisation de `wget -i`.

Conseils utiles

  • **Format du fichier d'URL** : Une seule URL doit être écrite par ligne. Les lignes vides ou les commentaires (commençant généralement par `#`) sont automatiquement ignorés par `wget`.
  • **Reprise des téléchargements** : L'option `-c` permet de reprendre les téléchargements interrompus, ce qui est très utile pour les fichiers volumineux ou dans des environnements réseau instables.
  • **Vérification du journal** : L'option `-o` permet de créer un fichier journal pour suivre la progression des téléchargements, les erreurs, etc. Cela peut grandement aider à la résolution de problèmes.
  • **Téléchargements parallèles** : `wget -i` ne prend pas en charge les téléchargements parallèles en soi. Pour télécharger plusieurs fichiers simultanément, envisagez de le combiner avec d'autres outils comme `xargs -P` ou d'utiliser un gestionnaire de téléchargement parallèle comme `aria2c`.
  • **Prévention de l'écrasement des fichiers** : L'option `-nc` (no-clobber) permet d'ignorer les fichiers existants sans les écraser, ce qui évite d'endommager accidentellement des fichiers importants.

Commandes de la même catégorie