首頁 > 網路管理 > wget

wget -i:從檔案列表下載 URL

`wget -i` 用於讀取文字檔案中列出的 URL 列表,並依序下載檔案。當您需要批次下載大量檔案,或處理腳本動態生成的 URL 列表時,它非常有用。每個 URL 必須寫在檔案的一行上。

概述

`wget -i` 減少了當需要一次下載多個檔案時手動輸入每個 URL 的麻煩。特別是在下載網頁爬蟲結果或具有特定模式的檔案時,它非常有效。此命令會依序處理指定檔案中的所有 URL,並且您可以將 `wget` 的其他選項與每個下載結合使用。

主要特點

  • 批次處理 URL 列表
  • 易於與腳本整合
  • 支援斷點續傳功能
  • 可與各種 `wget` 選項組合使用

主要選項

與 `wget -i` 一起常用的選項。

輸入/輸出控制

生成的命令:

請試著組合命令。

這個 Django 應用程序是一個技術指南文檔,旨在為用戶輕鬆解釋 Linux 的各種命令。

`wget` 執行命令。

請將上述選項組合在一起,與 AI 一同虛擬執行命令。

使用範例

使用 `wget -i` 命令的各種場景。

URL 檔案創建範例

echo "http://example.com/file1.zip\nhttp://example.com/image.jpg\nhttps://www.gnu.org/software/wget/manual/wget.pdf" > urls.txt

創建一個包含要下載的 URL 列表的 `urls.txt` 檔案。

基本用法

wget -i urls.txt

將 `urls.txt` 檔案中列出的所有 URL 下載到當前目錄。

下載到特定目錄

wget -i urls.txt -P /data/downloads

將下載的檔案儲存到 `/data/downloads` 目錄。

斷點續傳和記錄日誌

wget -i urls.txt -c -o wget_log.txt

繼續下載中斷的下載,並將所有進度和錯誤記錄到 `wget_log.txt` 檔案中。

限制下載速度和不覆蓋現有檔案

wget -i urls.txt --limit-rate=500k -nc

將下載速度限制為 500KB/s,並且不覆蓋已存在的檔案,而是跳過。

提示與注意事項

提高 `wget -i` 使用效率並防止潛在問題的提示。

實用提示

  • **URL 檔案格式**:每行必須寫一個 URL。空行或註釋(通常以 `#` 開頭)會被 `wget` 自動忽略。
  • **斷點續傳**:使用 `-c` 選項可以繼續下載中斷的下載,這對於下載大檔案或在不穩定的網路環境中非常有用。
  • **檢查日誌**:使用 `-o` 選項創建日誌檔案,可以追蹤下載進度、錯誤等。這對於問題排除非常有幫助。
  • **並行下載**:`wget -i` 本身不支援並行下載。如果您想同時下載多個檔案,請考慮與 `xargs -P` 等其他工具結合使用,或考慮使用 `aria2c` 等並行下載管理器。
  • **防止檔案覆蓋**:使用 `-nc` (no-clobber) 選項可以避免覆蓋已存在的檔案,並跳過它們,從而防止意外損壞重要檔案。

相同類別命令