概述
`wget -i` 減少了當需要一次下載多個檔案時手動輸入每個 URL 的麻煩。特別是在下載網頁爬蟲結果或具有特定模式的檔案時,它非常有效。此命令會依序處理指定檔案中的所有 URL,並且您可以將 `wget` 的其他選項與每個下載結合使用。
主要特點
- 批次處理 URL 列表
- 易於與腳本整合
- 支援斷點續傳功能
- 可與各種 `wget` 選項組合使用
主要選項
與 `wget -i` 一起常用的選項。
輸入/輸出控制
生成的命令:
請試著組合命令。
這個 Django 應用程序是一個技術指南文檔,旨在為用戶輕鬆解釋 Linux 的各種命令。
`wget` 執行命令。
請將上述選項組合在一起,與 AI 一同虛擬執行命令。
使用範例
使用 `wget -i` 命令的各種場景。
URL 檔案創建範例
echo "http://example.com/file1.zip\nhttp://example.com/image.jpg\nhttps://www.gnu.org/software/wget/manual/wget.pdf" > urls.txt
創建一個包含要下載的 URL 列表的 `urls.txt` 檔案。
基本用法
wget -i urls.txt
將 `urls.txt` 檔案中列出的所有 URL 下載到當前目錄。
下載到特定目錄
wget -i urls.txt -P /data/downloads
將下載的檔案儲存到 `/data/downloads` 目錄。
斷點續傳和記錄日誌
wget -i urls.txt -c -o wget_log.txt
繼續下載中斷的下載,並將所有進度和錯誤記錄到 `wget_log.txt` 檔案中。
限制下載速度和不覆蓋現有檔案
wget -i urls.txt --limit-rate=500k -nc
將下載速度限制為 500KB/s,並且不覆蓋已存在的檔案,而是跳過。
提示與注意事項
提高 `wget -i` 使用效率並防止潛在問題的提示。
實用提示
- **URL 檔案格式**:每行必須寫一個 URL。空行或註釋(通常以 `#` 開頭)會被 `wget` 自動忽略。
- **斷點續傳**:使用 `-c` 選項可以繼續下載中斷的下載,這對於下載大檔案或在不穩定的網路環境中非常有用。
- **檢查日誌**:使用 `-o` 選項創建日誌檔案,可以追蹤下載進度、錯誤等。這對於問題排除非常有幫助。
- **並行下載**:`wget -i` 本身不支援並行下載。如果您想同時下載多個檔案,請考慮與 `xargs -P` 等其他工具結合使用,或考慮使用 `aria2c` 等並行下載管理器。
- **防止檔案覆蓋**:使用 `-nc` (no-clobber) 選項可以避免覆蓋已存在的檔案,並跳過它們,從而防止意外損壞重要檔案。