概述
`wget -i` 减少了在需要一次下载多个文件时手动输入每个 URL 的麻烦。当下载特定模式的文件或网络爬虫的结果时尤其有效。此命令按顺序处理指定文件中的所有 URL,并且可以为每次下载组合使用 `wget` 的其他选项。
主要特点
- 批量处理 URL 列表
- 易于与脚本集成
- 支持断点续传
- 可与各种 `wget` 选项组合使用
主要选项
与 `wget -i` 结合使用的常用选项。
输入/输出控制
生成的命令:
请尝试组合命令。
描述:
`wget` 执行命令。
通过组合这些选项,您可以与 AI 一起虚拟地执行命令。
使用示例
使用 `wget -i` 命令的各种场景。
URL 文件创建示例
echo "http://example.com/file1.zip\nhttp://example.com/image.jpg\nhttps://www.gnu.org/software/wget/manual/wget.pdf" > urls.txt
创建一个包含要下载的 URL 列表的 `urls.txt` 文件。
基本用法
wget -i urls.txt
将 `urls.txt` 文件中列出的所有 URL 下载到当前目录。
下载到特定目录
wget -i urls.txt -P /data/downloads
将下载的文件保存到 `/data/downloads` 目录。
断点续传和记录日志
wget -i urls.txt -c -o wget_log.txt
继续下载中断的文件,并将所有进度和错误记录到 `wget_log.txt` 文件中。
限制下载速度和不覆盖现有文件
wget -i urls.txt --limit-rate=500k -nc
将下载速度限制为 500KB/s,并且不覆盖已存在的文件,而是跳过。
提示与注意事项
提高 `wget -i` 使用效率并防止潜在问题的提示。
有用提示
- **URL 文件格式**: 每行必须包含一个 URL。空行或注释(通常以 `#` 开头)会被 `wget` 自动忽略。
- **断点续传**: 使用 `-c` 选项可以继续下载中断的文件,这对于下载大文件或在网络不稳定的环境中非常有用。
- **检查日志**: 使用 `-o` 选项创建日志文件,可以跟踪下载进度、错误等。这对于解决问题非常有帮助。
- **并行下载**: `wget -i` 本身不支持并行下载。要同时下载多个文件,请考虑与其他工具(如 `xargs -P`)结合使用,或使用像 `aria2c` 这样的并行下载管理器。
- **防止文件覆盖**: 使用 `-nc` (no-clobber) 选项可以避免覆盖已存在的文件,从而防止意外损坏重要文件。