【问题标题】:Wget Macro for downloading multiple URLS?用于下载多个 URL 的 Wget 宏?
【发布时间】:2026-01-08 22:30:01
【问题描述】:

(注意:您需要至少 10 个声望才能发布超过 2 个链接。我不得不删除 http 和 url,但我希望它仍然可以理解!)

你好!

我正在尝试获取整个网站以供个人教育使用。网址如下所示:

example.com/download.php?id=1

我想下载从 1 到最后一页 4952 的所有页面

所以第一个网址是:

example.com/download.php?id=1

第二个是

example.com/download.php?id=4952

从 1 - 4952 下载页面最有效的方法是什么?

我当前的命令是(它工作得非常好,正是我想要的方式):

wget -P /home/user/wget -S -nd --reject=.rar http://example.com/download.php?id=1

注意:该网站有一个巨魔,如果您尝试运行以下命令:

 wget -P /home/user/wget -S -nd --reject=.rar --recursive --no-clobber --domains=example.com --no-parent http://example.com/download.php

它会下载一个 1000GB 的 .rar 文件来欺骗你!!!

我是 linux 新手,请多多关照!只是想学习!

谢谢!

【问题讨论】:

  • 使用for i in {1..4952},然后将$i插入URL。
  • 正在解析 {1..4952} ({1..4952})... 失败:名称或服务未知。 wget:无法解析主机地址“{1..4952}”
  • 脚本使用的是什么外壳? {1..4952}bash 工作。
  • “宏”是什么意思?你是说shell脚本吗?
  • 不,我只是将宏用作一般术语,我使用终端,如果有帮助,我使用 Tails 如果有帮助。谢谢:)

标签: linux download macros wget


【解决方案1】:

记事本++ =

您的网址 + 列编辑器 = 所有网址的海量列表

Wget -I your_file_with_all_urls = 成功!

感谢巴马尔

【讨论】: