【问题标题】:How to download a page from GET url using wget如何使用 wget 从 GET url 下载页面
【发布时间】:2016-03-18 11:14:23
【问题描述】:

我正在尝试使用 wget 下载 Gop 初选结果的 google 搜索结果页面,但我无法做到 (this page)。但是,我注意到网页正在从这个文件https://goo.gl/KPGSqS 获取数据,它使用 GET 请求获取。

所以,我想知道是否可以使用 wget 下载该文件?我通常的做法是使用wget -c url,但这不起作用。那么,关于我应该为此做些什么的任何想法? 我尝试使用用户代理选项,但即使这样也不起作用。

【问题讨论】:

    标签: download get wget


    【解决方案1】:

    如果您想下载网页内容(解析为简单的文本文件或源 html 代码),您可以考虑使用 lynx。通过输入sudo apt-get lynx 下载lynx,然后您可以使用lynx http://your.url/ > savefile.txt 保存网页内容。
    你可以在this页面找到如何使用lynx

    【讨论】:

    • 我听说过lynx。但是,我想看看 wget 是否可行。否则我会得到猞猁
    • 但是你需要下载什么?整个网页(html、css、js、图像)还是只有一些信息或可见文本?
    • 仅在站点中填充的数据。但是,整个网站也很好,因为最终我要解析它。如果您看到我给出的网页链接,您会看到数据是从 Json 文件中获取的。我想得到那个
    猜你喜欢
    • 2019-12-05
    • 2011-09-11
    • 2015-09-12
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多