【问题标题】:How to detect all the urls of a website?如何检测网站的所有网址?
【发布时间】:2014-05-26 07:55:53
【问题描述】:

我想知道如何检测指定网站的所有url,比如说,我知道https://stackoverflow.com/的网站,我怎么知道它有一些像https://stackoverflow.com/questionshttps://stackoverflow.com/tags这样的url,有没有办法还是知道结果的工具?

【问题讨论】:

    标签: url web


    【解决方案1】:

    有一些可能性:

    1. 如果您不想编写代码,您可以使用 XenuWebspider 之类的工具来扫描或保存网站。

      李>
    2. 如果你想将它用作你自己工具的一部分,你可以用 PHP 编写它: 外部服务器上的目录监听开启:

      $dir = "stackoverflow.com/"; foreach(scandir($dir) as $file){ print '<a href="'.$dir.$file.'">'.$file.'</a><br>'; }

    3. 目录监听是: 然后您需要根据php_get_contents 打开网站并根据preg_match 过滤链接。

    【讨论】:

    • 第三种方法,你的意思是通过php_get_contents获取内容,然后在preg_match的帮助下找到所有的url,我觉得这有点不可能,这是一种搜索引擎的工作。
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2013-12-04
    • 1970-01-01
    • 2013-02-24
    • 1970-01-01
    • 2015-04-23
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多