【发布时间】:2014-01-21 02:33:51
【问题描述】:
我从一个网站上打开了一个 .php 页面,上面有一堆超链接。我想将它们(它们的 URL)复制到 .txt 文件中。当然,我可以手动完成,但是它们太多了,所以我想以某种方式自动完成。
在我这样做之前:我会查看页面源代码,即它的 HTML 代码,然后用一些专门为此编写的小脚本对其进行解析。但这是一个 .php 页面,我猜所有的链接都是从服务器上的数据库中输入的,而不是从源代码中输入的。无论如何,它们不在页面的 HTML 代码中。
我想知道这是否仍然可能。我相信这应该是可能的——所有的链接都显示在我的屏幕上,它们都可以点击并且可以工作,应该有某种方法可以以某种方式捕获它们。
【问题讨论】:
-
您可以使用相同的脚本来解析链接。你试过了吗?
-
如果它们没有显示在源代码中,那么它们是由 javascript 添加的,而不是 php
-
你试过preg_match_all吗?
-
也许你会在这里找到你想要的东西stackoverflow.com/questions/34120/html-scraping-in-php?
-
使用
file_get_contents()你也可以通过相同的脚本来完成
标签: php hyperlink screen-scraping