【发布时间】:2014-10-13 15:24:16
【问题描述】:
我尝试访问以前的 facebook.com 网页。 该站点向我显示了一个错误,即由于站点 robots.txt/ 而无法保存页面
谁能说出 robots.txt 中的哪些语句使 web.archive.org 无法访问该网站 我猜这是因为这里提到的#permission 声明 (http://facebook.com/robots.txt)
我还有其他方法可以为我的网站做这件事吗?
我也不希望 woorank.com 或 builtwith.com 分析我的网站。
注意:如果我在 robots.txt 中添加一些语句以实现上述结果,搜索引擎机器人在抓取我的网站并将其编入索引时应该不会遇到问题。
【问题讨论】:
标签: robots.txt