【发布时间】:2014-07-01 03:55:55
【问题描述】:
我的网站经常出现故障,因为蜘蛛正在访问许多资源。这是楼主告诉我的。他们告诉我禁止这些 IP 地址: 46.229.164.98 46.229.164.100 46.229.164.101
但我不知道该怎么做。
我用谷歌搜索了一下,现在我已经将这些行添加到根目录中的 .htaccess 中:
# allow all except those indicated here
<Files *>
order allow,deny
allow from all
deny from 46.229.164.98
deny from 46.229.164.100
deny from 46.229.164.101
</Files>
这是 100% 正确的吗?我能做什么? 请帮我。我真的不知道我应该做什么。
【问题讨论】:
-
看起来像一个 .htaccess 文件而不是 robots.txt ,你应该与“主机”交谈并询问精度。
-
是的,我做错了,现在我已经从 robots.txt 中删除了这些行并将它们写入 .htaccess。他们只是告诉我这些蜘蛛使用了太多资源,我应该禁止他们的地址:/
-
那么您发布的内容是否存在特定问题?
-
@PatrickQ 不,我在 1 小时前遇到了问题,现在我的主机关闭了网站,正在等待我找到解决方案...
标签: bots robots.txt web-crawler