【发布时间】:2012-10-02 02:29:56
【问题描述】:
我在一个站点上遇到了很多 404 错误的问题。我发现这些错误正在发生,因为谷歌试图找到不再存在的页面。 现在我需要告诉 Google 不要再将这些页面编入索引。
我在网上找到了一些关于使用 robots.txt 文件的解决方案。但这不是我建立的网站。我只需要修复这些错误。问题是,这些页面已生成。它们实际上并不以那种形式存在。所以我不能在php代码中添加任何东西。 而且我不太确定如何将它们添加到robot.txt。
当我刚写的时候: *用户代理:* 无索引:/objekten/anzeigen/haus_antea/5-0000001575*
然后点击网站管理员工具中的测试按钮
我从 Googlebot 得到这个: 允许 检测为目录;特定文件可能有不同的限制
我不知道那是什么意思。
我是这种东西的新手,所以请尽可能简单地写下你的答案。
抱歉英语不好。
【问题讨论】:
标签: indexing robots.txt