【发布时间】:2009-06-04 07:54:06
【问题描述】:
我们网站的一个部分提供分页的随机内容。新用户第一次访问该站点时,会为她分配一个新的随机种子,该种子会传入 URL 并用于持久性存储在 cookie 中。问题是 URL 中的种子混淆了 Googlebot(和其他索引服务);它抱怨有太多的 URL 指向相同的内容。我们有可能不在 URL 中传递种子,但即使我们只使用 cookie,在我看来,在某些时候我们必须决定访问者是索引蜘蛛还是人类以非随机方式呈现内容。
我的主要问题是:在这种情况下,检测最常见的索引蜘蛛并以非随机方式为它们提供内容会有多糟糕?我知道搜索优化的第一条规则是不优化,如果有的话,为用户优化并确保每个人的内容都是一样的。但在这种情况下,我们实际上不会更改内容或隐藏任何内容。
有人遇到过同样的问题吗?处理此问题的最佳做法是什么?
【问题讨论】:
-
URL 的种子部分如何?是查询参数吗?在这种情况下,蜘蛛应该忽略它们。它是路径的一部分吗?重新设计:)
-
是的,它是一个查询参数。我不确定查询参数是否被忽略。您能否指出一些解释或确认的来源?