【问题标题】:Robots.txt with mutltiple domain sitemap entries具有多个域站点地图条目的 Robots.txt
【发布时间】:2018-12-08 16:44:49
【问题描述】:

我们的网站有很多域名,例如:

example.co.uk
example.in
example.co.eg
...

所以在robots.txt 中应该有一个条目显示我们的站点地图文件所在的位置。

所以我的问题是:

每个域都有许多站点地图文件,那么如何在单个robots.txt 文件中为每个域分别放置这些条目?

【问题讨论】:

  • 这个问题似乎离题了,因为它不在帮助中心所述的讨论范围内。
  • 为什么跑题了?这不是一个非主观的编程问题吗?您可以检查下面的答案,以确保此问题符合帮助中心规则!

标签: seo web-crawler sitemap robots.txt google-crawlers


【解决方案1】:

假设您对所有域都有相同的 robots.txt 规则,请将您的单个 robots.txt 放入根目录并将所有站点地图链接放入其中。 我认为站点地图链接看起来像

http://www.example.co.uk/sitemap.xml http://www.example.in/sitemap.xml http://www.example.co.eg/sitemap.xml

或者你可以建立一个类似的结构

/robots/co-uk.txt /robots/in.txt /robots/co-eg.txt

根据站点地图链接放入其中,并根据用户国家/地区动态交付它们

<ifModule mod_geoip.c> GeoIPEnable On RewriteCond %{ENV:GEOIP_COUNTRY_CODE} ^UK$ RewriteRule ^robots\.txt$ robots/co-uk.txt [L] </ifModule>

为此,您应该安装 mod_geoip 或 ip2location。如果使用 ip2location 将 GEOIP_COUNTRY_CODE 替换为 IP2LOCATION_COUNTRY_SHORT

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2011-02-16
    • 2011-09-19
    • 2014-06-02
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多