【发布时间】:2012-11-23 19:00:53
【问题描述】:
不知何故,一个虚拟 robots.txt 阻止了网站 http://www.domda.se 进行谷歌搜索。我不希望这种情况发生。
该网站是用 Wordpress 制作的,并在完整性设置中对搜索引擎开放(当然;)
我试过了:
关闭再打开隐私设置/搜索引擎许可。
关闭所有插件。
将完全允许的 robots.txt 添加到根目录。
使用机器人插件编写 robots.txt 中应包含的内容
将主题更改为 211 并再次返回
使用 ftp 重置插件文件夹
现在我想知道是否有人可以帮助我,因为我的 php 知识太低了,这让我脸红。我现在想的是通过查看functions.php来解决问题。
在 wp-includes/functions.php 中做代码的机器人说:
function do_robots() {
header( 'Content-Type: text/plain; charset=utf-8' );
do_action( 'do_robotstxt' );
$output = "User-agent: *\n";
$public = get_option( 'blog_public' );
if ( '0' == $public ) {
$output .= "Disallow: /\n";
} else {
$site_url = parse_url( site_url() );
$path = ( !empty( $site_url['path'] ) ) ? $site_url['path'] : '';
$output .= "Disallow: $path/wp-admin/\n";
$output .= "Disallow: $path/wp-includes/\n";
}
echo apply_filters('robots_txt', $output, $public);
}
也许该代码完全没问题。而我添加一个真正的 robots.txt 会否决虚拟的,但我真的不知道该怎么做。
希望有人能帮忙。
【问题讨论】:
-
会不会是你在google的站长工具中看到了这个问题,但是那个问题已经过时了?请注意,谷歌(与所有机器人一样)需要一些时间来重新访问您的网站。因为目前你的 robots.txt 文件看起来不错。
标签: php wordpress robots.txt