WordPress 站点自动添加 robots.txt


前面,远航说过了WordPress的Robots.txt的写法,今天介绍一种更加高大上的方法,自动添加robots.txt。如果你的网站根目录不存在真实的 robots.txt,那么可以让 WordPress 自动创建一个虚拟的 robots.txt (该文件不会真实存在,但是访问 http://yoursite.com/robots.txt 时可以正常显示)

1
2
3
4
5
6
/* 为你的 WordPress 站点添加 robots.txt */
add_filter( 'robots_txt', 'robots_mod', 10, 2 );
function robots_mod( $output, $public ) {
  $output .= "Disallow: /user/"; // 禁止收录链接中包含 /user/ 的页面
  return $output;
}

注:如果你想添加更多的规则,请复制上面代码的第4行,添加即可。
上述代码访问输出的内容为:

1
2
3
4
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /user/

也就是说,WordPress 默认已经添加了前 3 行规则了。robots.txt 涉及到网站的收录,所以请确保你明白它的书写方法,保证每条规则都是正确无误的!另外,robots.txt目前并不是一种标准,只是一种协议!所以现在很多搜索引擎对robots.txt里的指令参数都有不同的看待。说白了,robots.txt标准并不是完全一致的,国内目前可以参考百度站长的robots.txt标准。

给我留言