Wordpressでクロール制御するrobots.txtの設定

Wordpressクローラーのクロール制御するためにデフォルトでプライバシー設定機能がありますが、
それだけだとadminやphpファイルなど不要なフォルダ、ファイルもクロールされてイヤらしい♡
ことになるので、robots.txtをドキュメントルートに設置して制御します。

 User-agent: *
 Disallow: /wp-admin/
 Disallow: /wp-includes/
 Disallow: /wp-content/plugins
 Disallow: /wp-content/cache
 Disallow: /wp-content/themes
 Disallow: /*?
 Disallow: /*.php$
 Disallow: /*.js$


ちなみにWordpressはfunctions.phpのdo_robots()クラスでrobots.txtを自動生成しているので
そこで記載することも可能です。

function do_robots() {
	header( 'Content-Type: text/plain; charset=utf-8' );

	do_action( 'do_robotstxt' );

	$output = '';
	$public = get_option( 'blog_public' );
	if ( '0' ==  $public ) {
		$output .= "User-agent: *\n";
		$output .= "Disallow: /\n";
	} else {
		$output .= "User-agent: *\n";
		$output .= "Disallow: /wp-admin/\n";
		$output .= "Disallow: /wp-includes/\n";
		$output .= "Disallow: /wp-content/plugins\n";
		$output .= "Disallow: /wp-content/cache\n";
		$output .= "Disallow: /wp-content/themes\n";
		$output .= "Disallow: /*?\n";
		$output .= "Disallow: /*.php$\n";
		$output .= "Disallow: /*.js$\n";
        }

	echo apply_filters('robots_txt', $output, $public);
}


でもこれだと、WPのバージョンアップの時に更新される可能性があるので
要注意らしいです!!