← SEO診断Pro トップ

robots.txtの書き方完全ガイド|クローラー制御の基本と実例

📅 2025-03-17📝 SEO診断Pro編集部

robots.txtとは何か

robots.txtは、ウェブサイトのルートディレクトリに配置するテキストファイルで、検索エンジンのクローラーに対してクロールの許可・拒否を指示する役割を持ちます。例えば管理画面や重複コンテンツなど、検索結果に表示させたくないページへのクロールを制御できます。ただし、robots.txtはあくまで「お願い」であり、悪意のあるクローラーが指示を無視する可能性がある点は理解しておきましょう。

基本構文を覚えよう

robots.txtで使用する主なディレクティブは以下の4つです。

基本例:User-agent: * / Disallow: /admin/ / Disallow: /tmp/ / Sitemap: https://example.com/sitemap.xml のように記述します。robots.txt診断ツールで構文の正しさを確認できます。

WordPress向け設定例

WordPressサイトでは、管理画面(/wp-admin/)やプラグインディレクトリへのクロールを制限しつつ、wp-admin内のadmin-ajax.phpはプラグインが利用するため許可するのが一般的です。また、検索結果ページ(/?s=)やタグアーカイブなど、重複コンテンツになりやすいページのクロールを制限することもSEO上有効です。

一般サイト向け設定例

一般的な企業サイトやECサイトでは、カート画面、マイページ、内部検索結果ページ、テスト環境のディレクトリなどをDisallowに設定します。一方、商品ページやカテゴリページなどSEO上重要なページは確実にクロールできる状態にしておく必要があります。

よくある間違いと注意点

robots.txtのテスト方法

robots.txtを変更したら、必ずテストを行いましょう。Google Search Consoleの「robots.txtテスター」や、SEO診断Proのrobots.txt診断ツールで構文エラーや意図しないブロックがないか確認できます。また、サイトマップ生成ツールと合わせて使うことで、クローラーにとって最適なサイト構造を実現できます。

あなたのrobots.txtを今すぐチェックしましょう

SEO診断Proの総合SEO診断を試す