プラグイン

KB Robots.txtはrobots.txtを編集できる

更新日:

「KB Robots.txt」は検索エンジン用のrobots.txtを作成するプラグインです。robots.txtは検索エンジンのクローラーのページへのアクセスを制限(アクセスを許可/許可しない)するもです。WordPressに何故robots.txtxが必要なのかというと、WordPressではカテゴリー、アーカイブ、タグ、などで同じような内容のページが表示されてしまうからです。Googleは同じような内容のページをインデックスから削除することを公表しています。削除といってもペナルティではなく、同じ内容のものを表示しないといったフィルターのようなものです。しかしこの重複する内容のページがたくさんある場合はそのサイトの評価を下げてしまうことがあるので、robots.txtを使って重複ページを作ってしまうのは避けたほうが無難なのです。

KB Robots.txtの概要

robots.txtは検索エンジンのクローラにアクセスされたくないサイトのコンテンツ(重複コンテンツなど)を指定できます。Search Console ヘルプセンターなどを参考にすることをお勧めします。

  • 【プラグイン名称】
    KB Robots.txt
  • 【公式サイト】
    https://wordpress.org/plugins/kb-robotstxt/
  • 【ライセンス】
    無償
  • 【注意事項】
    robots.txtの設定・記述については知識を必要とすることがあります。例えば間違ってインデックスしてもらうべきURLを拒否してしまうなどです。十分理解したうえでご利用ください。
  • 【robots.txtの確認】
    robots.txtの確認は、ブラウザで行います。ブラウザのアドレスに http://○○○.com/robots.txt で内容が表示されます。WordPressの場合FTPでサーバーに接続しても実ファイルは存在していません。Wordpressが仮想のrobots.txtを出力しているためです。
  • 【インストール】
    ダッシュボード → プラグイン → 新規追加 → KB Robots.txtで検索 → インストール

「KB Robots.txt」でrobots.txtを編集

「KB Robots.txt」を有効化するとダッシュボードの設定に追加されるKB Robots.txtを利用して編集することができます。robots.txtの設定・記述については知識を必要とすることがあります。例えば間違ってインデックスしてもらうべきURLを拒否してしまうなどです。十分理解したうえでご利用ください。

※robots.txtはGoogleなどのロボット型検索エンジンに対して、自サイトのページを検索エンジンのデータベースに登録されないように指示するテキストファイルのことです。robots.txtにインデックスしてほしくないURLを記述しておくことで指定のURLをnoindexに指定することができ、SEO上不利な重複コンテンツの解消をすることができます。

-プラグイン

Copyright© エス・ティ・セブン有限会社 , 2019 All Rights Reserved Powered by STINGER.