WordPress プラグイン

KB Robots.txtはrobots.txtを編集できる

更新日:

「KB Robots.txt」は検索エンジン用のrobots.txtを作成するプラグインです。robots.txtは検索エンジンのクローラーのページへのアクセスを制限(アクセスを許可/許可しない)するもです。WordPressに何故robots.txtxが必要なのかというと、WordPressではカテゴリー、アーカイブ、タグ、などで同じような内容のページが表示されてしまうからです。Googleは同じような内容のページをインデックスから削除することを公表しています。削除といってもペナルティではなく、同じ内容のものを表示しないといったフィルターのようなものです。しかしこの重複する内容のページがたくさんある場合はそのサイトの評価を下げてしまうことがあるので、robots.txtを使って重複ページを作ってしまうのは避けたほうが無難なのです。

KB Robots.txt

Screenshot of wordpress.org

KB Robots.txt プラグイン・ディレクトリ

  • テーマディレクトリ
  • ライセンス無償
  • 【注意事項】robots.txtの設定・記述については知識を必要とすることがあります。例えば間違ってインデックスしてもらうべきURLを拒否してしまうなどです。十分理解したうえでご利用ください。
  • robots.txtの確認は、ブラウザで行います。ブラウザのアドレスに http://○○○.com/robots.txt で内容が表示されます。WordPressの場合FTPでサーバーに接続しても実ファイルは存在していません。Wordpressが仮想のrobots.txtを出力しているためです。

robots.txtは検索エンジンのクローラにアクセスされたくないサイトのコンテンツ(重複コンテンツなど)を指定できます。Search Console ヘルプセンターなどを参考にすることをお勧めします。

robots.txtを編集

「KB Robots.txt」を有効化するとダッシュボードの設定に追加されるKB Robots.txtを利用して編集することができます。robots.txtの設定・記述については知識を必要とすることがあります。例えば間違ってインデックスしてもらうべきURLを拒否してしまうなどです。十分理解したうえでご利用ください。

※robots.txtはGoogleなどのロボット型検索エンジンに対して、自サイトのページを検索エンジンのデータベースに登録されないように指示するテキストファイルのことです。robots.txtにインデックスしてほしくないURLを記述しておくことで指定のURLをnoindexに指定することができ、SEO上不利な重複コンテンツの解消をすることができます。

おすすめプラグ

All in One SEO Packの設定

「All in One SEO Pack」は記事ごとにタイトルやディスクリプション(抜粋)を細かく指定できたり、SEOに重要な部分を一括して管理することができます。

データベースをお掃除するプラグイン

データベースにはサイトに必要なものすべて以外に必要のない多くのものが保存されます。この不要なデータを消去することができるプラグインです。

編集を便利にするプラグイン

WordPressのダッシュボードを使い易くしてくれるプラグインのご紹介です。

アクセス解析ができるプラグイン

Google Analyticsのアクセス解析をダッシュボードに表示してくれるGoogle Analytics Dashboard for WP

-WordPress, プラグイン
-

Copyright© WordPressの使い方 , 2020 All Rights Reserved Powered by STINGER.