Google    ビジネスサポートプランニング: robots.txt ファイルを使用してクロールを管理する方法 Google+

東大阪在住。印刷系・通販系が得意です。半年で取得するPマーク導入支援、SNS・懸賞サイトを使った、ローコストSEO対策・コンバージョンアップ、会社を変えるISO9001、効果的なSPツール・プレミアムグッズ・景品等の解説をブログでおこなっています。 現在はお仕事の依頼を受け付けておりません。

analytics

このブログを検索

2015年1月8日木曜日

robots.txt ファイルを使用してクロールを管理する方法

robots.txtファイルは、特定のページをウェブクローラ ソフトウェアにクロールされないようにするテキスト ファイルです。
このファイルは基本的には Allow や Disallow 等のコマンドで、これによりウェブクローラに URL情報取得の可否を指示します。
robots.txt で許可されていない URL とコンテンツは Google 検索結果に表示されません。

robots.txt ファイルを使用するのは、サイトコンテンツに検索エンジンのインデックス登録したくないコンテンツがある場合のみです。
サイト全体を Google インデックスに登録したい場合は、robots.txt ファイルを作成しません。

Google クローラがアクセスできる URL とアクセスできないURL を確認するには、robots.txt テスターを使います。

下記の記事も参考にしてください



0 件のコメント:

コメントを投稿

バイナリーオプション BinaryFX

人気の投稿