Google    ビジネスサポートプランニング: ウェブマスター向けガイドライン 技術に関するガイドライン Google+

東大阪在住。印刷系・通販系が得意です。半年で取得するPマーク導入支援、SNS・懸賞サイトを使った、ローコストSEO対策・コンバージョンアップ、会社を変えるISO9001、効果的なSPツール・プレミアムグッズ・景品等の解説をブログでおこなっています。 現在はお仕事の依頼を受け付けておりません。

analytics

このブログを検索

2015年4月3日金曜日

ウェブマスター向けガイドライン 技術に関するガイドライン

技術に関するガイドライン

  • Googleがコンテンツを完全に把握できるようにします。方法は、サイトのアセット(CSS や JavaScript ファイル)がすべてクロール出来るようにします。Googleのインデックス登録システムは、ページのHTMLやアセット(画像、CSS、Javascript ファイル)を使用してページをレンダリングしています。Googlebotがクロールできないページアセットを確認し、robots.txt ファイルのディレクティブをデバッグするには、ウェブマスター ツール Fetch as Googleと robots.txt テスターを使用します。
  • サイト内にセッションIDやサイト内のパスをトラッキングする引数がなくても(追跡するデータが無くても)、Googlebotがクロールできるようにします。これは個々のユーザーの行動をトラッキングする場合には便利です。しかし、botがクロールする(サイトにアクセスする)パターンと異なります。そのため、この技術では、同じページにリンクしている別のURLをbotが排除できず、サイトのインデックスが不完全なものになる場合もあります。
  • ウェブサーバーが If-Modified-Since HTTP ヘッダーに対応しているか確認します。この機能を使用すると、Google が前回サイトをクロールした後にコンテンツの変更があるかどうかサーバーから Google に通知され、帯域幅や負荷を軽減できます。
  • ウェブサーバーの robots.txt ファイルを使用します。このファイルは、クロールを実行するディレクトリと実行しないディレクトリを指定できます。誤ってクローラがブロックされないように最新の状態が反映されているか確認します。botのアクセスを制御する方法は http://code.google.com/web/controlcrawlindex/docs/faq.htmlを参考にしてください。Google ウェブマスター ツールの robots.txt 分析ツールを使用して、robots.txt ファイルが正しく作用しているかテストできます。
  • 広告が検索エンジンの掲載順位に影響を与えないように処置します。たとえば AdSenseやDoubleClickは、robots.txt ファイルでクロールをブロックします。
  • コンテンツ管理システムを導入する場合は、botがサイトをクロールできるページやリンクをシステムが作成することを確認します。
  • robots.txt を使用して、検索結果や、ユーザーに価値のない他の自動生成ページをクロールしないよう制御します。
  • サイトをテストして、各ブラウザで正しく表示されることを確認します。
  • サイトのパフォーマンスを監視し、読み込み時間を最適化します。Googleが目標としている事は、ユーザーにとって最も関連性の高い検索結果と優れた利便性を提供することです。表示速度が速いサイトはユーザーの満足度を高めます。また、ウェブ全体の質を向上させます(特にインターネット接続速度が遅い場合)。
  • グーグルは、Page SpeedYSlowWebPagetestその他のツールを使用し、定期的にサイトパフォーマンスを監視することを強く推奨しています。ツールやリソースの詳細は、ウェブ高速化を参照してください。

0 件のコメント:

コメントを投稿

バイナリーオプション BinaryFX

人気の投稿