技術的SEOエラーは静かです。404ページや壊れたフォームとは異なり、めったに自己告知しません。誤って設定されたrobots.txtはランキングが下がったことに気づく前に、数週間にわたってGooglebotをサイト全体からブロックする可能性があります。以下はすべてのサイト監査に含めるべき10のチェックです。
1. タイトルタグ — 存在し、ユニークで、適切な長さ
タイトルタグの欠如は自動的に重要な減点です。ページ間のタイトルの重複は検索エンジンを混乱させます。最適な長さは30〜60文字です。
2. メタディスクリプション
直接的なランキング要因ではありませんが、メタディスクリプションはクリック率に影響します。160文字未満に保ち、ターゲットキーワードを含めてください。
3. H1タグ — 1ページに1つ
複数のH1はトピカルオーソリティシグナルを希薄化します。ベストプラクティス:メインキーワードを含む1ページ1つのH1。
4. カノニカルタグ
カノニカルタグは、複数のURLに重複コンテンツが存在する場合(例:?ref= トラッキングパラメーター、HTTPS対HTTP)に検索エンジンにどのURLが「オリジナル」かを伝えます。
5. robots.txt
1行の誤って配置された Disallow: / がサイト全体のすべてのクローラーをブロックします。robots.txtがアクセス可能で有効であり、誤ってGooglebotをブロックしていないことを確認してください。
6. XMLサイトマップ
サイトマップは新しいページと更新されたページのインデックス作成を加速します。サイトマップにはカノニカルでインデックス可能なURLのみを含めてください。
7. Open Graphタグ
OGタグはソーシャルメディアでシェアされたときのコンテンツの表示を制御します。最低限:og:title、og:description、og:image、og:url。
8. 構造化データ
JSON-LD構造化データはGoogle SearchのリッチリザルトとGEOスコアを大幅に改善し、AIエンジンに引用するための機械可読コンテンツを提供します。
9. HTTPS
HTTPSは2014年からGoogleのランキングシグナルです。2026年にはユーザー信頼シグナルやCore Web Vitals測定にも影響します。
10. llms.txt
/llms.txt ファイルは、AIクローラーにとって robots.txt が従来の検索ボットに対するものと同じです。GPTBotとPerplexityBotにどのコンテンツが引用に利用可能かを伝えます。