!
ソレダ!
ai-search

【実践レポート】GEOスコア改善の全記録

2026年3月28日 約7分で読めます
公開日: 2026年3月28日
ai-search

目次

  1. 1. 改善前のGEOスコア: 総合40点
  2. 2. Week 1: AIクローラーの許可(+8点)
  3. 3. Week 2: 構造化データの実装(+12点)
  4. 4. Week 3: コンテンツ最適化(+10点)
  5. 5. Week 4: 技術基盤の最適化(+8点)
  6. 6. 改善の「コスパ」ランキング
  7. 7. 改善後に起きた変化
  8. 8. まとめ
もっと見る
  1. 9. 関連記事

「GEO対策が大事なのはわかった。でも、実際にやったらどれくらい効果があるの?」

この疑問に答えるため、この記事ではBtoB企業のコーポレートサイトに対して行ったGEO改善の全過程を、

施策ごとのスコア変動つき
で公開します。

この記事の対象サイト

  • 業種: ITサービス企業(従業員50名規模)
  • 改善前の状況: SEO対策済み(主要KWで検索10位以内)、GEO対策は未実施
  • 計測ツール: ミツカルAI(5カテゴリGEO診断)
  • 改善期間: 約4週間(実作業時間は約20時間)

改善前のGEOスコア: 総合40点

まず、改善前の各カテゴリスコアを見てみましょう。

カテゴリスコア判定
AI Visibility(AI検索での被引用性)35要改善
Schema & Structured Data(構造化データ)25要改善
Crawler Access(AIクローラー対応)52注意
Content Quality(コンテンツ品質)48注意
Technical Foundation(技術基盤)40要改善
総合40要改善

特に構造化データが25点と低く、JSON-LDがまったく実装されていないことが主因でした。Crawler Accessが52点だったのは、robots.txtでGPTBotのみブロックしていたためです。

Week 1: AIクローラーの許可(+8点)

クローラーブロックが原因でChatGPTに表示されない状況の診断手順はChatGPTに自社サイトが表示されない?原因と対策を30秒で可視化する方法で解説しています。

やったこと

1. robots.txtの修正(所要時間: 15分)

# 修正前: GPTBotをブロック
User-agent: GPTBot
Disallow: /

# 修正後: 全AIクローラーを許可
User-agent: GPTBot
Allow: /

User-agent: ChatGPT-User
Allow: /

User-agent: Google-Extended
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: ClaudeBot
Allow: /

2. llms.txtの設置(所要時間: 30分)

サイトのルートにllms.txtを設置。会社概要、主要サービス、問い合わせ先をMarkdown形式で記述しました。

# 株式会社XXX
> ITサービス企業。クラウド型業務支援ツールを提供

## サービス
- [メインプロダクト](https://xxx.co.jp/product): クラウド型CRM
- [料金](https://xxx.co.jp/pricing): 3プラン構成

## 会社情報
- [会社概要](https://xxx.co.jp/about)
- [お問い合わせ](https://xxx.co.jp/contact)

スコア変動

カテゴリBeforeAfter変動
Crawler Access5278
+26
AI Visibility3538+3
総合4048+8

気づき: robots.txt修正だけで Crawler Access が+26点。作業時間15分に対する効果が最も高い施策でした。llms.txtの効果は数値には出にくいですが、AIの理解精度を上げるための「保険」として設置しておく価値があります。

Week 2: 構造化データの実装(+12点)

やったこと

1. Organization スキーマの実装(所要時間: 1時間)

トップページの<head>に企業情報のJSON-LDを設置。sameAsでSNSアカウントとWantedlyを紐づけました。

{
  "@context": "https://schema.org",
  "@type": "Organization",
  "name": "株式会社XXX",
  "url": "https://xxx.co.jp",
  "logo": "https://xxx.co.jp/logo.png",
  "description": "クラウド型業務支援ツールを提供するITサービス企業",
  "sameAs": [
    "https://twitter.com/xxx_official",
    "https://www.wantedly.com/companies/xxx"
  ],
  "contactPoint": {
    "@type": "ContactPoint",
    "telephone": "+81-3-XXXX-XXXX",
    "contactType": "sales"
  }
}

2. FAQPage スキーマの実装(所要時間: 2時間)

既存のFAQページ(テキストだけだった)にJSON-LDを追加。よくある質問8件をマークアップしました。

3. Article スキーマの実装(所要時間: 1.5時間)

ブログ記事テンプレートに著者情報・公開日・更新日のJSON-LDを追加。CMSテンプレートの修正なので、一度の実装で全記事に適用されました。

スコア変動

カテゴリBeforeAfter変動
Schema & Structured Data2568
+43
AI Visibility3842+4
総合4860+12

構造化データが最大のスコアドライバーだったことがわかります。カテゴリ単独で+43点。ゼロから実装したので伸びしろが大きかった面はありますが、BtoB企業サイトではJSON-LDが未実装のケースが多いため、同じ状況の企業は大きな改善が見込めます。

Week 3: コンテンツ最適化(+10点)

やったこと

1. Aboutページ(Entity Home)の大幅改修(所要時間: 3時間)

改修前のAboutページは「会社名・住所・代表者名」だけの最小構成でした。以下を追加:

2. ブログ記事5本のリライト(所要時間: 5時間)

アクセス数の多い上位5記事を「AI引用されやすい書き方」にリライト:

3. FAQ構造の追加(所要時間: 2時間)

サービスページの下部に、Q&A形式のセクションを5問追加。JSON-LDも同時に実装しました。

スコア変動

カテゴリBeforeAfter変動
Content Quality4865
+17
AI Visibility4255+13
総合6070+10

AI Visibilityが大きく跳ねたのはこのタイミングでした
。構造化データで「機械的に読める」状態を作った上で、コンテンツの質を上げたことで、AIが「引用したい」と判断する情報が増えた結果です。

Week 4: 技術基盤の最適化(+8点)

やったこと

1. Core Web Vitalsの改善(所要時間: 3時間)

2. モバイル対応の強化(所要時間: 2時間)

レスポンシブ対応は済んでいましたが、一部ページでフォントサイズが小さすぎる箇所を修正。

3. sitemap.xmlの更新(所要時間: 30分)

不要なページを除外し、重要ページのlastmodを正確に設定。

最終スコア

カテゴリWeek 0Week 4変動
AI Visibility3565
+30
Schema & Structured Data2568
+43
Crawler Access5282
+30
Content Quality4872
+24
Technical Foundation4065
+25
総合4078+38

改善の「コスパ」ランキング

4週間の施策を

「スコア上昇÷作業時間」
で評価すると、以下の順になります。

順位施策スコア上昇作業時間コスパ
1robots.txt修正+26(カテゴリ)15分極めて高い
2llms.txt設置30分低コストで保険
3構造化データ実装+43(カテゴリ)4.5時間高い
4Aboutページ改修+17(カテゴリの一部)3時間
5記事リライト+13(AI Visibility)5時間
6Core Web Vitals+25(カテゴリ)3時間中〜高

最大の教訓: GEO対策は「正しい順番」で実施することが重要です。robots.txtでブロックしている状態でコンテンツを改善しても効果はありません。まずクローラーのアクセスを開放し、次に構造化データで機械可読性を上げ、その上でコンテンツの質を高める。この順番を守ることで、各施策の効果が最大化されます。

改善後に起きた変化

スコア改善から2週間後、以下の変化が確認できました。

  1. ChatGPTでの引用: 「(業界名) おすすめ CRM」の質問に対し、競合3社と並んで自社名が回答に含まれるようになった
  2. Perplexityでの引用: ブログ記事の一節が引用元としてリンクつきで表示された
  3. Google AI Overviews: 主要キーワードのAI Overview枠に、FAQの回答文が引用された

スコアの改善がAI検索での実際の引用増加につながったことが確認できた
事例です。Perplexityでの引用を狙うロングテール戦略はPerplexityに引用されないのはなぜ?ロングテールKW発見術で解説しています。

まとめ

  • GEOスコア 40点→78点(+38点)を4週間・約20時間で達成
  • 最もコスパが高い施策はrobots.txt修正(15分で+26点)
  • 最もスコアインパクトが大きいのは構造化データ実装(+43点)
  • 施策の順番が重要: クローラー許可→構造化データ→コンテンツ最適化→技術基盤
  • スコア改善の2週間後にChatGPT・Perplexityでの引用を確認

GEO対策は特別な技術や大きな予算が必要なものではありません。この記事で紹介した施策は、Web担当者が自社で実行できるものばかりです。まずは現状のスコアを把握するところから始めてみてください。


関連記事

あなたのサイトのGEOスコアを無料で確認

AIに見つけてもらえるサイトか、今すぐチェック

無料で診断する

クレジットカード不要・30秒で完了

関連記事

関連記事を準備中です