「GEO対策が大事なのはわかった。でも、実際にやったらどれくらい効果があるの?」
この疑問に答えるため、この記事ではBtoB企業のコーポレートサイトに対して行ったGEO改善の全過程を、
この記事の対象サイト
- 業種: ITサービス企業(従業員50名規模)
- 改善前の状況: SEO対策済み(主要KWで検索10位以内)、GEO対策は未実施
- 計測ツール: ミツカルAI(5カテゴリGEO診断)
- 改善期間: 約4週間(実作業時間は約20時間)
改善前のGEOスコア: 総合40点
まず、改善前の各カテゴリスコアを見てみましょう。
| カテゴリ | スコア | 判定 |
|---|---|---|
| AI Visibility(AI検索での被引用性) | 35 | 要改善 |
| Schema & Structured Data(構造化データ) | 25 | 要改善 |
| Crawler Access(AIクローラー対応) | 52 | 注意 |
| Content Quality(コンテンツ品質) | 48 | 注意 |
| Technical Foundation(技術基盤) | 40 | 要改善 |
| 総合 | 40 | 要改善 |
特に構造化データが25点と低く、JSON-LDがまったく実装されていないことが主因でした。Crawler Accessが52点だったのは、robots.txtでGPTBotのみブロックしていたためです。
Week 1: AIクローラーの許可(+8点)
クローラーブロックが原因でChatGPTに表示されない状況の診断手順はChatGPTに自社サイトが表示されない?原因と対策を30秒で可視化する方法で解説しています。
やったこと
1. robots.txtの修正(所要時間: 15分)
# 修正前: GPTBotをブロック
User-agent: GPTBot
Disallow: /
# 修正後: 全AIクローラーを許可
User-agent: GPTBot
Allow: /
User-agent: ChatGPT-User
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: ClaudeBot
Allow: /
2. llms.txtの設置(所要時間: 30分)
サイトのルートにllms.txtを設置。会社概要、主要サービス、問い合わせ先をMarkdown形式で記述しました。
# 株式会社XXX
> ITサービス企業。クラウド型業務支援ツールを提供
## サービス
- [メインプロダクト](https://xxx.co.jp/product): クラウド型CRM
- [料金](https://xxx.co.jp/pricing): 3プラン構成
## 会社情報
- [会社概要](https://xxx.co.jp/about)
- [お問い合わせ](https://xxx.co.jp/contact)
スコア変動
| カテゴリ | Before | After | 変動 |
|---|---|---|---|
| Crawler Access | 52 | 78 | +26 |
| AI Visibility | 35 | 38 | +3 |
| 総合 | 40 | 48 | +8 |
気づき: robots.txt修正だけで Crawler Access が+26点。作業時間15分に対する効果が最も高い施策でした。llms.txtの効果は数値には出にくいですが、AIの理解精度を上げるための「保険」として設置しておく価値があります。
Week 2: 構造化データの実装(+12点)
やったこと
1. Organization スキーマの実装(所要時間: 1時間)
トップページの<head>に企業情報のJSON-LDを設置。sameAsでSNSアカウントとWantedlyを紐づけました。
{
"@context": "https://schema.org",
"@type": "Organization",
"name": "株式会社XXX",
"url": "https://xxx.co.jp",
"logo": "https://xxx.co.jp/logo.png",
"description": "クラウド型業務支援ツールを提供するITサービス企業",
"sameAs": [
"https://twitter.com/xxx_official",
"https://www.wantedly.com/companies/xxx"
],
"contactPoint": {
"@type": "ContactPoint",
"telephone": "+81-3-XXXX-XXXX",
"contactType": "sales"
}
}
2. FAQPage スキーマの実装(所要時間: 2時間)
既存のFAQページ(テキストだけだった)にJSON-LDを追加。よくある質問8件をマークアップしました。
3. Article スキーマの実装(所要時間: 1.5時間)
ブログ記事テンプレートに著者情報・公開日・更新日のJSON-LDを追加。CMSテンプレートの修正なので、一度の実装で全記事に適用されました。
スコア変動
| カテゴリ | Before | After | 変動 |
|---|---|---|---|
| Schema & Structured Data | 25 | 68 | +43 |
| AI Visibility | 38 | 42 | +4 |
| 総合 | 48 | 60 | +12 |
構造化データが最大のスコアドライバーだったことがわかります。カテゴリ単独で+43点。ゼロから実装したので伸びしろが大きかった面はありますが、BtoB企業サイトではJSON-LDが未実装のケースが多いため、同じ状況の企業は大きな改善が見込めます。
Week 3: コンテンツ最適化(+10点)
やったこと
1. Aboutページ(Entity Home)の大幅改修(所要時間: 3時間)
改修前のAboutページは「会社名・住所・代表者名」だけの最小構成でした。以下を追加:
- 事業内容の詳細説明(300字→800字に拡充)
- 代表者の経歴・専門領域の記載
- メディア掲載実績(4件)のリンク付きリスト
- 導入実績の数値(「導入企業200社超」「継続率97%」)
2. ブログ記事5本のリライト(所要時間: 5時間)
アクセス数の多い上位5記事を「AI引用されやすい書き方」にリライト:
- 「〜と言われています」→ 断言形に変更
- 具体的な数値データを追加
- 1段落=1メッセージの原則を適用
- 見出しに結論を含める(「ポイント3」→「CRM導入で問い合わせ管理コストが40%削減できる」)
3. FAQ構造の追加(所要時間: 2時間)
サービスページの下部に、Q&A形式のセクションを5問追加。JSON-LDも同時に実装しました。
スコア変動
| カテゴリ | Before | After | 変動 |
|---|---|---|---|
| Content Quality | 48 | 65 | +17 |
| AI Visibility | 42 | 55 | +13 |
| 総合 | 60 | 70 | +10 |
Week 4: 技術基盤の最適化(+8点)
やったこと
1. Core Web Vitalsの改善(所要時間: 3時間)
- LCP(最大コンテンツ描画): 4.2秒→2.1秒(画像最適化)
- CLS(レイアウトシフト): 0.18→0.05(画像サイズ指定)
- INP(入力遅延): 180ms→90ms(JS最適化)
2. モバイル対応の強化(所要時間: 2時間)
レスポンシブ対応は済んでいましたが、一部ページでフォントサイズが小さすぎる箇所を修正。
3. sitemap.xmlの更新(所要時間: 30分)
不要なページを除外し、重要ページのlastmodを正確に設定。
最終スコア
| カテゴリ | Week 0 | Week 4 | 変動 |
|---|---|---|---|
| AI Visibility | 35 | 65 | +30 |
| Schema & Structured Data | 25 | 68 | +43 |
| Crawler Access | 52 | 82 | +30 |
| Content Quality | 48 | 72 | +24 |
| Technical Foundation | 40 | 65 | +25 |
| 総合 | 40 | 78 | +38 |
改善の「コスパ」ランキング
4週間の施策を
| 順位 | 施策 | スコア上昇 | 作業時間 | コスパ |
|---|---|---|---|---|
| 1 | robots.txt修正 | +26(カテゴリ) | 15分 | 極めて高い |
| 2 | llms.txt設置 | — | 30分 | 低コストで保険 |
| 3 | 構造化データ実装 | +43(カテゴリ) | 4.5時間 | 高い |
| 4 | Aboutページ改修 | +17(カテゴリの一部) | 3時間 | 中 |
| 5 | 記事リライト | +13(AI Visibility) | 5時間 | 中 |
| 6 | Core Web Vitals | +25(カテゴリ) | 3時間 | 中〜高 |
最大の教訓: GEO対策は「正しい順番」で実施することが重要です。robots.txtでブロックしている状態でコンテンツを改善しても効果はありません。まずクローラーのアクセスを開放し、次に構造化データで機械可読性を上げ、その上でコンテンツの質を高める。この順番を守ることで、各施策の効果が最大化されます。
改善後に起きた変化
スコア改善から2週間後、以下の変化が確認できました。
- ChatGPTでの引用: 「(業界名) おすすめ CRM」の質問に対し、競合3社と並んで自社名が回答に含まれるようになった
- Perplexityでの引用: ブログ記事の一節が引用元としてリンクつきで表示された
- Google AI Overviews: 主要キーワードのAI Overview枠に、FAQの回答文が引用された
まとめ
- GEOスコア 40点→78点(+38点)を4週間・約20時間で達成
- 最もコスパが高い施策はrobots.txt修正(15分で+26点)
- 最もスコアインパクトが大きいのは構造化データ実装(+43点)
- 施策の順番が重要: クローラー許可→構造化データ→コンテンツ最適化→技術基盤
- スコア改善の2週間後にChatGPT・Perplexityでの引用を確認
GEO対策は特別な技術や大きな予算が必要なものではありません。この記事で紹介した施策は、Web担当者が自社で実行できるものばかりです。まずは現状のスコアを把握するところから始めてみてください。