SEO 17施策を一括改善
Claude Codeで実施した全記録
Netsujo株式会社(京都発・Web3/AI領域の実装型BizDevスタートアップ)が運営する115ページのコーポレートサイト netsujo.jp に対し、Claude Codeの並列エージェント分析・一括コード修正・API自動連携で17のSEO/AI SEO施策を1セッションで実施しました。本記事では、GSCで検出された具体的な問題、施策の実行手順、Before/Afterの数値、再現可能なプロンプト設計までを公開します。
ー 01
背景と課題
Netsujo株式会社は、京都を拠点にWeb3・AIなど先端技術領域で事業開発を行うスタートアップです。自社サイト netsujo.jp はNext.js 16 + Strapi v5 + Vercel で構築し、全115ページで運用しています。
Google Search Console(以下GSC)の定期確認で、以下5つの問題が同時に検出されました。個別対応では工数がかさむため、Claude Codeで一括処理する方針を採用しました。
53ページが「検出 - インデックス未登録」
Googlebotがクロール済みだがインデックスしていない状態。サイトマップ提出・コンテンツ品質・内部リンク不足が複合要因。
構造化データ警告 5件(Product schema)
brand無効、hasMerchantReturnPolicy・shippingDetails・review・aggregateRating が不足。SaaSプロダクトに Product スキーマを適用していたことが根本原因。
旧URL 30件が404先にリダイレクト
/nKkfwPVO/* が /blog/:slug にリダイレクトされるが、実際のSlug は news- プレフィックス付きのため404。
og:type / og:image が全記事で未最適化
全ブログ記事の og:type が website のまま。og:image もデフォルト画像を使用し、記事固有のCloudinary画像が反映されていなかった。
AI検索エンジン対応の現状把握ができていない
GPTBot・ClaudeBot・PerplexityBot 等の主要AIクローラーへの対応状況を体系的に把握できていなかった。
技術スタック
ー 02
Before / After(数値比較)
17施策の実施前後を項目別に比較します。数値は施策実施直後の状態であり、GSCへの反映には数日〜1週間を要します。
Before
After
インデックス
53件が未登録
147URLを一括申請
Indexing APIでサイトマップ114件 + 旧URL 33件を送信
構造化データ
警告5件
警告0件
Product → SoftwareApplication に変更し、物販用フィールドを削除
リダイレクト
30件が404先へ
全30件正常化
/nKkfwPVO/:slug → /blog/news-:slug に修正(308→200)
og:type
website(誤り)
article(正)
動的42件 + 静的20件、全ブログ記事を統一
og:image
デフォルト画像
記事固有のCloudinary画像
Strapi featuredImage から自動取得
author
Organization
Person(飯田友広)
個人の専門家シグナルを強化
H1
英語のまま
日本語化
Company→会社概要、Core Member→メンバー紹介 等
CSP
3ディレクティブ
9ディレクティブ
script-src / style-src / img-src 等の主要ディレクティブを追加
/blog サイズ
211KB(全件一括)
Load More方式
初期12件 → 段階読み込みで初期表示を軽量化
内部リンク(サービス)
0件
全6ページに追加
各サービスページに「関連コンテンツ」セクションを新設
内部リンク(ブログ)
1-2本のみ
全21記事×3件
関連記事セクションを全記事に追加
新規作成ページ
/kyoto — ローカルSEO向けランディングページ
/blog/bizdev-guide — 実装型BizDev解説記事
ー 03
工数対効果
17
施策
1セッションで実施
100+
ファイル
変更ファイル数
2,000+
行
コード変更行数
3
エージェント
並列同時実行
手作業との比較
同等の施策を手作業で実施した場合、SEO分析に1日、コード修正に2-3日、API連携に1日、テスト・検証に1日で最低5営業日を要します。Claude Codeでは分析から実装までを1セッション(数時間)で完了しました。特に540箇所のカラーコード一括置換やIndexing APIの147URL一括申請など、反復作業の自動化による効果が大きい点が特徴です。
ー 04
Claude Codeの活用パターン
今回の17施策で使用した5つの実行パターンを技術者向けに解説します。いずれもClaude Codeの標準機能で再現可能です。
パターン01: 3部署並列分析
Agent ツールで3つのサブエージェントを並列起動しました。マーケティング(コンテンツSEO)、開発(テクニカルSEO)、リサーチ(AI SEO)の3部門が独立してサイトをクロール・分析し、結果を統合して優先度付きの施策リストを作成しています。約5分で3部門分の分析が完了しました。
パターン02: 一括コード修正(codemod)
Pythonスクリプトで540箇所のカラーコード一括置換(#c93816 → #e8461e)を実行しました。61ファイルを1コマンドで修正し、型チェック(tsc --noEmit)で安全性を担保しています。手作業では数時間かかる修正が数十秒で完了しました。
パターン03: 外部API連携の自動化
Google Indexing API(114URL + 旧URL 33件を自動申請)、Strapi CMS API(ブログ記事のfeaturedImage一括確認→未設定2件を特定→画像生成→アップロード→紐付け→ISRリバリデーション)、GSC URL Inspection API(canonical重複の原因調査)、Discord Webhook(全作業結果を自動通知)の4つのAPIを連携しました。
パターン04: 構造化データ移行
Product → SoftwareApplication へのスキーマ変更を実施しました。JSON-LDの設計判断をAIが行い、人間が承認するフローです。Google Search Consoleの警告5件(brand無効、hasMerchantReturnPolicy / shippingDetails / review / aggregateRating 不足)を根本解決しました。
パターン05: 問題の根本原因特定
「/nKkfwPVO/* が404」の原因を特定しました。汎用リダイレクトルールが news- プレフィックスを考慮していなかったことが根本原因です。サイトマップ全115URLをPythonで並列ヘルスチェックし、全件正常であることを確認。問題はGoogleに残留する旧URLと判明しました。GSC Search Analytics APIで孤立URL 79件を特定し、正しいリダイレクト先を設定しています。
ー 05
AI SEO対応の現状
従来のGooglebot向けSEOに加え、GPTBot・ClaudeBot・PerplexityBot等のAI検索エンジンに対する最適化状況を調査した結果をまとめます。
robots.txt
対応済み
主要AI検索エンジン10社を許可(GPTBot, ClaudeBot, PerplexityBot等)
llms.txt / llms-full.txt
対応済み
AI向け構造化テキストを提供
ai-plugin.json
対応済み
ChatGPTプラグイン互換のマニフェスト
ai:description メタタグ
対応済み
全ページに設置済み
テキスト対HTML比率
44-76%
業界平均25-40%を大幅に上回る
E-E-A-T(/trust ページ)
対応済み
所属団体・講演実績を明示
Wikidata
未登録
手動作業が必要(AI SEO課題)
author
修正済み
Organization → Person(飯田友広)に変更
AI SEOの重要指標
テキスト対HTML比率: 44-76% — 業界平均25-40%を大幅に上回る。AI検索エンジンがコンテンツを効率的に抽出できる状態。
llms.txt 3点セット — llms.txt・llms-full.txt・ai-plugin.json を設置済み。AI検索エンジンがサイト構造を把握するための標準的な対応。
E-E-A-T — /trust ページで所属団体・講演実績を明示。authorをPerson(飯田友広、代表取締役)に修正し、個人の専門家シグナルを強化。
残課題: Wikidata未登録 — ナレッジパネル表示やAIのエンティティ認識に影響。登録作業は手動で実施する必要がある。
ー 06
再現可能なプロンプト設計
実際に使用したプロンプトの設計パターンを公開します。そのままコピーして自社サイトに適用できます。
プロンプト例1: 3部署並列分析
3つのサブエージェントに異なる分析観点を割り当て、並列実行する。各エージェントは独立してサイトを分析し、結果を統合する。
以下の3つの分析を並列で実施してください。 ## エージェント1: マーケティング分析(コンテンツSEO) - サイトマップの全URLをクロールし、titleタグ・H1の重複を確認 - og:type / og:image の設定状況を全ページで確認 - 内部リンク構造を分析し、孤立ページを特定 ## エージェント2: 開発分析(テクニカルSEO) - 構造化データのバリデーション(Google Rich Results Test相当) - リダイレクトチェーン・404の検出 - CSP / セキュリティヘッダーの監査 ## エージェント3: リサーチ分析(AI SEO) - robots.txtのAIクローラー許可状況を確認 - llms.txt / ai-plugin.json の存在確認 - テキスト対HTML比率の算出 3エージェントの結果を統合し、 優先度(高・中・低)付きの施策リストを作成してください。
プロンプト例2: 一括コード修正
変更対象・変更内容・制約条件を明示することで、安全な一括修正を実行する。
以下の一括修正を実施してください。 ## 変更内容 - 対象: src/ 以下の全 .tsx / .ts ファイル - 変更: カラーコード #c93816 → #e8461e に置換 - 除外: node_modules, .next, public ## 制約条件 - Pythonスクリプトで一括置換を実行すること - 置換前後のファイル数・置換箇所数を報告すること - 置換後に npx tsc --noEmit で型チェックを実行すること - エラーが1件でもあれば置換を取り消すこと
プロンプト例3: Indexing API一括申請
外部API連携の指示は、認証情報の取得方法・対象URL・エラーハンドリングを明記する。
Google Indexing APIで以下のURLをインデックス申請してください。 ## 認証 - サービスアカウントキー: ~/.config/gcloud/indexing-sa.json - スコープ: https://www.googleapis.com/auth/indexing ## 対象URL - sitemap.xml に含まれる全URL(現在114件) - GSCの「ページのインデックス登録」で検出された旧URL 33件 ## 実行条件 - バッチサイズ: 50件ずつ(API quota上限を考慮) - 各バッチ間に1秒のインターバル - 成功/失敗の件数を最後にサマリ出力
ー 07
注意点・限界
Claude Codeでできること
- ▸コードの一括修正(codemod)
- ▸外部API連携の自動化
- ▸サイト全体のクロール・分析
- ▸構造化データの設計・実装
- ▸リダイレクトルールの修正
- ▸型チェック・ビルド検証
人間が判断すべきこと
- ▸ポジショニングの決定(「実装型BizDev」という主語の選定)
- ▸デザイン判断(色・フォント・レイアウト)
- ▸公開可否の最終判断
- ▸Wikidata登録(外部プラットフォームでの手動作業)
- ▸GSC反映の待機(数日〜1週間)
- ▸検索順位変動の解釈と次の打ち手
即効性に関する注意
SEO施策の実装は数時間で完了しますが、Googleのインデックス反映には数日〜1週間かかります。Indexing APIによる申請は優先的なクロールをリクエストするものであり、インデックス登録を保証するものではありません。施策実施後は最低2週間のモニタリング期間を設け、GSCのデータを基に効果を検証してください。
まとめ
AI SEO対応は「やるかやらないか」のフェーズに入っています。llms.txt を設置している日本のスタートアップは1%未満と推定されますが、GPTBot・ClaudeBot・PerplexityBot がWebクロールを本格化している以上、対応の遅れは検索露出の機会損失に直結します。
Claude Codeのようなエージェントを活用すれば、スタートアップでも大手企業並みのSEO品質を実現できます。115ページのサイトに対する17施策の一括実施が1セッションで完了した事実は、AIエージェントの実務適用性を示しています。
ただし、AIに何を任せ、何を人間が判断するかの線引きが最も重要です。ポジショニング・デザイン・公開判断は人間の領域であり、コード修正・API連携・分析はAIの領域です。この役割分担を明確にすることが、AIエージェント活用の成否を分けます。
この記事が向いている方
自社サイトのSEO改善をAIツールで効率化したい方
Claude Codeの実務活用方法を知りたい技術者
AI SEO対応の具体的な手順を知りたい方