メインコンテンツへスキップ
SEO改善Claude Code2026.04.17約15分で読める

SEO 17施策を一括改善

Claude Codeで実施した全記録

Netsujo株式会社(京都発・Web3/AI領域の実装型BizDevスタートアップ)が運営する115ページのコーポレートサイト netsujo.jp に対し、Claude Codeの並列エージェント分析・一括コード修正・API自動連携で17のSEO/AI SEO施策を1セッションで実施しました。本記事では、GSCで検出された具体的な問題、施策の実行手順、Before/Afterの数値、再現可能なプロンプト設計までを公開します。

ー 01

背景と課題

Netsujo株式会社は、京都を拠点にWeb3・AIなど先端技術領域で事業開発を行うスタートアップです。自社サイト netsujo.jp はNext.js 16 + Strapi v5 + Vercel で構築し、全115ページで運用しています。

Google Search Console(以下GSC)の定期確認で、以下5つの問題が同時に検出されました。個別対応では工数がかさむため、Claude Codeで一括処理する方針を採用しました。

53ページが「検出 - インデックス未登録」

Googlebotがクロール済みだがインデックスしていない状態。サイトマップ提出・コンテンツ品質・内部リンク不足が複合要因。

構造化データ警告 5件(Product schema)

brand無効、hasMerchantReturnPolicy・shippingDetails・review・aggregateRating が不足。SaaSプロダクトに Product スキーマを適用していたことが根本原因。

旧URL 30件が404先にリダイレクト

/nKkfwPVO/* が /blog/:slug にリダイレクトされるが、実際のSlug は news- プレフィックス付きのため404。

og:type / og:image が全記事で未最適化

全ブログ記事の og:type が website のまま。og:image もデフォルト画像を使用し、記事固有のCloudinary画像が反映されていなかった。

AI検索エンジン対応の現状把握ができていない

GPTBot・ClaudeBot・PerplexityBot 等の主要AIクローラーへの対応状況を体系的に把握できていなかった。

技術スタック

Next.js 16Strapi v5VercelTypeScriptTailwind CSSCloudinary

ー 02

Before / After(数値比較)

17施策の実施前後を項目別に比較します。数値は施策実施直後の状態であり、GSCへの反映には数日〜1週間を要します。

Before

After

インデックス

53件が未登録

147URLを一括申請

Indexing APIでサイトマップ114件 + 旧URL 33件を送信

構造化データ

警告5件

警告0件

Product → SoftwareApplication に変更し、物販用フィールドを削除

リダイレクト

30件が404先へ

全30件正常化

/nKkfwPVO/:slug → /blog/news-:slug に修正(308→200)

og:type

website(誤り)

article(正)

動的42件 + 静的20件、全ブログ記事を統一

og:image

デフォルト画像

記事固有のCloudinary画像

Strapi featuredImage から自動取得

author

Organization

Person(飯田友広)

個人の専門家シグナルを強化

H1

英語のまま

日本語化

Company→会社概要、Core Member→メンバー紹介 等

CSP

3ディレクティブ

9ディレクティブ

script-src / style-src / img-src 等の主要ディレクティブを追加

/blog サイズ

211KB(全件一括)

Load More方式

初期12件 → 段階読み込みで初期表示を軽量化

内部リンク(サービス)

0件

全6ページに追加

各サービスページに「関連コンテンツ」セクションを新設

内部リンク(ブログ)

1-2本のみ

全21記事×3件

関連記事セクションを全記事に追加

新規作成ページ

/kyoto — ローカルSEO向けランディングページ

/blog/bizdev-guide — 実装型BizDev解説記事

ー 03

工数対効果

17

施策

1セッションで実施

100+

ファイル

変更ファイル数

2,000+

コード変更行数

3

エージェント

並列同時実行

手作業との比較

同等の施策を手作業で実施した場合、SEO分析に1日、コード修正に2-3日、API連携に1日、テスト・検証に1日で最低5営業日を要します。Claude Codeでは分析から実装までを1セッション(数時間)で完了しました。特に540箇所のカラーコード一括置換やIndexing APIの147URL一括申請など、反復作業の自動化による効果が大きい点が特徴です。

ー 04

Claude Codeの活用パターン

今回の17施策で使用した5つの実行パターンを技術者向けに解説します。いずれもClaude Codeの標準機能で再現可能です。

01

パターン01: 3部署並列分析

Agent ツールで3つのサブエージェントを並列起動しました。マーケティング(コンテンツSEO)、開発(テクニカルSEO)、リサーチ(AI SEO)の3部門が独立してサイトをクロール・分析し、結果を統合して優先度付きの施策リストを作成しています。約5分で3部門分の分析が完了しました。

02

パターン02: 一括コード修正(codemod)

Pythonスクリプトで540箇所のカラーコード一括置換(#c93816 → #e8461e)を実行しました。61ファイルを1コマンドで修正し、型チェック(tsc --noEmit)で安全性を担保しています。手作業では数時間かかる修正が数十秒で完了しました。

03

パターン03: 外部API連携の自動化

Google Indexing API(114URL + 旧URL 33件を自動申請)、Strapi CMS API(ブログ記事のfeaturedImage一括確認→未設定2件を特定→画像生成→アップロード→紐付け→ISRリバリデーション)、GSC URL Inspection API(canonical重複の原因調査)、Discord Webhook(全作業結果を自動通知)の4つのAPIを連携しました。

04

パターン04: 構造化データ移行

Product → SoftwareApplication へのスキーマ変更を実施しました。JSON-LDの設計判断をAIが行い、人間が承認するフローです。Google Search Consoleの警告5件(brand無効、hasMerchantReturnPolicy / shippingDetails / review / aggregateRating 不足)を根本解決しました。

05

パターン05: 問題の根本原因特定

「/nKkfwPVO/* が404」の原因を特定しました。汎用リダイレクトルールが news- プレフィックスを考慮していなかったことが根本原因です。サイトマップ全115URLをPythonで並列ヘルスチェックし、全件正常であることを確認。問題はGoogleに残留する旧URLと判明しました。GSC Search Analytics APIで孤立URL 79件を特定し、正しいリダイレクト先を設定しています。

ー 05

AI SEO対応の現状

従来のGooglebot向けSEOに加え、GPTBot・ClaudeBot・PerplexityBot等のAI検索エンジンに対する最適化状況を調査した結果をまとめます。

robots.txt

対応済み

主要AI検索エンジン10社を許可(GPTBot, ClaudeBot, PerplexityBot等)

llms.txt / llms-full.txt

対応済み

AI向け構造化テキストを提供

ai-plugin.json

対応済み

ChatGPTプラグイン互換のマニフェスト

ai:description メタタグ

対応済み

全ページに設置済み

テキスト対HTML比率

44-76%

業界平均25-40%を大幅に上回る

E-E-A-T(/trust ページ)

対応済み

所属団体・講演実績を明示

Wikidata

未登録

手動作業が必要(AI SEO課題)

author

修正済み

Organization → Person(飯田友広)に変更

AI SEOの重要指標

テキスト対HTML比率: 44-76% — 業界平均25-40%を大幅に上回る。AI検索エンジンがコンテンツを効率的に抽出できる状態。

llms.txt 3点セット — llms.txt・llms-full.txt・ai-plugin.json を設置済み。AI検索エンジンがサイト構造を把握するための標準的な対応。

E-E-A-T — /trust ページで所属団体・講演実績を明示。authorをPerson(飯田友広、代表取締役)に修正し、個人の専門家シグナルを強化。

残課題: Wikidata未登録 — ナレッジパネル表示やAIのエンティティ認識に影響。登録作業は手動で実施する必要がある。

ー 06

再現可能なプロンプト設計

実際に使用したプロンプトの設計パターンを公開します。そのままコピーして自社サイトに適用できます。

プロンプト例1: 3部署並列分析

3つのサブエージェントに異なる分析観点を割り当て、並列実行する。各エージェントは独立してサイトを分析し、結果を統合する。

以下の3つの分析を並列で実施してください。

## エージェント1: マーケティング分析(コンテンツSEO)
- サイトマップの全URLをクロールし、titleタグ・H1の重複を確認
- og:type / og:image の設定状況を全ページで確認
- 内部リンク構造を分析し、孤立ページを特定

## エージェント2: 開発分析(テクニカルSEO)
- 構造化データのバリデーション(Google Rich Results Test相当)
- リダイレクトチェーン・404の検出
- CSP / セキュリティヘッダーの監査

## エージェント3: リサーチ分析(AI SEO)
- robots.txtのAIクローラー許可状況を確認
- llms.txt / ai-plugin.json の存在確認
- テキスト対HTML比率の算出

3エージェントの結果を統合し、
優先度(高・中・低)付きの施策リストを作成してください。

プロンプト例2: 一括コード修正

変更対象・変更内容・制約条件を明示することで、安全な一括修正を実行する。

以下の一括修正を実施してください。

## 変更内容
- 対象: src/ 以下の全 .tsx / .ts ファイル
- 変更: カラーコード #c93816 → #e8461e に置換
- 除外: node_modules, .next, public

## 制約条件
- Pythonスクリプトで一括置換を実行すること
- 置換前後のファイル数・置換箇所数を報告すること
- 置換後に npx tsc --noEmit で型チェックを実行すること
- エラーが1件でもあれば置換を取り消すこと

プロンプト例3: Indexing API一括申請

外部API連携の指示は、認証情報の取得方法・対象URL・エラーハンドリングを明記する。

Google Indexing APIで以下のURLをインデックス申請してください。

## 認証
- サービスアカウントキー: ~/.config/gcloud/indexing-sa.json
- スコープ: https://www.googleapis.com/auth/indexing

## 対象URL
- sitemap.xml に含まれる全URL(現在114件)
- GSCの「ページのインデックス登録」で検出された旧URL 33件

## 実行条件
- バッチサイズ: 50件ずつ(API quota上限を考慮)
- 各バッチ間に1秒のインターバル
- 成功/失敗の件数を最後にサマリ出力

ー 07

注意点・限界

Claude Codeでできること

  • コードの一括修正(codemod)
  • 外部API連携の自動化
  • サイト全体のクロール・分析
  • 構造化データの設計・実装
  • リダイレクトルールの修正
  • 型チェック・ビルド検証

人間が判断すべきこと

  • ポジショニングの決定(「実装型BizDev」という主語の選定)
  • デザイン判断(色・フォント・レイアウト)
  • 公開可否の最終判断
  • Wikidata登録(外部プラットフォームでの手動作業)
  • GSC反映の待機(数日〜1週間)
  • 検索順位変動の解釈と次の打ち手

即効性に関する注意

SEO施策の実装は数時間で完了しますが、Googleのインデックス反映には数日〜1週間かかります。Indexing APIによる申請は優先的なクロールをリクエストするものであり、インデックス登録を保証するものではありません。施策実施後は最低2週間のモニタリング期間を設け、GSCのデータを基に効果を検証してください。

まとめ

AI SEO対応は「やるかやらないか」のフェーズに入っています。llms.txt を設置している日本のスタートアップは1%未満と推定されますが、GPTBot・ClaudeBot・PerplexityBot がWebクロールを本格化している以上、対応の遅れは検索露出の機会損失に直結します。

Claude Codeのようなエージェントを活用すれば、スタートアップでも大手企業並みのSEO品質を実現できます。115ページのサイトに対する17施策の一括実施が1セッションで完了した事実は、AIエージェントの実務適用性を示しています。

ただし、AIに何を任せ、何を人間が判断するかの線引きが最も重要です。ポジショニング・デザイン・公開判断は人間の領域であり、コード修正・API連携・分析はAIの領域です。この役割分担を明確にすることが、AIエージェント活用の成否を分けます。

この記事が向いている方

  • 自社サイトのSEO改善をAIツールで効率化したい方

  • Claude Codeの実務活用方法を知りたい技術者

  • AI SEO対応の具体的な手順を知りたい方

構想段階でもお気軽に

無料相談を申し込む

この記事のテーマに関するご相談を受け付けています。要件が固まっていない段階でも構いません。

相談してみる