llms.txtをMCPで活用する:ドキュメントをAIナレッジベースに変える
重要ポイント
- Model Context Protocol(MCP)により、ClaudeのようなAIアシスタントが外部ソース(llms.txtファイルを含む)からリアルタイムで知識を取得できます。
- llms-full.txtファイルをMCPサーバーに接続することで、開発者はエディターを離れずに製品について即座で正確な回答を得られます。
npxを使った設定は10分以内で完了 — 管理するサーバーは不要です。- 公開
llms-full.txtがあるサイトなら、今すぐMCPナレッジソースとして接続できます。
Anthropicが2024年末に導入したModel Context Protocol(MCP)は、開発ツールにおける最も実用的な進歩の一つとして静かに定着しつつあります。MCPのGitHubリポジトリによると、プロトコルは最初の6ヶ月で1,000以上のコミュニティ製サーバーに達しました(Anthropic MCP、2025年)。このエコシステムから生まれる最も有用なパターンの一つが、llms-full.txtファイルをAIアシスタントがリアルタイムで照会できるライブナレッジソースとして使用することです。
Model Context Protocol(MCP)とは?
MCPは、AIアシスタントが外部ツールやデータソースに標準化された方法で接続できるオープンプロトコルです。AI統合のUSB-C標準のようなものと考えてください — 各ツールがカスタムコネクターを構築する代わりに、MCPは対応するすべてのAIが使える単一のインターフェースを提供します。
MCPを使うと、Claude(Claude DesktopやCursor内)のようなAIアシスタントができること:
- ファイルシステムからファイルを読む
- データベースを照会する
- 外部APIを呼び出す
- URLからドキュメントを取得・検索する — ここでllms.txtの出番です
llms-full.txtがMCPに最適な理由
llms-full.txtファイルは、最も重要なページの全文を含む単一のMarkdown形式のドキュメントです。機械可読かつ自己完結型に設計されており — MCPサーバーが製品に関する質問に答えるために必要なものがそこにあります。
llms-full.txtをMCPサーバーに接続すると、実質的にAIアシスタントに製品についてのキュレートされた常に最新のナレッジベースを与えることになります。エンベディングパイプラインも、ベクターデータベースも、RAGインフラも不要 — URLといくつかの設定行だけです。
SEOのためにllms.txtを使う場合とMCPで使う場合の主な違い:
| ユースケース | ファイル | 使われ方 |
|---|---|---|
| SEO / AI発見 | /llms.txt | AIシステムがパッシブにクロール |
| MCP統合 | /llms-full.txt | AIアシスタントがオンデマンドでアクティブに取得 |
両方のファイルを持つ価値があります。/llms.txtはインデックス、/llms-full.txtは全コンテンツです。
llms-full.txtでMCPサーバーをセットアップする
実際の例を見てみましょう。UIコンポーネントライブラリのTaiga UIは完全なドキュメントをllms-full.txtとして公開し、どの開発者でも接続できるMCPサーバーを提供しています:
{
"mcpServers": {
"taiga-ui": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://taiga-ui.dev/llms-full.txt"
]
}
}
}
この設定はClaude(またはMCP対応の任意のAI)に、Taiga UIのドキュメントを取得・検索するnpx経由のローカルMCPサーバーを起動するよう指示します。開発者は「TuiInputコンポーネントの使い方は?」のような質問をして、ライブラリ自身のドキュメントから正確な回答を直接得ることができます。
URLを変えるだけでドキュメントの/nextバージョンにも接続できます:
{
"mcpServers": {
"taiga-ui-next": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://taiga-ui.dev/next/llms-full.txt"
]
}
}
}
この設定をAIツールに追加する方法
Claude Desktop
Claude Desktopの設定ファイルを開きます:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%\Claude\claude_desktop_config.json
mcpServersブロックを追加します。ファイルに他のサーバーがある場合は、既存のオブジェクトに新しいエントリを追加するだけです:
{
"mcpServers": {
"my-product-docs": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://yourdomain.com/llms-full.txt"
]
}
}
}
Claude Desktopを再起動してください。チャット入力欄にツールアイコンが表示されれば、MCPが接続されています。
Cursor
CursorでSettings > MCPに移動し、サーバー設定を追加します。CursorはClaude Desktopと同じMCP JSON形式をサポートしています。
VS Code(CopilotまたはClaude拡張機能)
ワークスペースの.vscode/mcp.jsonファイルに設定を追加します:
{
"servers": {
"my-product-docs": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://yourdomain.com/llms-full.txt"
]
}
}
}
llms-full.txt用の独自MCPサーバーを構築する
サードパーティのMCPパッケージに依存したくない場合、最小限のものを自分で構築できます。パターンはシンプルです:llms-full.txtのURLを取得し、Markdownの見出しでセクションに分割し、キーワードでセクションをフィルタリングする検索ツールを公開する。
公式MCP TypeScript SDKを使った最小限の構造:
import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import { z } from "zod";
const server = new McpServer({ name: "my-docs", version: "1.0.0" });
server.tool(
"search_docs",
{ query: z.string() },
async ({ query }) => {
const res = await fetch("https://yourdomain.com/llms-full.txt");
const text = await res.text();
const sections = text.split(/^##+ /m);
const matches = sections.filter(s =>
s.toLowerCase().includes(query.toLowerCase())
);
return { content: [{ type: "text", text: matches.join("\n\n---\n\n") }] };
}
);
const transport = new StdioServerTransport();
await server.connect(transport);
これは本番対応の出発点です。実際の実装では、キャッシュ(ファイルはほとんど変わらない)、大きなファイルのページネーション、あいまいマッチングを追加します。
ユーザーにとって何が可能になるか
ドキュメントがMCPで接続されると、AIコーディングアシスタントを使う開発者が得られるもの:
- 実際のドキュメントに基づいた正確な回答 — 存在しないAPIメソッドのハルシネーションなし
- リアルタイム更新 — 質問のたびにMCPサーバーがllms-full.txtの最新版を取得
- 摩擦ゼロの発見 — エディターに留まったまま、ブラウザタブを切り替える必要なし
- コンテキスト対応のコード生成 — AIがライブラリの正しい構文を使ってコードスニペットを生成
このパターンを複数のライブラリでテストした経験から、最大の利点はハルシネーションされたAPIの回答をなくすことです。AIが実際のllms-full.txtに基づいていると、存在しないメソッドシグネチャを作り出すことがなくなります。
このパターンに llms-full.txt が必要ですか?
はい。MCPパターンには、インデックスだけでなく、ドキュメントの全コンテンツを含むファイルが必要です。/llms.txtしかない場合、ナビゲーションは得られますが、AIが具体的な質問に答えるのに十分な詳細はありません。
サイトのllms-full.txtを自動生成するには、[LLMGenerator](/を使ってください](/). 1ステップでサイトをクロールし、両方のファイルを生成します。
よくある質問
llms-full.txtはパブリックにアクセス可能である必要がありますか? はい、URLベースのMCPサーバーを使用している場合は。プライベートドキュメントの場合、MCPのargsでURLの代わりにローカルファイルパスを渡すことができます。
llms-full.txtはどのくらいの大きさまで許容されますか? 実際の制限はAIのコンテキストウィンドウによります。200KB以下のファイルはほとんどのモデルで確実に動作します。より大きなドキュメントセットの場合、セクションごとに分割して複数のMCPサーバーを実行することを検討してください。
このパターンはMCP対応の任意のAIで使えますか? はい。MCPプロトコルはオープンでモデル非依存です。MCP対応の任意のAIツール(Claude、Cursor、Zed、その他増え続けるリスト)が同じ設定を使用できます。
ドキュメントが変わったときllms-full.txtを再公開する必要がありますか? 理想的にはそうです。ほとんどのMCPサーバーはリクエストごとにURLを取得するので、ドキュメントは安定したURLにあるだけでいいです。デプロイ時に再生成を自動化すれば、MCP統合は自動的に最新の状態を保ちます。
llms-full.txtとMCPの組み合わせは、2026年に開発者にとってドキュメントを真に有用にする最も実用的な方法の一つです。メンテナンスが少なく、あなたのサイドにAIインフラが不要で、あなたの製品でAIコーディングアシスタントを使うすべての人に実際の価値を提供します。
まずLLMGeneratorでllms-full.txtを生成し、その後Claude DesktopやCursorにMCP設定を追加してください。全工程15分以内で完了します。