Utiliser llms.txt avec MCP : transformez votre doc en base de connaissances IA
Points clés
- Le Model Context Protocol (MCP) permet à des assistants comme Claude d’injecter des connaissances en direct depuis des sources externes — dont votre fichier llms.txt.
- Connecter un llms-full.txt à un serveur MCP donne aux développeurs des réponses instantanées et exactes sans quitter l’éditeur.
- L’installation prend moins de 10 minutes avec
npx— sans serveur à gérer.- Tout site avec un
llms-full.txtpublic peut servir de source MCP dès maintenant.
Le Model Context Protocol (MCP), présenté par Anthropic fin 2024, est devenu l’une des avancées les plus pragmatiques pour les outils développeurs. Selon le dépôt GitHub MCP, le protocole a dépassé plus de 1 000 serveurs communautaires en six mois (Anthropic MCP, 2025). Parmi les usages les plus utiles : utiliser votre llms-full.txt comme base de connaissances mise à jour en direct, interrogée par les assistants IA.
Qu’est-ce que le Model Context Protocol (MCP) ?
MCP est un protocole ouvert qui permet aux assistants IA de se connecter à des outils et des sources de données externes de façon standardisée. Pensez-y comme un équivalent USB-C pour les intégrations IA — au lieu de connecteurs sur mesure pour chaque outil, une interface commune utilisable par tout client conforme.
Avec MCP, un assistant comme Claude (dans Claude Desktop ou Cursor) peut :
- Lire des fichiers sur votre disque
- Interroger des bases de données
- Appeler des API externes
- Récupérer et rechercher dans de la documentation distante — là où llms.txt entre en jeu
Pourquoi llms-full.txt est idéal pour MCP
Votre fichier llms-full.txt est un document unique au format Markdown contenant le texte intégral de vos pages les plus importantes. Il est pensé pour être lisible par machine et autonome — exactement ce qu’un serveur MCP attend pour répondre sur votre produit.
En connectant un llms-full.txt à un serveur MCP, vous donnez en pratique à l’assistant une base curatoriale toujours à jour. Pas de pipeline d’embeddings, pas de base vectorielle, pas d’infrastructure RAG — une URL et quelques lignes de configuration.
La différence entre llms.txt pour la « SEO IA » et son usage avec MCP :
| Cas d’usage | Fichier | Usage |
|---|---|---|
| Découverte / SEO IA | /llms.txt | Exploré passivement par les systèmes IA |
| Intégration MCP | /llms-full.txt | Récupéré à la demande par les assistants |
Les deux fichiers valent la peine. /llms.txt est l’index ; /llms-full.txt est le contenu complet.
Configurer un serveur MCP avec votre llms-full.txt
Exemple concret : la bibliothèque de composants Taiga UI expose toute sa documentation en llms-full.txt et fournit un serveur MCP :
{
"mcpServers": {
"taiga-ui": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://taiga-ui.dev/llms-full.txt"
]
}
}
}
Cette configuration indique à Claude (ou tout client MCP-compatible) de lancer un serveur MCP local via npx qui récupère et recherche dans la doc Taiga UI. Le développeur peut demander « comment utiliser le composant TuiInput ? » et obtenir des réponses sourcées directement depuis la documentation.
Pour /next, changez l’URL :
{
"mcpServers": {
"taiga-ui-next": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://taiga-ui.dev/next/llms-full.txt"
]
}
}
}
Ajouter cette configuration à votre outil IA
Claude Desktop
Ouvrez le fichier de configuration Claude Desktop :
- macOS :
~/Library/Application Support/Claude/claude_desktop_config.json - Windows :
%APPDATA%\Claude\claude_desktop_config.json
Ajoutez le bloc mcpServers. S’il existe déjà d’autres serveurs, fusionnez l’entrée :
{
"mcpServers": {
"my-product-docs": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://yourdomain.com/llms-full.txt"
]
}
}
}
Redémarrez Claude Desktop. Une icône « outils » apparaît dans la zone de saisie — MCP est connecté.
Cursor
Dans Cursor : Réglages > MCP et ajoutez la configuration. Le même format JSON que Claude Desktop.
VS Code (Copilot ou extension Claude)
Ajoutez la config dans .vscode/mcp.json du workspace :
{
"servers": {
"my-product-docs": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://yourdomain.com/llms-full.txt"
]
}
}
}
Créer votre propre serveur MCP pour llms-full.txt
Sans dépendre d’un paquet MCP tiers ? Le schéma est simple : télécharger l’URL llms-full.txt, découper en sections selon les titres Markdown, exposer un outil de recherche par mot-clé.
Structure minimale avec le SDK MCP TypeScript officiel :
import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import { z } from "zod";
const server = new McpServer({ name: "my-docs", version: "1.0.0" });
server.tool("search_docs", { query: z.string() }, async ({ query }) => {
const res = await fetch("https://yourdomain.com/llms-full.txt");
const text = await res.text();
const sections = text.split(/^##+ /m);
const matches = sections.filter(s =>
s.toLowerCase().includes(query.toLowerCase())
);
return { content: [{ type: "text", text: matches.join("\n\n---\n\n") }] };
});
const transport = new StdioServerTransport();
await server.connect(transport);
Point de départ exploitable ; en production : cache (le fichier change rarement), pagination pour les gros fichiers, recherche approximative.
Ce que cela change pour vos utilisateurs
Documentation connectée via MCP : pour les développeurs avec assistants de code,
- Réponses ancrées dans votre doc — moins de méthodes d’API inventées
- Mises à jour en direct — chaque requête peut retélécharger le dernier llms-full.txt
- Zéro friction — ils restent dans l’éditeur
- Génération de code mieux contextualisée — syntaxe correcte issue de votre bibliothèque
D’après nos tests sur plusieurs bibliothèques, le plus gros gain est la suppression des réponses « hallucinées » sur l’API. Ancré dans le llms-full.txt réel, l’IA invente moins de signatures inexistantes.
Faut-il un llms-full.txt pour que cela fonctionne ?
Oui. MCP a besoin du texte complet de la documentation, pas seulement de l’index. Un seul /llms.txt donne la navigation, pas le détail pour répondre à des questions précises.
Pour générer automatiquement un llms-full.txt, utilisez LLMGenerator : analyse du site et production des deux fichiers en une étape.
FAQ
llms-full.txt doit-il être public ? Oui si vous passez par une URL. Pour une doc privée, un chemin de fichier local dans les arguments MCP peut suffire.
Quelle taille maximale pour llms-full.txt ? La fenêtre de contexte du modèle fait loi ; en général moins de 200 Ko fonctionne bien. Pour de très grosses docs, segmentez avec plusieurs serveurs MCP.
Fonctionne-t-il avec tout client MCP ? Le protocole est ouvert et agnostique au modèle — Claude, Cursor, Zed, etc.
Faut-il republier llms-full.txt quand la doc change ? Idéalement oui ; beaucoup de serveurs retéléchargent à chaque requête. Une régénération au déploiement garde MCP à jour automatiquement.
Combiner llms-full.txt et MCP reste en 2026 l’un des moyens les plus simples de rendre votre documentation réellement utile aux développeurs : peu de maintenance, pas d’infrastructure IA côté vous, valeur concrète pour quiconque code avec un assistant connecté MCP.
Commencez par générer votre llms-full.txt avec LLMGenerator, puis ajoutez la configuration dans Claude Desktop ou Cursor. Moins de quinze minutes suffisent.