Aller au contenu
Retour

Utiliser llms.txt avec MCP : transformez votre doc en base de connaissances IA

Publié:  at  10:00 AM

Utiliser llms.txt avec MCP : transformez votre doc en base de connaissances IA

Points clés

  • Le Model Context Protocol (MCP) permet à des assistants comme Claude d’injecter des connaissances en direct depuis des sources externes — dont votre fichier llms.txt.
  • Connecter un llms-full.txt à un serveur MCP donne aux développeurs des réponses instantanées et exactes sans quitter l’éditeur.
  • L’installation prend moins de 10 minutes avec npx — sans serveur à gérer.
  • Tout site avec un llms-full.txt public peut servir de source MCP dès maintenant.

Le Model Context Protocol (MCP), présenté par Anthropic fin 2024, est devenu l’une des avancées les plus pragmatiques pour les outils développeurs. Selon le dépôt GitHub MCP, le protocole a dépassé plus de 1 000 serveurs communautaires en six mois (Anthropic MCP, 2025). Parmi les usages les plus utiles : utiliser votre llms-full.txt comme base de connaissances mise à jour en direct, interrogée par les assistants IA.

Qu’est-ce que le Model Context Protocol (MCP) ?

MCP est un protocole ouvert qui permet aux assistants IA de se connecter à des outils et des sources de données externes de façon standardisée. Pensez-y comme un équivalent USB-C pour les intégrations IA — au lieu de connecteurs sur mesure pour chaque outil, une interface commune utilisable par tout client conforme.

Avec MCP, un assistant comme Claude (dans Claude Desktop ou Cursor) peut :

Pourquoi llms-full.txt est idéal pour MCP

Votre fichier llms-full.txt est un document unique au format Markdown contenant le texte intégral de vos pages les plus importantes. Il est pensé pour être lisible par machine et autonome — exactement ce qu’un serveur MCP attend pour répondre sur votre produit.

En connectant un llms-full.txt à un serveur MCP, vous donnez en pratique à l’assistant une base curatoriale toujours à jour. Pas de pipeline d’embeddings, pas de base vectorielle, pas d’infrastructure RAG — une URL et quelques lignes de configuration.

La différence entre llms.txt pour la « SEO IA » et son usage avec MCP :

Cas d’usageFichierUsage
Découverte / SEO IA/llms.txtExploré passivement par les systèmes IA
Intégration MCP/llms-full.txtRécupéré à la demande par les assistants

Les deux fichiers valent la peine. /llms.txt est l’index ; /llms-full.txt est le contenu complet.

Configurer un serveur MCP avec votre llms-full.txt

Exemple concret : la bibliothèque de composants Taiga UI expose toute sa documentation en llms-full.txt et fournit un serveur MCP :

{
  "mcpServers": {
    "taiga-ui": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://taiga-ui.dev/llms-full.txt"
      ]
    }
  }
}

Cette configuration indique à Claude (ou tout client MCP-compatible) de lancer un serveur MCP local via npx qui récupère et recherche dans la doc Taiga UI. Le développeur peut demander « comment utiliser le composant TuiInput ? » et obtenir des réponses sourcées directement depuis la documentation.

Pour /next, changez l’URL :

{
  "mcpServers": {
    "taiga-ui-next": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://taiga-ui.dev/next/llms-full.txt"
      ]
    }
  }
}

Ajouter cette configuration à votre outil IA

Claude Desktop

Ouvrez le fichier de configuration Claude Desktop :

Ajoutez le bloc mcpServers. S’il existe déjà d’autres serveurs, fusionnez l’entrée :

{
  "mcpServers": {
    "my-product-docs": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://yourdomain.com/llms-full.txt"
      ]
    }
  }
}

Redémarrez Claude Desktop. Une icône « outils » apparaît dans la zone de saisie — MCP est connecté.

Cursor

Dans Cursor : Réglages > MCP et ajoutez la configuration. Le même format JSON que Claude Desktop.

VS Code (Copilot ou extension Claude)

Ajoutez la config dans .vscode/mcp.json du workspace :

{
  "servers": {
    "my-product-docs": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://yourdomain.com/llms-full.txt"
      ]
    }
  }
}

Créer votre propre serveur MCP pour llms-full.txt

Sans dépendre d’un paquet MCP tiers ? Le schéma est simple : télécharger l’URL llms-full.txt, découper en sections selon les titres Markdown, exposer un outil de recherche par mot-clé.

Structure minimale avec le SDK MCP TypeScript officiel :

import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import { z } from "zod";

const server = new McpServer({ name: "my-docs", version: "1.0.0" });

server.tool("search_docs", { query: z.string() }, async ({ query }) => {
  const res = await fetch("https://yourdomain.com/llms-full.txt");
  const text = await res.text();
  const sections = text.split(/^##+ /m);
  const matches = sections.filter(s =>
    s.toLowerCase().includes(query.toLowerCase())
  );
  return { content: [{ type: "text", text: matches.join("\n\n---\n\n") }] };
});

const transport = new StdioServerTransport();
await server.connect(transport);

Point de départ exploitable ; en production : cache (le fichier change rarement), pagination pour les gros fichiers, recherche approximative.

Ce que cela change pour vos utilisateurs

Documentation connectée via MCP : pour les développeurs avec assistants de code,

D’après nos tests sur plusieurs bibliothèques, le plus gros gain est la suppression des réponses « hallucinées » sur l’API. Ancré dans le llms-full.txt réel, l’IA invente moins de signatures inexistantes.

Faut-il un llms-full.txt pour que cela fonctionne ?

Oui. MCP a besoin du texte complet de la documentation, pas seulement de l’index. Un seul /llms.txt donne la navigation, pas le détail pour répondre à des questions précises.

Pour générer automatiquement un llms-full.txt, utilisez LLMGenerator : analyse du site et production des deux fichiers en une étape.

FAQ

llms-full.txt doit-il être public ? Oui si vous passez par une URL. Pour une doc privée, un chemin de fichier local dans les arguments MCP peut suffire.

Quelle taille maximale pour llms-full.txt ? La fenêtre de contexte du modèle fait loi ; en général moins de 200 Ko fonctionne bien. Pour de très grosses docs, segmentez avec plusieurs serveurs MCP.

Fonctionne-t-il avec tout client MCP ? Le protocole est ouvert et agnostique au modèle — Claude, Cursor, Zed, etc.

Faut-il republier llms-full.txt quand la doc change ? Idéalement oui ; beaucoup de serveurs retéléchargent à chaque requête. Une régénération au déploiement garde MCP à jour automatiquement.


Combiner llms-full.txt et MCP reste en 2026 l’un des moyens les plus simples de rendre votre documentation réellement utile aux développeurs : peu de maintenance, pas d’infrastructure IA côté vous, valeur concrète pour quiconque code avec un assistant connecté MCP.

Commencez par générer votre llms-full.txt avec LLMGenerator, puis ajoutez la configuration dans Claude Desktop ou Cursor. Moins de quinze minutes suffisent.



Article précédent
SEO, GEO, AEO et LLMO : pourquoi l'avenir appartient aux marketeurs qui maîtrisent les quatre
Article suivant
Comment ajouter llms.txt à votre site web (étape par étape)