Saltar al contenido
Volver

Usar llms.txt con MCP: convierte tu documentación en base de conocimiento para la IA

Publicado:  at  10:00 a. m.

Usar llms.txt con MCP: convierte tu documentación en base de conocimiento para la IA

Ideas clave

  • El Model Context Protocol (MCP) permite que asistentes como Claude traigan conocimiento vivo de fuentes externas — también de tu archivo llms.txt.
  • Conectar un llms-full.txt a un servidor MCP da respuestas instantáneas y precisas sobre tu producto sin salir del editor.
  • La configuración lleva menos de 10 minutos con npx — sin servidores que mantener.
  • Cualquier sitio con un llms-full.txt público puede enlazarse hoy como fuente MCP.

El Model Context Protocol (MCP), presentado por Anthropic a finales de 2024, se ha convertido en uno de los avances más prácticos en herramientas para desarrolladores. Según el repositorio de MCP en GitHub, el protocolo superó 1.000 servidores creados por la comunidad en sus primeros seis meses (Anthropic MCP, 2025). Uno de los patrones más útiles: usar tu llms-full.txt como fuente viva consultable por asistentes de IA en tiempo real.

¿Qué es Model Context Protocol (MCP)?

MCP es un protocolo abierto que conecta asistentes de IA con herramientas y datos externos de forma estándar. Como un estándar «USB‑C» para integraciones de IA: en lugar de conectores a medida, una interfaz común para cualquier cliente compatible.

Con MCP, un asistente como Claude (Claude Desktop o Cursor) puede:

Por qué llms-full.txt encaja tan bien en MCP

Tu llms-full.txt es un único documento en Markdown con el texto completo de tus páginas más relevantes: legible por máquina y autocontenido — exactamente lo que necesita un servidor MCP para responder sobre tu producto.

Al enlazar llms-full.txt a un MCP, das al asistente una base de conocimiento curada y actualizada. Sin pipeline de embeddings, sin vector DB ni infraestructura RAG: solo una URL y unas líneas de configuración.

La diferencia entre usar llms.txt para «SEO de IA» y con MCP:

Caso de usoArchivoUso
SEO / descubrimiento IA/llms.txtRastreado de forma pasiva por sistemas de IA
Integración MCP/llms-full.txtDescargado bajo demanda por asistentes de IA activamente

Los dos tienen sentido: /llms.txt es el índice; /llms-full.txt es el contenido completo.

Configurar un servidor MCP con tu llms-full.txt

Ejemplo real: Taiga UI publica documentación como llms-full.txt y ofrece un servidor MCP reusable:

{
  "mcpServers": {
    "taiga-ui": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://taiga-ui.dev/llms-full.txt"
      ]
    }
  }
}

La configuración indica a Claude (o cualquier IA compatible MCP) lanzar localmente el servidor por npx que obtiene y busca los docs de Taiga. El desarrollador puede preguntar «¿cómo uso el componente TuiInput?» y obtener respuestas con fuente en la documentación oficial.

Para la versión /next:

{
  "mcpServers": {
    "taiga-ui-next": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://taiga-ui.dev/next/llms-full.txt"
      ]
    }
  }
}

Cómo añadir esta configuración a tu herramienta

Claude Desktop

Archivo de configuración:

Añade el bloque mcpServers; si ya hay servidores, incorpora solo la nueva entrada:

{
  "mcpServers": {
    "my-product-docs": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://tudominio.com/llms-full.txt"
      ]
    }
  }
}

Reinicia Claude Desktop. El icono de herramientas en el campo de texto confirma que MCP está conectado.

Cursor

Ve a Ajustes > MCP y añade la misma estructura JSON que Claude Desktop.

VS Code (Copilot o extensión Claude)

Añade la configuración en .vscode/mcp.json del workspace:

{
  "servers": {
    "my-product-docs": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://tudominio.com/llms-full.txt"
      ]
    }
  }
}

Tu propio servidor MCP para llms-full.txt

Si prefieres no depender del paquete de terceros, el esquema es simple: obtener la URL del llms-full.txt, dividir por encabezados Markdown y exponer una herramienta de búsqueda por palabras clave.

Estructura mínima con el SDK oficial de MCP en TypeScript:

import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import { z } from "zod";

const server = new McpServer({ name: "my-docs", version: "1.0.0" });

server.tool("search_docs", { query: z.string() }, async ({ query }) => {
  const res = await fetch("https://tudominio.com/llms-full.txt");
  const text = await res.text();
  const sections = text.split(/^##+ /m);
  const matches = sections.filter(s =>
    s.toLowerCase().includes(query.toLowerCase())
  );
  return { content: [{ type: "text", text: matches.join("\n\n---\n\n") }] };
});

const transport = new StdioServerTransport();
await server.connect(transport);

Buen punto de partida para producción. Las implementaciones reales añaden caché, paginación en archivos grandes y coincidencias más flexibles.

Qué ganan tus usuarios

Con la documentación en MCP, quien programa con asistentes de IA obtiene:

En pruebas con varias bibliotecas, el mayor beneficio fue reducir respuestas «alucinadas». Si la IA está anclada al llms-full.txt real, deja de inventar firmas que no existen.

¿Hace falta llms-full.txt para que funcione?

Sí. MCP necesita el texto completo de tus docs — no solo el índice. Con solo /llms.txt tendrás navegación pero no suficiente detalle para responder dudas concretas.

Para generar llms-full.txt automáticamente, usa LLMGenerator: rastrea tu sitio y produce ambos archivos en un paso.

Preguntas frecuentes

¿Tiene que ser público el llms-full.txt?
Sí si usas un servidor MCP basado en URL. Para documentación privada puedes pasar una ruta local en los argumentos del MCP.

¿Cuánto puede pesar?
Depende de la ventana de contexto del modelo. Por debajo de ~200 KB suele ir bien en la mayoría. Para colecciones muy grandes, divide por sección y monta varios servidores.

¿Funciona con cualquier IA compatible MCP?
Sí: el protocolo es abierto y agnóstico al modelo. Claude, Cursor, Zed y otros que soporten MCP pueden compartir la misma configuración.

¿Debo republicar cuando cambien los docs?
Idealmente sí. Muchos MCP descargan la URL en cada petición: mantén una URL estable y automatiza la regeneración al desplegar.


Combinar llms-full.txt y MCP es de las formas más prácticas en 2026 de que tu documentación sea realmente útil en el día a día del desarrollador: poca carga operativa en tu lado y valor claro para quien usa un asistente de código.

Empieza generando llms-full.txt con LLMGenerator y añade la configuración MCP en Claude Desktop o Cursor. En menos de 15 minutos puedes tenerlo funcionando.



Artículo anterior
SEO, GEO, AEO y LLMO: por qué el futuro favorece a quien usa las cuatro
Artículo siguiente
Cómo añadir llms.txt a tu web (paso a paso)