Servidor MCP de LLMGenerator: genera archivos llms.txt directamente en Claude, Cursor y Windsurf
Ideas clave
- El servidor MCP de LLMGenerator expone 9 herramientas para generar, gestionar y validar archivos llms.txt — utilizables dentro de Claude, Cursor, Windsurf o cualquier cliente compatible con MCP.
- La configuración lleva menos de dos minutos: añade una URL y tu clave API a la configuración MCP y listo.
- Tu agente de IA puede rastrear un sitio, generar un llms.txt y recuperar el resultado en una sola conversación.
Si alguna vez has tenido que salir del editor de IA, abrir el navegador, pegar una URL en LLMGenerator, esperar el archivo, copiar el resultado y pegarlo de vuelta, esto es para ti.
El servidor MCP de LLMGenerator elimina ese ida y vuelta por completo. Da a los agentes de IA acceso directo al flujo completo de generación de LLMGenerator: rastrear un sitio, generar un llms.txt, comprobar el estado, obtener el contenido y validar la calidad — sin salir del entorno de desarrollo.
¿Qué es MCP y por qué importa?
El Model Context Protocol (MCP) es un estándar abierto que permite a los agentes de IA llamar a herramientas externas durante una conversación. En lugar de copiar y pegar entre aplicaciones, la IA puede actuar por ti: obtener datos, ejecutar comandos, escribir archivos — según tus instrucciones.
Claude Desktop, Claude Code, Cursor y Windsurf admiten servidores MCP de forma nativa. Una vez configurado el servidor, la IA accede a sus herramientas igual que al resto de capacidades integradas.
El servidor MCP de LLMGenerator registra 9 herramientas en tu cliente de IA. A partir de ahí puedes pedir a Claude «genera un llms.txt para example.com» y lo hará — de forma autónoma, paso a paso.
Qué puedes hacer con el servidor MCP de LLMGenerator
El servidor cubre todo el ciclo de vida del llms.txt:
Generación
| Herramienta | Qué hace |
|---|---|
generate_llms_txt | Rastrea un sitio web e inicia la generación de un llms.txt |
get_generation_status | Consulta el trabajo asíncrono hasta que termina y devuelve un ID de sitio |
Hay dos modos de generación: Simple (1 crédito por URL — rápido, usa los títulos existentes de la página) y Enhanced (2 créditos por URL — la IA reescribe títulos y descripciones para que los LLM entiendan mejor).
Gestión de sitios
| Herramienta | Qué hace |
|---|---|
list_sites | Lista todos los sitios generados previamente con estado y URLs de archivo |
get_site | Obtiene metadatos completos de un sitio concreto |
get_llms_txt_content | Recupera el texto llms.txt (versión estándar o texto completo) |
Descubrimiento de URLs
| Herramienta | Qué hace |
|---|---|
discover_urls | Rastrea un sitio para descubrir su estructura de URLs sin generar |
get_discovered_urls | Obtiene la lista de páginas descubiertas |
Validación y créditos
| Herramienta | Qué hace |
|---|---|
validate_llms_txt | Valida cualquier contenido llms.txt — devuelve puntuación de calidad 0–100, errores y sugerencias (no requiere autenticación) |
get_credit_balance | Consulta tu saldo de créditos y transacciones recientes |
Cómo conectarlo en dos minutos
Solo necesitas una clave API de app.llmgenerator.com/settings/api-keys.
Claude Desktop
Abre ~/.config/claude/claude_desktop_config.json (Linux/Windows) o ~/Library/Application Support/Claude/claude_desktop_config.json (macOS) y añade:
{
"mcpServers": {
"llmgenerator": {
"url": "https://mcp.llmgenerator.com/mcp",
"headers": {
"Authorization": "Bearer llmgen_tu_api_key_aqui"
}
}
}
}
Reinicia Claude Desktop. Listo.
Claude Code (CLI)
claude mcp add llmgenerator \
--url https://mcp.llmgenerator.com/mcp \
--header "Authorization: Bearer llmgen_tu_api_key_aqui"
Cursor / Windsurf
Añade la misma URL (https://mcp.llmgenerator.com/mcp) y el encabezado Authorization en el panel de ajustes MCP. La interfaz exacta depende de la versión, pero los valores son idénticos.
Flujo típico de agente
Una vez conectado, tu IA ejecuta todo el proceso de forma autónoma. Así ocurre cuando pides «Genera un llms.txt para acmecorp.com»:
Paso 1 — Iniciar la generación
El agente llama a generate_llms_txt con tu URL y ajustes. Recibe un jobId al instante: la generación corre en segundo plano.
generate_llms_txt(url="https://acmecorp.com", maxUrls=50, method="simple")
→ { jobId: "gen_abc123", status: "pending" }
Paso 2 — Esperar hasta completarse
El agente consulta get_generation_status cada pocos segundos hasta que el trabajo termina y devuelve un siteId.
get_generation_status(jobId="gen_abc123")
→ { status: "completed", siteId: "site_xyz789", progress: 100 }
Paso 3 — Obtener el archivo
El agente recupera el contenido generado.
get_llms_txt_content(siteId="site_xyz789")
→ # Acme Corp
> Enterprise software for modern teams.
## Products
- [Platform Overview](/platform): ...
...
Todo ocurre dentro de una sola conversación. Sin pestañas ni copiar y pegar.
Casos de uso reales
Onboarding del sitio de un nuevo cliente
Pide a Claude que genere un llms.txt para el dominio del cliente, que valide la calidad y resuma la puntuación y los problemas — en un solo prompt. Obtén un informe estructurado sin usar el navegador.
Auditoría de varios sitios
Usa list_sites para ver todos los sitios generados y pide al agente que revalide cada archivo y marque los que están por debajo de un umbral.
Comprobaciones pre-despliegue en CI
Los agentes en pipelines de CI pueden llamar a validate_llms_txt sobre un archivo antes de publicarlo — no hace falta clave API para validar; no tiene coste.
Descubrimiento antes de generar
Usa primero discover_urls para entender la estructura del sitio antes de gastar créditos. Inspecciona la lista de URLs, filtra secciones irrelevantes y genera con un maxUrls dirigido.
Por debajo del capó
El servidor MCP corre como un Cloudflare Worker sin estado en mcp.llmgenerator.com. Tu clave API se reenvía a la API principal de LLMGenerator; la capa MCP no añade complejidad extra de autenticación. El límite de peticiones lo gestiona Cloudflare de forma nativa: 60 peticiones por minuto por clave API, 10 por minuto para peticiones no autenticadas.
El servidor está construido con:
- Hono — enrutador HTTP ligero
- @modelcontextprotocol/sdk — transporte HTTP streamable MCP
- Zod — validación en tiempo de ejecución para cada herramienta
- Sentry — seguimiento de errores en producción
Compatibilidad con OAuth 2.1 (inicio de sesión en el navegador, sin copiar claves API) prevista para una versión futura.
Primeros pasos
- Obtén una clave API en app.llmgenerator.com/settings/api-keys — necesitarás cuenta gratuita si aún no la tienes.
- Añade el servidor a tu cliente MCP con la configuración de arriba.
- Abre una nueva conversación y pide a tu IA que genere un llms.txt para cualquier sitio público.
No hacen falta créditos para validar — validate_llms_txt es totalmente público. Para generar archivos, el nivel gratuito incluye 50 créditos para empezar; la generación cuesta entre 1 y 2 créditos por página según el modo.
El punto de destino está activo en https://mcp.llmgenerator.com/mcp. Conéctalo una vez y tu flujo de IA tendrá una canalización completa de generación llms.txt de forma permanente.
¿Dudas o comentarios? Escríbenos: leemos todo.