Usando llms.txt com MCP: Transforme Seus Docs em uma Base de Conhecimento para IA
Pontos Principais
- O Model Context Protocol (MCP) permite que assistentes de IA como Claude busquem conhecimento vivo de fontes externas — incluindo seu arquivo llms.txt.
- Conectar um arquivo llms-full.txt a um servidor MCP dá aos desenvolvedores respostas instantâneas e precisas sobre seu produto sem sair do editor.
- A configuração leva menos de 10 minutos usando
npx— sem servidores para gerenciar.- Qualquer site com um
llms-full.txtpúblico pode ser conectado como fonte de conhecimento MCP hoje mesmo.
O Model Context Protocol (MCP), introduzido pela Anthropic no final de 2024, tornou-se discretamente um dos avanços mais práticos em ferramentas de desenvolvimento. Segundo o repositório GitHub do MCP, o protocolo alcançou mais de 1.000 servidores construídos pela comunidade em seus primeiros seis meses (Anthropic MCP, 2025). Um dos padrões mais úteis que surgem desse ecossistema: usar seu arquivo llms-full.txt como fonte de conhecimento viva que assistentes de IA podem consultar em tempo real.
O Que É o Model Context Protocol (MCP)?
MCP é um protocolo aberto que permite a assistentes de IA conectar-se a ferramentas externas e fontes de dados de forma padronizada. Pense nele como um padrão USB-C para integrações de IA — em vez de cada ferramenta construir conectores personalizados, o MCP fornece uma interface única que qualquer IA compatível pode usar.
Com o MCP, um assistente de IA como Claude (dentro do Claude Desktop ou Cursor) pode:
- Ler arquivos do seu sistema de arquivos
- Consultar bancos de dados
- Chamar APIs externas
- Buscar e pesquisar documentação a partir de uma URL — e é aí que o llms.txt entra
Por Que o llms-full.txt É Perfeito para MCP
Seu arquivo llms-full.txt é um único documento em formato Markdown contendo o texto completo de suas páginas mais importantes. Ele foi projetado para ser legível por máquinas e autossuficiente — exatamente o que um servidor MCP precisa para responder perguntas sobre seu produto.
Quando você conecta um llms-full.txt a um servidor MCP, está essencialmente dando a um assistente de IA uma base de conhecimento curada e sempre atualizada sobre seu produto. Sem pipeline de embeddings, sem banco de dados vetorial, sem infraestrutura RAG — apenas uma URL e algumas linhas de configuração.
A diferença principal entre usar llms.txt para SEO e usá-lo com MCP:
| Caso de Uso | Arquivo | Como é usado |
|---|---|---|
| SEO / descoberta por IA | /llms.txt | Rastreado passivamente por sistemas de IA |
| Integração MCP | /llms-full.txt | Buscado ativamente por assistentes de IA sob demanda |
Ambos os arquivos valem a pena ter. O /llms.txt é o índice; o /llms-full.txt é o conteúdo completo.
Configurando um Servidor MCP com Seu llms-full.txt
Veja um exemplo real. A biblioteca de componentes Taiga UI expõe sua documentação completa como um llms-full.txt e fornece um servidor MCP que qualquer desenvolvedor pode conectar:
{
"mcpServers": {
"taiga-ui": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://taiga-ui.dev/llms-full.txt"
]
}
}
}
Esta configuração diz ao Claude (ou qualquer IA compatível com MCP) para iniciar um servidor MCP local via npx que busca e pesquisa nos docs do Taiga UI. Um desenvolvedor pode então fazer perguntas como “como uso o componente TuiInput?” e obter respostas precisas e fundamentadas diretamente na documentação da própria biblioteca.
Você pode conectar a uma versão /next dos docs da mesma forma, apenas trocando a URL:
{
"mcpServers": {
"taiga-ui-next": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://taiga-ui.dev/next/llms-full.txt"
]
}
}
}
Como Adicionar Esta Configuração à Sua Ferramenta de IA
Claude Desktop
Abra o arquivo de configuração do Claude Desktop:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%\Claude\claude_desktop_config.json
Adicione o bloco mcpServers. Se o arquivo já tem outros servidores, apenas adicione sua nova entrada ao objeto existente:
{
"mcpServers": {
"meu-produto-docs": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://seudominio.com.br/llms-full.txt"
]
}
}
}
Reinicie o Claude Desktop. Você verá um ícone de ferramentas aparecer no campo de entrada do chat — isso confirma que o MCP está conectado.
Cursor
No Cursor, vá para Settings > MCP e adicione a configuração do servidor. O Cursor suporta o mesmo formato JSON do MCP que o Claude Desktop.
VS Code (com extensão Copilot ou Claude)
Adicione a configuração ao arquivo .vscode/mcp.json do seu workspace:
{
"servers": {
"meu-produto-docs": {
"command": "npx",
"args": [
"@taiga-ui/mcp@latest",
"--source-url=https://seudominio.com.br/llms-full.txt"
]
}
}
}
Construindo Seu Próprio Servidor MCP para o llms-full.txt
Não quer depender de um pacote MCP de terceiros? Você pode construir um mínimo. O padrão é simples: buscar a URL do llms-full.txt, dividir em seções por títulos Markdown, e expor uma ferramenta de busca que filtra seções por palavra-chave.
Aqui está a estrutura mínima usando o SDK TypeScript oficial do MCP:
import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import { z } from "zod";
const server = new McpServer({ name: "meus-docs", version: "1.0.0" });
server.tool(
"pesquisar_docs",
{ query: z.string() },
async ({ query }) => {
const res = await fetch("https://seudominio.com.br/llms-full.txt");
const text = await res.text();
const sections = text.split(/^##+ /m);
const matches = sections.filter(s =>
s.toLowerCase().includes(query.toLowerCase())
);
return { content: [{ type: "text", text: matches.join("\n\n---\n\n") }] };
}
);
const transport = new StdioServerTransport();
await server.connect(transport);
Este é um ponto de partida pronto para produção. Implementações reais adicionam cache (o arquivo raramente muda), paginação para arquivos grandes e correspondência aproximada.
O Que Isso Habilita para Seus Usuários
Quando sua documentação está conectada via MCP, desenvolvedores usando assistentes de IA de programação obtêm:
- Respostas precisas fundamentadas nos seus docs reais — sem métodos de API inventados
- Atualizações em tempo real — a cada pergunta, o servidor MCP busca a versão mais recente do seu llms-full.txt
- Descoberta sem fricção — eles ficam no editor; sem necessidade de mudar de aba no navegador
- Geração de código contextual — a IA pode gerar trechos de código usando a sintaxe correta da sua biblioteca
Com base no que vimos testando esse padrão com múltiplas bibliotecas, o maior ganho é eliminar respostas de API “alucinadas”. Quando uma IA é fundamentada no seu llms-full.txt real, ela para de inventar assinaturas de métodos que não existem.
Seu Site Precisa de um llms-full.txt para Isso Funcionar?
Sim. O padrão MCP requer um arquivo com o conteúdo completo dos seus docs — não apenas o índice. Se você só tem /llms.txt, terá navegação mas não detalhes suficientes para uma IA responder perguntas específicas.
Para gerar um llms-full.txt para o seu site automaticamente, use o LLMGenerator. Ele rastreia seu site e produz ambos os arquivos em uma única etapa.
Perguntas Frequentes
Meu llms-full.txt precisa estar publicamente acessível? Sim, se você estiver usando um servidor MCP baseado em URL. Para docs privados, você pode passar um caminho de arquivo local em vez de uma URL nos args do MCP.
Qual o tamanho máximo do llms-full.txt? O limite prático depende da janela de contexto da IA. Arquivos abaixo de 200KB funcionam de forma confiável com a maioria dos modelos. Para conjuntos de documentação maiores, considere dividir por seção e executar múltiplos servidores MCP.
Posso usar esse padrão com qualquer IA compatível com MCP? Sim. O protocolo MCP é aberto e agnóstico quanto ao modelo. Qualquer ferramenta de IA que suporte MCP (Claude, Cursor, Zed e uma lista crescente de outros) pode usar a mesma configuração.
Preciso republicar meu llms-full.txt quando os docs mudarem? Idealmente, sim. A maioria dos servidores MCP busca a URL a cada requisição, então seus docs só precisam estar em uma URL estável. Se você automatizar a regeneração no deploy, sua integração MCP se mantém atualizada automaticamente.
A combinação de llms-full.txt e MCP é uma das formas mais práticas de tornar sua documentação genuinamente útil para desenvolvedores em 2026. É de baixa manutenção, não requer infraestrutura de IA do seu lado, e entrega valor real para qualquer um usando um assistente de IA de programação com seu produto.
Comece gerando seu llms-full.txt com o LLMGenerator, depois adicione a configuração MCP ao seu Claude Desktop ou Cursor. O processo todo leva menos de 15 minutos.