Zum Inhalt springen
Zurück

llms.txt mit MCP nutzen: Ihre Dokumentation als KI-Wissensbasis

Veröffentlicht:  at  10:00 AM

llms.txt mit MCP nutzen: Ihre Dokumentation als KI-Wissensbasis

Das Wichtigste in Kürze

  • Das Model Context Protocol (MCP) ermöglicht es KI-Assistenten wie Claude, Live-Wissen aus externen Quellen abzurufen — einschließlich Ihrer llms.txt-Datei.
  • Wenn Sie eine llms-full.txt-Datei mit einem MCP-Server verbinden, erhalten Entwickler sofortige, präzise Antworten zu Ihrem Produkt, ohne ihren Editor verlassen zu müssen.
  • Die Einrichtung dauert mit npx unter 10 Minuten — keine Server-Infrastruktur erforderlich.
  • Jede Website mit einer öffentlichen llms-full.txt kann heute als MCP-Wissensquelle eingebunden werden.

Das Model Context Protocol (MCP), das Anthropic Ende 2024 eingeführt hat, hat sich still und leise zu einem der praktischsten Fortschritte im Bereich der Entwickler-Tools entwickelt. Laut dem MCP-GitHub-Repository erreichte das Protokoll innerhalb der ersten sechs Monate über 1.000 von der Community erstellte Server (Anthropic MCP, 2025). Eines der nützlichsten Muster aus diesem Ökosystem: Ihre llms-full.txt-Datei als Live-Wissensquelle zu nutzen, die KI-Assistenten in Echtzeit abfragen können.

Was ist das Model Context Protocol (MCP)?

MCP ist ein offenes Protokoll, das KI-Assistenten auf standardisierte Weise mit externen Tools und Datenquellen verbindet. Stellen Sie es sich wie einen USB-C-Standard für KI-Integrationen vor — anstatt dass jedes Tool eigene Konnektoren entwickelt, bietet MCP eine einheitliche Schnittstelle, die jede kompatible KI nutzen kann.

Mit MCP kann ein KI-Assistent wie Claude (in Claude Desktop oder Cursor):

Warum llms-full.txt ideal für MCP ist

Ihre llms-full.txt-Datei ist ein einzelnes, in Markdown formatiertes Dokument, das den vollständigen Text Ihrer wichtigsten Seiten enthält. Es ist maschinenlesbar und in sich abgeschlossen — genau das, was ein MCP-Server benötigt, um Fragen zu Ihrem Produkt zu beantworten.

Wenn Sie eine llms-full.txt mit einem MCP-Server verbinden, geben Sie einem KI-Assistenten eine kuratierte, stets aktuelle Wissensbasis über Ihr Produkt. Kein Embeddings-Pipeline, keine Vektordatenbank, keine RAG-Infrastruktur — nur eine URL und wenige Konfigurationszeilen.

Der wesentliche Unterschied zwischen der Nutzung von llms.txt für SEO und der Nutzung mit MCP:

AnwendungsfallDateiVerwendung
SEO / KI-Auffindbarkeit/llms.txtPassiv von KI-Systemen gecrawlt
MCP-Integration/llms-full.txtAktiv von KI-Assistenten auf Anfrage abgerufen

Beide Dateien sind es wert, vorhanden zu sein. Die /llms.txt ist der Index; /llms-full.txt ist der vollständige Inhalt.

Einen MCP-Server mit Ihrer llms-full.txt einrichten

Schauen wir uns ein reales Beispiel an. Die Taiga UI-Komponentenbibliothek stellt ihre vollständige Dokumentation als llms-full.txt bereit und bietet einen MCP-Server an, den jeder Entwickler verbinden kann:

{
  "mcpServers": {
    "taiga-ui": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://taiga-ui.dev/llms-full.txt"
      ]
    }
  }
}

Diese Konfiguration weist Claude (oder jede andere MCP-kompatible KI) an, über npx einen lokalen MCP-Server zu starten, der die Taiga UI-Dokumentation abruft und durchsucht. Ein Entwickler kann dann Fragen wie „Wie verwende ich die TuiInput-Komponente?” stellen und erhält präzise, quellenbasierte Antworten direkt aus der Dokumentation der Bibliothek.

Sie können sich auf dieselbe Weise mit einer /next-Version der Dokumentation verbinden, indem Sie einfach die URL austauschen:

{
  "mcpServers": {
    "taiga-ui-next": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://taiga-ui.dev/next/llms-full.txt"
      ]
    }
  }
}

So fügen Sie diese Konfiguration zu Ihrem KI-Tool hinzu

Claude Desktop

Öffnen Sie Ihre Claude Desktop Konfigurationsdatei:

Fügen Sie den mcpServers-Block hinzu. Falls die Datei bereits andere Server enthält, fügen Sie Ihren neuen Eintrag einfach dem vorhandenen Objekt hinzu:

{
  "mcpServers": {
    "my-product-docs": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://ihredomain.de/llms-full.txt"
      ]
    }
  }
}

Starten Sie Claude Desktop neu. Im Chat-Eingabefeld erscheint ein Tools-Symbol — das bestätigt, dass MCP verbunden ist.

Cursor

Gehen Sie in Cursor zu Einstellungen > MCP und fügen Sie die Server-Konfiguration hinzu. Cursor unterstützt dasselbe MCP-JSON-Format wie Claude Desktop.

VS Code (mit Copilot oder Claude-Erweiterung)

Fügen Sie die Konfiguration zur Datei .vscode/mcp.json in Ihrem Workspace hinzu:

{
  "servers": {
    "my-product-docs": {
      "command": "npx",
      "args": [
        "@taiga-ui/mcp@latest",
        "--source-url=https://ihredomain.de/llms-full.txt"
      ]
    }
  }
}

Einen eigenen MCP-Server für Ihre llms-full.txt erstellen

Sie möchten nicht auf ein externes MCP-Paket angewiesen sein? Sie können einen minimalen Server selbst bauen. Das Muster ist einfach: Die llms-full.txt-URL abrufen, nach Markdown-Überschriften in Abschnitte aufteilen und ein Such-Tool bereitstellen, das Abschnitte nach Stichwörtern filtert.

Hier ist die minimale Struktur mit dem offiziellen MCP TypeScript SDK:

import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import { z } from "zod";

const server = new McpServer({ name: "my-docs", version: "1.0.0" });

server.tool("search_docs", { query: z.string() }, async ({ query }) => {
  const res = await fetch("https://ihredomain.de/llms-full.txt");
  const text = await res.text();
  const sections = text.split(/^##+ /m);
  const matches = sections.filter(s =>
    s.toLowerCase().includes(query.toLowerCase())
  );
  return { content: [{ type: "text", text: matches.join("\n\n---\n\n") }] };
});

const transport = new StdioServerTransport();
await server.connect(transport);

Dies ist ein produktionsreifer Ausgangspunkt. Reale Implementierungen ergänzen Caching (die Datei ändert sich selten), Paginierung für große Dateien und unscharfe Suche.

Was das für Ihre Nutzer ermöglicht

Wenn Ihre Dokumentation über MCP eingebunden ist, erhalten Entwickler, die KI-Coding-Assistenten verwenden:

Aus unseren Tests dieses Musters mit mehreren Bibliotheken ist der größte Gewinn die Beseitigung „halluzinierter” API-Antworten. Wenn eine KI in Ihrer tatsächlichen llms-full.txt verankert ist, erfindet sie keine Methodensignaturen mehr, die nicht existieren.

Benötigt meine Website eine llms-full.txt dafür?

Ja. Das MCP-Muster erfordert eine Datei mit dem vollständigen Inhalt Ihrer Dokumentation — nicht nur den Index. Wenn Sie nur eine /llms.txt haben, erhalten Sie Navigation, aber nicht genug Detail, damit eine KI spezifische Fragen beantworten kann.

Um eine llms-full.txt für Ihre Website automatisch zu generieren, nutzen Sie LLMGenerator. Es crawlt Ihre Website und erstellt beide Dateien in einem Schritt.

Häufig gestellte Fragen

Muss meine llms-full.txt öffentlich zugänglich sein? Ja, wenn Sie einen URL-basierten MCP-Server verwenden. Für private Dokumentation können Sie in den MCP-Argumenten einen lokalen Dateipfad anstelle einer URL angeben.

Wie groß darf meine llms-full.txt sein? Das praktische Limit hängt vom Kontextfenster der KI ab. Dateien unter 200 KB funktionieren mit den meisten Modellen zuverlässig. Für größere Dokumentationsbestände sollten Sie erwägen, nach Abschnitten aufzuteilen und mehrere MCP-Server zu betreiben.

Kann ich dieses Muster mit jeder MCP-kompatiblen KI verwenden? Ja. Das MCP-Protokoll ist offen und modellunabhängig. Jedes KI-Tool, das MCP unterstützt (Claude, Cursor, Zed und eine wachsende Liste weiterer Tools), kann dieselbe Konfiguration verwenden.

Muss ich meine llms-full.txt neu veröffentlichen, wenn sich die Dokumentation ändert? Im Idealfall ja. Die meisten MCP-Server rufen die URL bei jeder Anfrage ab, sodass Ihre Dokumentation lediglich unter einer stabilen URL erreichbar sein muss. Wenn Sie die Neugenerierung beim Deployment automatisieren, bleibt Ihre MCP-Integration automatisch aktuell.


Die Kombination aus llms-full.txt und MCP ist eine der praktischsten Möglichkeiten, Ihre Dokumentation für Entwickler im Jahr 2026 wirklich nützlich zu machen. Sie ist wartungsarm, erfordert keine KI-Infrastruktur auf Ihrer Seite und liefert echten Mehrwert für alle, die einen KI-Coding-Assistenten mit Ihrem Produkt verwenden.

Beginnen Sie damit, Ihre llms-full.txt mit LLMGenerator zu generieren, und fügen Sie dann die MCP-Konfiguration zu Ihrem Claude Desktop oder Cursor hinzu. Das Ganze dauert unter 15 Minuten.



Vorheriger Artikel
SEO, GEO, AEO & LLMO: Warum die Zukunft den Marketern gehört, die alle vier nutzen
Nächster Artikel
So fügen Sie llms.txt zu Ihrer Website hinzu (Schritt für Schritt)