KI-Verständnis steuern: Schema, llms.txt und was wirklich zählt

In SEO-Gruppen hört man es ständig: „Pack Schema-Markup auf deine Seite, und ChatGPT wird dich lieben!" Klingt logisch. Schema hilft Google, also muss es auch der KI helfen. Oder?

Und dann gibt es noch llms.txt, eine simple Textdatei, die KI-Modellen sagen soll, was auf deiner Seite wichtig ist. 844.000 Websites haben das schon implementiert. Google hat es öffentlich abgetan, dann selbst eine llms.txt veröffentlicht.

Beide Ansätze versprechen: Du kannst steuern, wie KI deine Marke versteht. So einfach ist es leider nicht.

Schema-Markup: Warum die KI deinen Code ignoriert

Michael Curtis hat es auf den Punkt gebracht: „Der ganze Witz an LLMs ist, dass sie Freitext verstehen." Sie brauchen keine strukturierten Daten. Sie sind gebaut, um Chaos zu lesen.

Wie lernt eine KI? Sie zerhackt Text in winzige Schnipsel, sogenannte Tokens. Wenn du sauberes Schema-Markup schreibst:

"@type": "Organization"

...dann sieht die KI keine Struktur. Sie sieht Fragmente: „@", „type", „Organization". Die semantische Logik, die du reingebaut hast, löst sich beim Tokenisieren in Luft auf.

Der Beweis

Forscher haben zwei Produktseiten gebaut: Eine mit normalem Text plus Schema. Eine nur mit Schema, sonst leer. Bei hunderten Abfragen konnten Gemini und ChatGPT Preise und Artikelnummern nur von der Textseite extrahieren. Die Schema-Seite war unsichtbar.

Also Schema löschen?

Auf keinen Fall. Schema ist Gold wert für die klassische Google-Suche: Rich Snippets, Preis-Anzeigen, Knowledge Graph. Und wer bei Google gut rankt, hat bessere Chancen, von KI zitiert zu werden. Das ist aber Korrelation, keine Kausalität.

Die Idee, dass Schema-Markup direkt KI-Erwähnungen erzeugt, ist ein Mythos. Am Leben gehalten durch Wiederholung in SEO-Kreisen, nicht durch Belege.

llms.txt: Der Wegweiser, den niemand liest

Die Idee klingt bestechend. Stell dir vor, du hast einen Hausmeister (die KI), der dein Haus (deine Website) aufräumen soll. Bisher hast du ihn reingelassen und gehofft, dass er das Wohnzimmer findet und nicht im Keller stecken bleibt. Die robots.txt war das Schild „Betreten verboten" an bestimmten Türen.

Die llms.txt ist ein Zettel am Eingang: „Hey, die wichtigsten Infos liegen auf dem Tisch im Wohnzimmer. Ignorier den Müll im Flur."

Jeremy Howard von Answer.AI hat das im September 2024 vorgeschlagen. Die Datei definiert:

  • /llms.txt: kuratierte Übersicht in Markdown mit den wichtigsten Links
  • /llms-full.txt: vollständiger Content in einer Datei

Klingt simpel, kostet 10 Minuten. Über 844.000 Websites haben es implementiert, darunter Anthropic, Cloudflare, Stripe und Perplexity.

Die Daten sagen: kein Effekt

Und dann kam die Ernüchterung. SE Ranking hat 300.000 Domains analysiert. Das Ergebnis: Statistisch kein messbarer Effekt von llms.txt auf KI-Zitationen. Das Entfernen des llms.txt-Features verbesserte sogar die Modellgenauigkeit. Die Datei führte Rauschen ein.[^1]

Google-Sprecher John Mueller verglich llms.txt im Juni 2025 mit dem Keywords-Meta-Tag, der wegen Manipulierbarkeit aufgegeben wurde. Sein Argument: Bots müssen den Originalinhalt sowieso prüfen. llms.txt ist redundant und eröffnet Cloaking-Risiken.[^2]

Und dann die Ironie: Google hat im Dezember 2025 selbst eine llms.txt auf dem Search Central Developer-Portal veröffentlicht.[^3] Öffentlich dagegen, heimlich dafür.

Strategisches Schweigen

Kein einziger großer KI-Anbieter hat offiziell bestätigt, llms.txt zu nutzen. Anthropic veröffentlicht selbst eine, sagt aber nicht, dass Claude sie bei Konversationen referenziert. OpenAI schweigt. GPTBot fetcht laut Analysen keine llms.txt-Dateien.

Aspekt robots.txt sitemap.xml llms.txt
Zweck Zugriffskontrolle URL-Discovery Inhaltskuration für LLMs
Format Plaintext XML Markdown
Verbindlichkeit De-facto-Standard (RFC 9309) De-facto-Standard Proposal, kein Standard
Adoption ~universal ~universal ~10 %
Nachgewiesener Effekt Ja Ja Nein

Was tatsächlich funktioniert

Weder Schema-Markup noch llms.txt haben einen direkten Effekt auf KI-Zitationen. Was bleibt, ist fast banal: guter Text.

Eine sichtbare Tabelle auf deiner Website bringt der KI mehr als 50 Zeilen JSON-LD im Quellcode. Eine klare Überschriftenstruktur schlägt jede llms.txt-Datei. Denn LLMs lernen aus dem, was Menschen lesen können. Und genau das sollte gut sein.

Drei Dinge zählen:

  1. Klarer, parsebarer Content. Tabellen, Listen, Faktenabschnitte. KI kann Fakten aus Fließtext nicht mit 100 % Sicherheit extrahieren, und lässt unsichere Informationen weg. (Mehr dazu im GEO-Playbook)
  2. Semantisches HTML. Tags wie <article>, <section>, <header> sind keine Dekoration. Sie sind die Landkarte für Crawler und KI. Div-Suppen erhöhen Token-Kosten und verringern Crawl-Frequenz.
  3. Externe Validierung. Die KI liest nicht nur deine Seite. Sie liest Reddit, Podcasts, Fachmedien. Ahrefs hat 75.000 Marken analysiert: externe Erwähnungen, besonders auf YouTube, korrelieren am stärksten mit KI-Sichtbarkeit.[^4] Yext kommt bei 6,8 Mio. KI-Zitaten zum gleichen Schluss: Bei lokaler Suchintention stammen 86 % der Quellen aus Kanälen, die Marken selbst kontrollieren.[^5] (Mehr dazu)

Also llms.txt ignorieren?

Nicht unbedingt. Der Aufwand ist minimal und schadet nicht. Und wenn sich der Wind dreht und AI-Anbieter anfangen, die Datei zu respektieren, haben Early Adopter einen Vorteil. Ich habe es auf martin-moeller.biz selbst implementiert.

Aber: Es ist eine Wette, kein Werkzeug. Die Energie, die du in llms.txt steckst, ist in gutem Content besser investiert.


Die kurze Version

  1. Schema-Markup hilft Google, aber LLMs können es nicht lesen. Tokenisierung zerstört die Struktur
  2. llms.txt hat 844.000 Implementierungen, aber keinen nachgewiesenen Effekt auf KI-Zitationen
  3. Google lehnt llms.txt öffentlich ab, nutzt es selbst. Kein KI-Anbieter bestätigt die Nutzung
  4. Was funktioniert: Klarer Text, semantisches HTML, externe Validierung
  5. llms.txt trotzdem einbauen? Kostet nichts, schadet nicht, aber erwarte keine Wunder

Quellen & Referenzen

[^1]: SE Ranking: llms.txt Studie, 300.000 Domains, 2025. [^2]: Google: kein AI-System nutzt llms.txt (SE Roundtable), Juni 2025. [^3]: Google fügt selbst llms.txt hinzu (Omnius), Dezember 2025. [^4]: Ahrefs: Top Brand Visibility Factors in ChatGPT, AI Mode, and AI Overviews, 2026. Analyse von 75.000 Marken: externe Erwähnungen (besonders YouTube) korrelieren am stärksten mit KI-Sichtbarkeit. [^5]: Yext: AI Citations, User Locations, and Query Context, 2026. Bei 6,8 Mio. KI-Zitaten stammen 86 % der sichtbaren Quellen bei lokaler Suchintention aus Quellen, die Marken direkt kontrollieren können.

🌐