Schema Markup ist der größte KI-Such-Hebel, den die meisten Seiten nie ziehen. Wenn ChatGPT entscheidet, welche fünf Quellen zu einer Antwort synthetisiert werden, sind strukturierte Daten der Weg, wie es Mehrdeutigkeit auflöst — welches Lumina ist das, wer hat es geschrieben, wann wurde es zuletzt aktualisiert, zählt das als FAQ. Wir haben die Top-10-Artikel für schema markup für KI-Suche in den US- und DACH-Märkten auditiert. Null davon shippen FAQPage-Schema — auf Artikeln über Schema. Das Playbook unten ist aus dieser Lücke gebaut.

Das ist der vierte Teil unseres GEO-Content-Clusters. Der GEO-Pillar-Guide deckt den großen Vergleich ab. AEO vs SEO vs GEO behandelt das Dreier-Framework. SEO für KI-Suche geht die sechs Taktiken durch. Dieser hier ist der technische Schema-Deep-Dive.

Hilft Schema Markup KI-Suchmaschinen?

Ja — aber nicht so, wie es die meisten Tools messen. Rich-Result-Eligibility (Sterne, FAQ-Akkordeons, Rezeptkarten in der SERP) ist der alte Payoff. Der neue Payoff ist Entitäten-Klarheit für das LLM.

Wenn GPTBot oder ClaudeBot dein HTML fetcht, sagt der JSON-LD-Block ihnen exakt, welche Entitäten auf der Seite leben: Autor, Organisation, Publikationsdatum, Thema. KI-Modelle gewichten Seiten mit expliziten Entitäten-Deklarationen höher als Seiten, wo sie aus dem Body-Text raten müssen.

Googles öffentliche Dokumentation bestätigt: AI Overviews nutzen strukturierte Daten, um Rich Results auszuspielen und autoritative Quellen zu identifizieren. OpenAIs ChatGPT Search setzt auf Bing, das JSON-LD indexiert und parst. Perplexity betreibt einen eigenen Crawler (PerplexityBot), der vollständiges HTML inklusive eingebettetem JSON-LD verarbeitet. Gemini liest aus Googles Index und erbt diese strukturierten-Daten-Signale direkt.

Die ehrliche Version: Eine Seite ohne Schema wird nicht bestraft. Eine Seite mit sauberen, konsistenten, mehrschichtigen Schemas wird in der 5-Quellen-Shortlist bevorzugt, aus der die finale KI-Antwort entsteht. Schema ist kein Ranking-Faktor — es ist ein Vertrauens- und Disambiguations-Signal. Manchmal ist das mehr wert.

SEO-Schema vs GEO/AEO-Schema

Die beiden Stacks überlappen sich auf dem Großteil der Oberfläche. Wo sie auseinandergehen, laufen die meisten Schema-Guides falsch.

DimensionKlassisches SEO-SchemaKI-Such-Schema (GEO/AEO)
Primäres ZielRich-Result-Eligibility in Google-SERPEntitäten-Klarheit für LLM-Retriever
Kritische TypenProduct, Review, Recipe, HowTo, FAQPageArticle/BlogPosting, Person, Organization, FAQPage — alle via @id verlinkt
ErfolgsmetrikRich Snippet erscheintMarke in der KI-Antwort genannt
Tiefe vs BreiteSchmal: 2-3 Rich-Result-Typen pro SeiteGeschichtet: 4-6 verknüpfte Entitäten pro Seite
Drift-ToleranzStrict-FAQ-Text-Match (Google entzieht Rich Result)Strict-FAQ + strict-Entity-Linking über Seiten hinweg
Freshness-SignaldateModified für Google-Freshness-CrawlsdateModified und wordCount konsistent mit sichtbarem Body

Die Überlappung ist real. Ein Article-Schema mit author, publisher, datePublished und FAQPage deckt beide Stacks ab. Die 30 %, die auseinandergehen: KI-Suche achtet stärker auf @id-Entitäten-Verknüpfung über die Seite hinweg und verzeiht stale oder ungenaues wordCount weniger.

Die Schema-Typen, die KI-Engines wirklich nutzen

Basierend auf öffentlicher Dokumentation von Googles strukturierten-Daten-Team und Reverse-Engineering, welche Schemas in AI Overviews zitiert werden, sind das die Typen mit Hebel:

  • Article / BlogPosting — sagt dem LLM: das ist redaktioneller Content und die Autoren-Byline ist autoritativ. Pflichtfelder: headline, datePublished, author, publisher.
  • Person — der Byline-Inhaber. Braucht jobTitle, knowsAbout und sameAs zu LinkedIn oder einem Wikidata-Profil, falls vorhanden. So löst die KI auf „ist dieser Autor wirklich Experte für dieses Thema".
  • Organization — der Publisher. Logo, url, sameAs zu Social-Profilen. Das sameAs-Array ist das, was deine Marke mit dem breiteren Entitäten-Graph verbindet.
  • FAQPage — Frage-Antwort-Paare in einem Format, das KI-Retriever direkt zitieren können. Das am meisten unterschätzte Schema im Web, laut unserem Audit der Top 10 oben.
  • WebSite — Site-Level-Identität mit potentialAction für interne Suche. Wird von KI weiterhin geparst, auch wenn in der SERP kein Suchfeld erscheint.
  • BreadcrumbList — hierarchischer Kontext. Hilft KI, den Themen-Scope zu verstehen (diese Seite liegt unter /blog/geo/, nicht /tools/).
  • HowTo — als Google Rich Result im September 2023 abgeschaltet, wird aber weiterhin von Perplexity, Gemini und ChatGPT für Schritt-Extraktion gelesen. Bleib bei Tutorial-Content dran.
  • ImageObject mit Kontext-Metadaten — Google Lens, Perplexity Vision und multimodale ChatGPT nutzen das, um aufzulösen, was ein Bild zeigt. Besonders wertvoll bei Produkten und Diagrammen.

Was bei den meisten Seiten kein großes Thema ist: SoftwareApplication (außer du shippst eine App), Event (außer die Seite ist ein Event-Listing), Recipe (außer es ist ein Rezept), Product (nur auf Commercial-Pages). Irrelevante Schema-Typen hinzuzufügen bläht Bytes auf ohne Signal-Gewinn.

Die 5 Schemas, die den Unterschied machen

Nach Impact sortiert, mit dem spezifischen Muster, das wirkt:

1. BlogPosting mit @id-Self-Ref und Entity-Refs. Jeder Artikel sollte "@id":"https://your-site.com/blog/post/#article" deklarieren und author und publisher via {"@id":"..."} referenzieren. Warum: KI-Retriever behandeln @id als „das ist der Artikel auf dieser URL" — nicht einer von mehreren Kandidaten. Sie verfolgen den Graph, um author und publisher eindeutig aufzulösen.

2. Person-Schema einmal deklariert, überall referenziert. Ein kanonischer Person-Block unter /about/#founder oder Homepage #founder. Jedes Article-author-Feld ist {"@id":"https://your-site.com/#founder"}. Das verhindert Entity-Splitting — wenn du Person inline auf jedem Artikel deklarierst, kann die KI sie als unterschiedliche Personen mit leicht abweichenden Metadaten zählen.

3. FAQPage strict-synced zum sichtbaren FAQ. Jede Frage im Schema matcht exakt ein sichtbares .faq-item. Gleiche Reihenfolge. Gleicher Wortlaut. Gleiche HTML-Entities. Google entzieht FAQ Rich Results bei Drift. KI-Summaries entziehen nichts, aber bewerten Drift niedriger im Trust. Lumina nutzt intern ein 9-Zeilen-Perl-Skript, das das vor jedem Commit automatisch prüft.

4. Organization mit sameAs-Social-Profiles. Dein Organization-Schema hat sameAs:[LinkedIn-Company-Page, Twitter/X, GitHub, Crunchbase, Wikidata-Eintrag falls vorhanden]. Das sameAs-Array ist das, was deine Marke zu Wikidata und den Entitäten-Graphen auflöst, auf denen KI-Modelle trainiert wurden. Das ist die größte „anonyme Marke zu bekannter Entität"-Konvertierung.

5. Genaues dateModified. Update es, wenn der Content sich ändert. Nicht, wenn du einen Tippfehler in einem HTML-Kommentar behebst. Reality-Check: Die 9 Top-Artikel, die dateModified deklariert haben, hatten einen Durchschnitt von 164 Tagen Staleness. Drei waren über sechs Monate alt, der älteste bei 354 Tagen. Genaue Freshness ist Differenzierung, nicht Baseline.

Live-Audit · 19.04.2026

Top-10-Artikel für „schema markup für KI-Suche" — das fehlt ihnen.

Luminas Schema Validator gegen 5 Top-ranked englische Artikel (thehoth.com, seoptimer.com, schemaapp.com, evertune.ai, cmimediagroup.com) und 5 Top-ranked deutsche (hubspot.de, tryrivo.ai, az-direct.ch, rato-digital.de, seoptimer.com/de) gelaufen. Search Engine Land und Third Wunder haben 403 beim Fetch zurückgegeben — ein Datenpunkt für sich.

10/10
ohne FAQPage-Schema
Kein einziger Top-Artikel shippt FAQPage — das eine Schema, das KI-Engines am konsistentesten zitieren. Jeder schreibt über Schema. Keiner shippt es. Der niedrigste First-Mover-Win zum Thema.
164 Tage
Durchschnitts-Staleness
Ältester: az-direct.ch mit 354 Tagen (April 2025). Drei Artikel sind über sechs Monate alt. KI-Such-Tooling entwickelt sich monatlich; sechs Monate alte Erklärer sind veraltet bevor sie ranken.
3/5 DE
nutzen @id-Entity-Refs
DE ist hier vorne: hubspot, tryrivo und rato-digital linken Article zu Person via @id. EN hinkt bei 1/5 hinterher (nur thehoth.com). Die DACH-Content-Szene hat das Entitäten-Pattern, das US-Englisch überspringt.
3/4 falsch
wordCount-Genauigkeit
6 Artikel überspringen wordCount komplett. Von den 4, die es deklarieren, ist nur tryrivo.ai innerhalb ±10 %. thehoth.com deklariert 1.612. Echte Zahl: 2.700. Um 40 % daneben. Stale wordCount ist eine rote Flagge für KI-Zitation.
5–14 Typen
Schema-Typen-Spanne
cmimediagroup.com shippt 8 Typen, aber null Article oder BlogPosting auf einer Artikel-Seite. schemaapp.com shippt 13 Typen inkl. DefinedTerm und PropertyValue, trotzdem kein FAQPage. Breite ohne Ziel ist das Muster.
0/10
sichtbares FAQ + passendes Schema
Kein Konkurrent hat einen sichtbaren FAQ-Abschnitt mit passendem FAQPage-Schema. Google bestraft FAQ-Drift mit Rich-Result-Entzug — aber man kann nicht driften, wenn man nichts hat. Der einfachste Win auf der Seite, den alle liegen lassen.

Denselben Audit auf jeder URL laufen lassen →

JSON-LD vs Microdata vs RDFa

Nutz JSON-LD. Google bevorzugt es offiziell seit 2018. Jeder große KI-Retriever — ChatGPT, Claude, Perplexity, Gemini, Google AI Overviews — parst JSON-LD zuverlässig. Microdata funktioniert noch, bläht aber HTML auf ohne Benefits in 2026. RDFa ist gültig, aber kaum genutzt.

Der einzige Grund, noch Microdata zu shippen: ein CMS-Plugin generiert es und du kannst es nicht abschalten. In dem Fall: layer JSON-LD drauf — die beiden koexistieren ohne Konflikt, und Google bevorzugt die JSON-LD-Version, wenn beide vorhanden sind.

Ein JSON-LD-Block, unten im <head> eingefügt, mit einem @graph, der alle Entitäten der Seite hält. Das ist das kanonische moderne Muster.

Häufige Schema-Fehler, die KI-Zitate killen

Sechs Muster, die wir in Kunden-Audits und eigener Konkurrenz-Analyse immer wieder sehen:

  • FAQ-Drift. Schema hat fünf Fragen, HTML hat sieben. Oder der Schema-Text ist paraphrasiert statt exakt-gematcht. Google entzieht FAQ Rich Results darauf. KI-Summaries entziehen nichts, aber Trust fällt still.
  • Waisen-Person-Schema. Du shippst einen Person-Block, verknüpfst ihn aber nie via @id mit Article.author. KI kann die Byline nicht zur Marke verknüpfen, und das Autoren-Signal landet nicht.
  • Stale dateModified. Content ändert sich, dateModified nicht. Oder umgekehrt, genauso schlimm: dateModified bumpt bei einer CSS-only-Änderung und Google lernt, dein Freshness-Signal komplett zu ignorieren.
  • wordCount, das lügt. Schema sagt 1.612. Seite hat 2.700. KI sieht die Diskrepanz und gewichtet den Trust-Score runter. Lass wordCount weg, wenn du es nicht sync halten kannst.
  • Inline-Entity-Bloat. Jeder Artikel deklariert Organization + Person + WebSite inline. KI zählt jedes als eigene Entität und das Markensignal fragmentiert. Eine kanonische Deklaration auf der Homepage plus @id-Referenzen überall sonst.
  • Erfundene Schema-Felder. applicationArea existiert nicht auf schema.org. Erfundene Felder werfen keine Fehler, invalidieren aber in strict Validators den gesamten Block still. Nur schema.org-dokumentierte Felder nutzen.

Wie du Schema für KI-Suche validierst

Zwei Tools, zwei unterschiedliche Jobs:

  • Google Rich Results Test — die Google-spezifische Wahrheit. Fängt Lücken, die dich von Google-Rich-Result-Eligibility ausschließen würden. Bei jedem Schema-Commit, der eine Seite mit Rich-Result-Potential berührt.
  • Luminas Schema Validator — die KI-Retrieval-Wahrheit. Validiert Entitäten-Linking über Seiten (@id-Auflösung), FAQPage-Strict-Sync gegen sichtbares HTML, deprecated Types, wordCount-Freshness. Gegen 72 eigene Lumina-Seiten dogfooded vor jedem Release.

Für KI-Suche speziell: beide laufen lassen. Google sagt dir was über Rich Results. Lumina sagt dir was über Zitations-Signale. Sie sind komplementär, nicht redundant.

FAQ

Hilft Schema Markup KI-Suchmaschinen?+
Ja. Schema.org JSON-LD sagt KI-Retrievern genau, welche Entitäten auf deiner Seite leben — Autor, Organisation, Veröffentlichungsdatum, Thema. KI-Modelle gewichten Seiten mit sauberen strukturierten Daten höher als Seiten, wo sie aus dem HTML raten müssen. Kein Schema ist keine Strafe. Saubere mehrschichtige Schemas sind ein positives Signal für die Shortlist von 5 Quellen, aus denen die finale KI-Antwort synthetisiert wird.
Was ist der Unterschied zwischen SEO-Schema und KI-Such-Schema?+
SEO-Schema optimiert für Google Rich Results — Sterne, FAQ-Akkordeons, Rezeptkarten in den SERPs. KI-Such-Schema optimiert für Entitäten-Klarheit, damit LLMs deinen Content zurück zu einem benannten Autor und einer Organisation verfolgen können. Rund 70% der Typen überlappen (Article, FAQPage, Organization). Die 30% Unterschied: KI-Suche achtet stärker auf @id-Entitäten-Verknüpfung und genaues dateModified.
Welche Schema-Typen sollte ich zuerst für KI-Suche einbauen?+
Vier, in dieser Reihenfolge. Article oder BlogPosting für redaktionelle Inhalte mit headline, datePublished und author. Person für den Autor mit jobTitle und sameAs zu LinkedIn. Organization für den Publisher mit logo und sameAs zu Social-Profilen. FAQPage für jeden Q&A-Block. Verknüpfe sie über @id-Referenzen, damit KI den Artikel zurück zu einem konkreten Menschen und einer Marke verfolgen kann.
JSON-LD, Microdata oder RDFa für KI-Suche?+
JSON-LD. Google bevorzugt es offiziell seit 2018. Jeder große KI-Retriever — ChatGPT, Claude, Perplexity, Gemini, Google AI Overviews — parst JSON-LD zuverlässig. Microdata funktioniert noch, bläht aber das HTML auf. RDFa ist gültig, aber selten. Ein Block am Ende von head, ein Graph, mehrere @type-Einträge. Fertig.
Woher weiß ich, ob mein Schema KI-Zitationen hilft?+
Indirekt. Es gibt 2026 kein GSC für ChatGPT. Was du tun kannst: mit Luminas Schema Validator validieren (Pass heißt, die Infrastruktur ist sauber), GA4-Referral-Traffic von chatgpt.com, perplexity.ai, claude.ai und gemini.google.com tracken, und jede große KI-Plattform manuell für deine Ziel-Queries checken und notieren, wann deine Marke erscheint. Die Trendlinie ist das Signal.
Ersetzt llms.txt Schema Markup?+
Nein. llms.txt ist eine Discovery- und Permissions-Datei — hier sind meine kanonischen Seiten, bitte nutze sie. Sie hat 2026 keinen dokumentierten Ranking- oder Zitations-Effekt bei einer der großen KI-Engines. Schema.org JSON-LD ist die semantische Schicht. Die beiden sind komplementär: Schema sagt, was der Inhalt ist, llms.txt sagt, welche Seiten zählen. Liefere Schema zuerst. llms.txt ist ein optionaler Hinweis.

Wo du anfängst

Wenn du diese Woche KI-Such-fähiges Schema willst, mach diese fünf Dinge in der Reihenfolge:

Aktuelles Schema validieren

Lauf Luminas Schema Validator auf deinen Top-5-Seiten. Die meisten Seiten finden 2-3 Lücken pro Seite: fehlende @id-Refs, stale dateModified, FAQPage-Drift. Kostenlos, keine Anmeldung.

Schema Validator →
Entitäten einmal deklarieren, überall referenzieren

Person und Organization leben auf deiner Homepage oder /about/. Jeder Artikel-author und -publisher ist ein {"@id":"..."}-Ref. Eine Quelle der Wahrheit, null Entitäten-Splitting.

Luminas Pattern ansehen →
FAQPage zu jedem FAQ-Abschnitt

Jeder <h2>FAQ</h2>-Block verdient FAQPage-Schema. Strict-Match den Text. Lauf vor jedem Deploy eine verify-sync-Prüfung — Drift entzieht Rich Results.

Schema Validator →
Konkurrenten auditieren, die für dein Keyword ranken

Lauf denselben Audit, den wir hier gemacht haben. Du findest Schemas, die sie überspringen — das sind First-Mover-Wins. FAQPage ist 2026 fast immer einer davon.

GEO Readiness Check →
KI-Referral-Traffic tracken

Richte GA4-Source-Tracking für chatgpt.com, perplexity.ai, claude.ai, gemini.google.com ein. Volumina sind heute klein, aber die Trendlinie in sechs Monaten ist, was zählt.

GA4 Dashboard →

Validiere dein Schema gegen KI-Zitations-Signale

Luminas kostenloser Schema Validator fängt genau die Lücken, die dieser Audit gefunden hat: fehlendes FAQPage-Strict-Sync, Waisen-Person-Blöcke, stale dateModified, wordCount-Drift, kaputte @id-Refs. Ein Paste oder eine URL, keine Anmeldung.

Schema Validator starten →