Schema Markup ist der größte KI-Such-Hebel, den die meisten Seiten nie ziehen. Wenn ChatGPT entscheidet, welche fünf Quellen zu einer Antwort synthetisiert werden, sind strukturierte Daten der Weg, wie es Mehrdeutigkeit auflöst — welches Lumina ist das, wer hat es geschrieben, wann wurde es zuletzt aktualisiert, zählt das als FAQ. Wir haben die Top-10-Artikel für schema markup für KI-Suche in den US- und DACH-Märkten auditiert. Null davon shippen FAQPage-Schema — auf Artikeln über Schema. Das Playbook unten ist aus dieser Lücke gebaut.
Das ist der vierte Teil unseres GEO-Content-Clusters. Der GEO-Pillar-Guide deckt den großen Vergleich ab. AEO vs SEO vs GEO behandelt das Dreier-Framework. SEO für KI-Suche geht die sechs Taktiken durch. Dieser hier ist der technische Schema-Deep-Dive.
Hilft Schema Markup KI-Suchmaschinen?
Ja — aber nicht so, wie es die meisten Tools messen. Rich-Result-Eligibility (Sterne, FAQ-Akkordeons, Rezeptkarten in der SERP) ist der alte Payoff. Der neue Payoff ist Entitäten-Klarheit für das LLM.
Wenn GPTBot oder ClaudeBot dein HTML fetcht, sagt der JSON-LD-Block ihnen exakt, welche Entitäten auf der Seite leben: Autor, Organisation, Publikationsdatum, Thema. KI-Modelle gewichten Seiten mit expliziten Entitäten-Deklarationen höher als Seiten, wo sie aus dem Body-Text raten müssen.
Googles öffentliche Dokumentation bestätigt: AI Overviews nutzen strukturierte Daten, um Rich Results auszuspielen und autoritative Quellen zu identifizieren. OpenAIs ChatGPT Search setzt auf Bing, das JSON-LD indexiert und parst. Perplexity betreibt einen eigenen Crawler (PerplexityBot), der vollständiges HTML inklusive eingebettetem JSON-LD verarbeitet. Gemini liest aus Googles Index und erbt diese strukturierten-Daten-Signale direkt.
Die ehrliche Version: Eine Seite ohne Schema wird nicht bestraft. Eine Seite mit sauberen, konsistenten, mehrschichtigen Schemas wird in der 5-Quellen-Shortlist bevorzugt, aus der die finale KI-Antwort entsteht. Schema ist kein Ranking-Faktor — es ist ein Vertrauens- und Disambiguations-Signal. Manchmal ist das mehr wert.
SEO-Schema vs GEO/AEO-Schema
Die beiden Stacks überlappen sich auf dem Großteil der Oberfläche. Wo sie auseinandergehen, laufen die meisten Schema-Guides falsch.
| Dimension | Klassisches SEO-Schema | KI-Such-Schema (GEO/AEO) |
|---|---|---|
| Primäres Ziel | Rich-Result-Eligibility in Google-SERP | Entitäten-Klarheit für LLM-Retriever |
| Kritische Typen | Product, Review, Recipe, HowTo, FAQPage | Article/BlogPosting, Person, Organization, FAQPage — alle via @id verlinkt |
| Erfolgsmetrik | Rich Snippet erscheint | Marke in der KI-Antwort genannt |
| Tiefe vs Breite | Schmal: 2-3 Rich-Result-Typen pro Seite | Geschichtet: 4-6 verknüpfte Entitäten pro Seite |
| Drift-Toleranz | Strict-FAQ-Text-Match (Google entzieht Rich Result) | Strict-FAQ + strict-Entity-Linking über Seiten hinweg |
| Freshness-Signal | dateModified für Google-Freshness-Crawls | dateModified und wordCount konsistent mit sichtbarem Body |
Die Überlappung ist real. Ein Article-Schema mit author, publisher, datePublished und FAQPage deckt beide Stacks ab. Die 30 %, die auseinandergehen: KI-Suche achtet stärker auf @id-Entitäten-Verknüpfung über die Seite hinweg und verzeiht stale oder ungenaues wordCount weniger.
Die Schema-Typen, die KI-Engines wirklich nutzen
Basierend auf öffentlicher Dokumentation von Googles strukturierten-Daten-Team und Reverse-Engineering, welche Schemas in AI Overviews zitiert werden, sind das die Typen mit Hebel:
- Article / BlogPosting — sagt dem LLM: das ist redaktioneller Content und die Autoren-Byline ist autoritativ. Pflichtfelder: headline, datePublished, author, publisher.
- Person — der Byline-Inhaber. Braucht
jobTitle,knowsAboutundsameAszu LinkedIn oder einem Wikidata-Profil, falls vorhanden. So löst die KI auf „ist dieser Autor wirklich Experte für dieses Thema". - Organization — der Publisher. Logo, url, sameAs zu Social-Profilen. Das sameAs-Array ist das, was deine Marke mit dem breiteren Entitäten-Graph verbindet.
- FAQPage — Frage-Antwort-Paare in einem Format, das KI-Retriever direkt zitieren können. Das am meisten unterschätzte Schema im Web, laut unserem Audit der Top 10 oben.
- WebSite — Site-Level-Identität mit potentialAction für interne Suche. Wird von KI weiterhin geparst, auch wenn in der SERP kein Suchfeld erscheint.
- BreadcrumbList — hierarchischer Kontext. Hilft KI, den Themen-Scope zu verstehen (diese Seite liegt unter /blog/geo/, nicht /tools/).
- HowTo — als Google Rich Result im September 2023 abgeschaltet, wird aber weiterhin von Perplexity, Gemini und ChatGPT für Schritt-Extraktion gelesen. Bleib bei Tutorial-Content dran.
- ImageObject mit Kontext-Metadaten — Google Lens, Perplexity Vision und multimodale ChatGPT nutzen das, um aufzulösen, was ein Bild zeigt. Besonders wertvoll bei Produkten und Diagrammen.
Was bei den meisten Seiten kein großes Thema ist: SoftwareApplication (außer du shippst eine App), Event (außer die Seite ist ein Event-Listing), Recipe (außer es ist ein Rezept), Product (nur auf Commercial-Pages). Irrelevante Schema-Typen hinzuzufügen bläht Bytes auf ohne Signal-Gewinn.
Die 5 Schemas, die den Unterschied machen
Nach Impact sortiert, mit dem spezifischen Muster, das wirkt:
1. BlogPosting mit @id-Self-Ref und Entity-Refs. Jeder Artikel sollte "@id":"https://your-site.com/blog/post/#article" deklarieren und author und publisher via {"@id":"..."} referenzieren. Warum: KI-Retriever behandeln @id als „das ist der Artikel auf dieser URL" — nicht einer von mehreren Kandidaten. Sie verfolgen den Graph, um author und publisher eindeutig aufzulösen.
2. Person-Schema einmal deklariert, überall referenziert. Ein kanonischer Person-Block unter /about/#founder oder Homepage #founder. Jedes Article-author-Feld ist {"@id":"https://your-site.com/#founder"}. Das verhindert Entity-Splitting — wenn du Person inline auf jedem Artikel deklarierst, kann die KI sie als unterschiedliche Personen mit leicht abweichenden Metadaten zählen.
3. FAQPage strict-synced zum sichtbaren FAQ. Jede Frage im Schema matcht exakt ein sichtbares .faq-item. Gleiche Reihenfolge. Gleicher Wortlaut. Gleiche HTML-Entities. Google entzieht FAQ Rich Results bei Drift. KI-Summaries entziehen nichts, aber bewerten Drift niedriger im Trust. Lumina nutzt intern ein 9-Zeilen-Perl-Skript, das das vor jedem Commit automatisch prüft.
4. Organization mit sameAs-Social-Profiles. Dein Organization-Schema hat sameAs:[LinkedIn-Company-Page, Twitter/X, GitHub, Crunchbase, Wikidata-Eintrag falls vorhanden]. Das sameAs-Array ist das, was deine Marke zu Wikidata und den Entitäten-Graphen auflöst, auf denen KI-Modelle trainiert wurden. Das ist die größte „anonyme Marke zu bekannter Entität"-Konvertierung.
5. Genaues dateModified. Update es, wenn der Content sich ändert. Nicht, wenn du einen Tippfehler in einem HTML-Kommentar behebst. Reality-Check: Die 9 Top-Artikel, die dateModified deklariert haben, hatten einen Durchschnitt von 164 Tagen Staleness. Drei waren über sechs Monate alt, der älteste bei 354 Tagen. Genaue Freshness ist Differenzierung, nicht Baseline.
Top-10-Artikel für „schema markup für KI-Suche" — das fehlt ihnen.
Luminas Schema Validator gegen 5 Top-ranked englische Artikel (thehoth.com, seoptimer.com, schemaapp.com, evertune.ai, cmimediagroup.com) und 5 Top-ranked deutsche (hubspot.de, tryrivo.ai, az-direct.ch, rato-digital.de, seoptimer.com/de) gelaufen. Search Engine Land und Third Wunder haben 403 beim Fetch zurückgegeben — ein Datenpunkt für sich.
@id. EN hinkt bei 1/5 hinterher (nur thehoth.com). Die DACH-Content-Szene hat das Entitäten-Pattern, das US-Englisch überspringt.JSON-LD vs Microdata vs RDFa
Nutz JSON-LD. Google bevorzugt es offiziell seit 2018. Jeder große KI-Retriever — ChatGPT, Claude, Perplexity, Gemini, Google AI Overviews — parst JSON-LD zuverlässig. Microdata funktioniert noch, bläht aber HTML auf ohne Benefits in 2026. RDFa ist gültig, aber kaum genutzt.
Der einzige Grund, noch Microdata zu shippen: ein CMS-Plugin generiert es und du kannst es nicht abschalten. In dem Fall: layer JSON-LD drauf — die beiden koexistieren ohne Konflikt, und Google bevorzugt die JSON-LD-Version, wenn beide vorhanden sind.
Ein JSON-LD-Block, unten im <head> eingefügt, mit einem @graph, der alle Entitäten der Seite hält. Das ist das kanonische moderne Muster.
Häufige Schema-Fehler, die KI-Zitate killen
Sechs Muster, die wir in Kunden-Audits und eigener Konkurrenz-Analyse immer wieder sehen:
- FAQ-Drift. Schema hat fünf Fragen, HTML hat sieben. Oder der Schema-Text ist paraphrasiert statt exakt-gematcht. Google entzieht FAQ Rich Results darauf. KI-Summaries entziehen nichts, aber Trust fällt still.
- Waisen-Person-Schema. Du shippst einen Person-Block, verknüpfst ihn aber nie via
@idmitArticle.author. KI kann die Byline nicht zur Marke verknüpfen, und das Autoren-Signal landet nicht. - Stale dateModified. Content ändert sich, dateModified nicht. Oder umgekehrt, genauso schlimm: dateModified bumpt bei einer CSS-only-Änderung und Google lernt, dein Freshness-Signal komplett zu ignorieren.
- wordCount, das lügt. Schema sagt 1.612. Seite hat 2.700. KI sieht die Diskrepanz und gewichtet den Trust-Score runter. Lass wordCount weg, wenn du es nicht sync halten kannst.
- Inline-Entity-Bloat. Jeder Artikel deklariert Organization + Person + WebSite inline. KI zählt jedes als eigene Entität und das Markensignal fragmentiert. Eine kanonische Deklaration auf der Homepage plus
@id-Referenzen überall sonst. - Erfundene Schema-Felder.
applicationAreaexistiert nicht auf schema.org. Erfundene Felder werfen keine Fehler, invalidieren aber in strict Validators den gesamten Block still. Nur schema.org-dokumentierte Felder nutzen.
Wie du Schema für KI-Suche validierst
Zwei Tools, zwei unterschiedliche Jobs:
- Google Rich Results Test — die Google-spezifische Wahrheit. Fängt Lücken, die dich von Google-Rich-Result-Eligibility ausschließen würden. Bei jedem Schema-Commit, der eine Seite mit Rich-Result-Potential berührt.
- Luminas Schema Validator — die KI-Retrieval-Wahrheit. Validiert Entitäten-Linking über Seiten (
@id-Auflösung), FAQPage-Strict-Sync gegen sichtbares HTML, deprecated Types, wordCount-Freshness. Gegen 72 eigene Lumina-Seiten dogfooded vor jedem Release.
Für KI-Suche speziell: beide laufen lassen. Google sagt dir was über Rich Results. Lumina sagt dir was über Zitations-Signale. Sie sind komplementär, nicht redundant.
FAQ
Wo du anfängst
Wenn du diese Woche KI-Such-fähiges Schema willst, mach diese fünf Dinge in der Reihenfolge:
Lauf Luminas Schema Validator auf deinen Top-5-Seiten. Die meisten Seiten finden 2-3 Lücken pro Seite: fehlende @id-Refs, stale dateModified, FAQPage-Drift. Kostenlos, keine Anmeldung.
Person und Organization leben auf deiner Homepage oder /about/. Jeder Artikel-author und -publisher ist ein {"@id":"..."}-Ref. Eine Quelle der Wahrheit, null Entitäten-Splitting.
Jeder <h2>FAQ</h2>-Block verdient FAQPage-Schema. Strict-Match den Text. Lauf vor jedem Deploy eine verify-sync-Prüfung — Drift entzieht Rich Results.
Lauf denselben Audit, den wir hier gemacht haben. Du findest Schemas, die sie überspringen — das sind First-Mover-Wins. FAQPage ist 2026 fast immer einer davon.
GEO Readiness Check →Richte GA4-Source-Tracking für chatgpt.com, perplexity.ai, claude.ai, gemini.google.com ein. Volumina sind heute klein, aber die Trendlinie in sechs Monaten ist, was zählt.
GA4 Dashboard →Validiere dein Schema gegen KI-Zitations-Signale
Luminas kostenloser Schema Validator fängt genau die Lücken, die dieser Audit gefunden hat: fehlendes FAQPage-Strict-Sync, Waisen-Person-Blöcke, stale dateModified, wordCount-Drift, kaputte @id-Refs. Ein Paste oder eine URL, keine Anmeldung.