E-E-A-T ist das SEO-Konzept, auf das alle verweisen und das fast niemand auditiert. Backlinks bekommen Spreadsheets. Schema bekommt Validator-Tools. PageSpeed bekommt Dashboards. E-E-A-T bleibt in einer Grauzone, in der jeder Ratgeber dieselbe Vier-Buchstaben-Definition wiederholt, kaum jemand E-E-A-T tatsächlich in den Schema-Graph einbaut und fast niemand prüft, ob die eigene Author-Entität überhaupt verifizierbar ist. Das Ergebnis ist absehbar: Die Hälfte der SERP für "e-e-a-t seo" sind veraltete Artikel aus 2023, die zwar über Author-Entity reden, aber inline Person-Blöcke ohne sameAs-Links shippen. Die Top-DE-Seite zum Thema wurde seit über zwei Jahren nicht angefasst.

Ich habe einen Live-Audit der 10 Top-Treffer auf google.com und google.de für "e-e-a-t seo" und "e-e-a-t" durchgeführt — mit Luminas Schema Validator, Meta Tag Analyzer und GEO Readiness Checker. Das Muster ist eindeutig: Nur 4 von 10 shippen FAQPage-Schema (das Rich-Result-Format, das KI-Engines für Snippet-Pulls bevorzugen), nur 4 von 10 verlinken die Author-Person via sameAs auf externe Profile, OMTs Rang-2-DE-Artikel wurde seit April 2024 nicht inhaltlich aktualisiert, und Marktgetrieben rankt auf google.de Position 4 komplett ohne JSON-LD. Dieser Leitfaden ist die komplette Evergreen-Referenz: Was E-E-A-T wirklich ist, warum das zweite E im Dezember 2022 hinzukam, warum es 2026 wichtiger ist als je zuvor, die Entity-Graph-Verschiebung, die niemand sonst beschreibt, die Schema-Muster, die KI-Engines tatsächlich prüfen, die fünf Signale mit echtem Hebel und ein Fünf-Schritte-Workflow für deinen Aufbau.

Was E-E-A-T wirklich ist

E-E-A-T steht für Experience (Erfahrung), Expertise, Authoritativeness (Autorität) und Trustworthiness (Vertrauenswürdigkeit). Das ist das Bewertungsraster, mit dem Googles rund 16.000 Quality Rater einschätzen, wie vertrauenswürdig eine Seite ist. Google veröffentlicht den Rahmen in den Search Quality Rater Guidelines, einem über 170-seitigen Dokument, das die Rater bei der Bewertung einzelner Suchergebnisse konsultieren. Ihre Scores fließen niemals direkt in den Live-Ranking-Algorithmus, prägen aber die Trainingsdatensätze, mit denen Google jede Algorithmus-Änderung vor Rollout evaluiert. Das Signal fließt indirekt — genau deshalb bleibt "Ist E-E-A-T ein Ranking-Faktor" eine umstrittene Frage.

Das zweite E wurde im Dezember 2022 ergänzt, als Google Experience zum ursprünglichen E-A-T-Trio hinzufügte. Die Änderung war eine direkte Reaktion auf die KI-Content-Welle, die 2023 einsetzte. KI kann Expertise (Qualifikationen), Authoritativeness (Backlinks) und Trustworthiness (HTTPS, Quellen) synthetisieren. Was sie nicht imitieren kann, ist echte Beteiligung aus erster Hand. Die neue Experience-Dimension verschob das Bewertungsraster zurück zu Content, der von Menschen geschrieben wurde, die das Thema wirklich erlebt haben.

Das März-2026-Core-Update hat diese Verschiebung explizit verstärkt. Sites, die ihre Experience-Signale zugunsten synthetisierten Contents abgebaut haben, verloren AI-Overview-Citation-Slots. Einige der EN-Seiten in meinem Audit ranken nicht weiter, weil ihr Experience-Signal schwach ist — selbst wenn ihr Authority-Signal stark wirkt. E-E-A-T ist 2026 kein Häkchen mehr. Es ist ein kontinuierliches Spektrum, das der Algorithmus zunehmend präzise abliest.

Die vier E's im Detail

Jedes E steht für eine andere Vertrauens-Dimension. Seiten, die in einer punkten und in einer anderen versagen, verlieren bei YMYL-Themen schnell an Sichtbarkeit. Hier ist, was jeder Buchstabe 2026 wirklich bedeutet — mit den Signalen, die ihn bewegen.

Experience: Hast du das wirklich gemacht?

Experience ist die jüngste und folgenreichste Ergänzung. Sie fragt, ob der Autor direkt mit dem Thema zu tun hat. Eine Ärztin, die über eine Behandlung schreibt, die sie täglich verschreibt, gewinnt gegen einen Generalisten, der dieselben Studien zitiert. Ein Rezensent, der ein Produkt selbst besessen und benutzt hat, gewinnt gegen einen, der andere Rezensionen zusammenfasst. Die Signale, die Experience bewegen: eigene Screenshots, eigene Daten, eigene Fotos, konkrete Lessons Learned mit Beispielen, Daten und Zeitstempel, die zeigen, dass der Autor wirklich dabei war. Keines davon ist ein Schema-Feld. Alle sind Content-Muster, die menschliche Rater lesen und KI-Summarizer bevorzugen.

Expertise: Kennst du dich wirklich aus?

Expertise deckt Qualifikationen und nachweisbare Wissens-Tiefe ab. Für YMYL-Themen (Your Money or Your Life — Gesundheit, Finanzen, Recht, Sicherheit) zählen formale Qualifikationen am meisten: Approbation für Gesundheits-Content, CFP-Auszeichnung für Finanzberatung, Anwaltszulassung für rechtliche Erklärungen. Für Non-YMYL-Themen wird Expertise durch Behandlungstiefe, technische Präzision und konsistente Veröffentlichungen zum Thema signalisiert. Die Signale: ein Author-Bio, der relevante Qualifikationen nennt, ein Werk, das thematischen Fokus zeigt, und eine Sprache, die tatsächliches Fachverständnis demonstriert — nicht oberflächliche Paraphrasierung.

Authoritativeness: Bist du die richtige Adresse?

Authoritativeness ist externe Anerkennung, nicht Selbstanspruch. Es geht darum, ob andere autoritative Sites und Menschen dich zitieren, verlinken oder zitierend erwähnen. Die Signale, die sie bewegen: Backlinks aus anerkannten Publikationen deines Themengebiets, Erwähnungen in Branchen-Studien, Mentions in Fachmedien, Aufnahme in themenspezifische Listen oder Roundups. Selbstbezeichnete Autorität ("wir sind die führende X") ist das Gegenteil eines Autoritäts-Signals. Das nächste Schema-Signal ist die Person-Eigenschaft knowsAbout, kombiniert mit verifizierbaren sameAs-Links zu externen Profilen, wo Autorität unabhängig beobachtbar ist.

Trustworthiness: Ist die Site selbst vertrauenswürdig?

Trust ist das einzige E, das auf Site-Ebene wirkt, nicht auf Seitenebene. Googles Dokumentation nennt Trust explizit als höchste Priorität der vier, und die 2022er-Ankündigung zur Experience-Ergänzung stellte klar, dass Trust im Zentrum des Rahmens steht. Ohne Trust retten keine Verbesserungen auf Seitenebene die Site. Die Signale: HTTPS auf allen Seiten, vollständige Impressum- und Datenschutz-Angaben, ehrliche Author-Bylines, geprüfte Quellen, funktionierende Kontakt-Optionen und das Fehlen täuschender Werbe-Muster. Für YMYL-Sites verlangt Trust außerdem klare Offenlegung von Affiliationen, Monetarisierung und möglichen Interessenkonflikten.

Warum E-E-A-T in der KI-Suche wichtiger wird

KI-Suchmaschinen gewichten E-E-A-T stärker als die klassische Google-Suche, weil sie es tatsächlich überprüfen können. Googles Ranking-Algorithmus liest E-E-A-T indirekt durch Quality-Rater-Feedback-Loops. KI-Engines parsen das Schema direkt, folgen den sameAs-Links beim Abruf und prüfen Autoren-Claims gegen Wikipedia, Wikidata, ORCID und LinkedIn, bevor sie entscheiden, ob sie eine Seite zitieren. Wenn eine Kandidaten-Seite eine prüfbare Autoren-Entität hat, zitiert die KI sie deutlich selbstsicherer. Wenn die Byline reiner Text ist, wählt die Engine meist einen Konkurrenten, dessen Autor sie verifizieren kann.

Das gilt für jede große KI-Suchmaschine, die gegen Live-Web-Content abruft: Google AI Overviews, ChatGPT Search, Perplexity, Claude mit Web-Zugriff und Gemini im AI Mode. Alle führen eine Suchanfrage durch, laden eine kleine Anzahl Kandidaten-Seiten, parsen die strukturierten Daten und wählen die Citation anhand einer Kombination aus thematischem Match und Quellen-Trust-Signalen. Der Trust-Check ist genau die Stelle, an der E-E-A-T das Ergebnis still entscheidet. Eine Seite auf einer dünnen Domain mit anonymen Bylines kann auf Position 3 für die Suchanfrage ranken und trotzdem jeden KI-Citation-Slot an eine Verified-Author-Seite auf Position 8 verlieren.

Die User Agents GPTBot, ClaudeBot und PerplexityBot crawlen aktiv nach Entity-Kontext beim Abruf. Sie laden nicht nur die Kandidaten-Seite, sondern folgen den sameAs-Profilen der kanonischen Autoren-Entität, um die behauptete Expertise zu bestätigen. Eine Seite aus 2024, die einen inline Person-Block ohne sameAs-Array shipped, lässt zwar die Seite parsen, aber den Autor unverifiziert. Die Seite kann aufgrund anderer Signale dennoch zitiert werden. Aber die Autoren-Trust-Dimension fehlt, und die Citation-Häufigkeit über die Zeit kippt zu Seiten, die Entity-Verifikation von Anfang an richtig verdrahten.

Live Audit · 11. Mai 2026

Was 10 Top-Rankings für E-E-A-T tatsächlich shippen

Ich habe die Top 5 EN + Top 5 nativen DE-Treffer für "e-e-a-t seo" / "e-e-a-t" mit Luminas Schema Validator, Meta Tag Analyzer und GEO Readiness Checker auditiert. Die Lücken erzählen die echte Geschichte.

6/10
ohne FAQPage-Schema
Nur Search Engine Journal (EN #1), Search Engine Land (EN #3), Evergreen Media (DE #3) und 121WATT (DE #5) shippen es. Das Rich-Result-Format, das KI-Engines für Snippet-Pulls bevorzugen, fehlt auf 6 von 10.
754d
SERP-Max-Staleness
OMT rankt auf google.de Position 2 für "google eeat" mit einem Artikel, der zuletzt am 17. April 2024 angefasst wurde — geschrieben, bevor das Experience-Signal überhaupt ein Jahr alt war. Search Engine Journal EN Rang 1 ist 739 Tage stale.
6/10
ohne Author-sameAs
Nur Search Engine Journal (5 sameAs-Einträge), SearchAtlas (5), Yoast (2) und 121WATT (2) verlinken die Author-Person zu externen Profilen. Ohne sameAs können KI-Engines die Identität nicht prüfen.
3/10
ohne Article-Schema
Search Engine Land (#3 EN) shipped nur WebPage + FAQPage. OMT (#2 DE) shipped nur WebPage. Marktgetrieben (#4 DE) shipped gar nichts. Article-Schema ist die Basis — fehlt es, fehlt das Frische-Signal.
1/10
ganz ohne JSON-LD
Marktgetrieben auf google.de Rang 4 hat null Schema, kein dateModified, kein article:modified_time — unsichtbar für KI-Frische-Scoring. Die Seite rankt nur über Link-Signale.
5/10
ohne Person-Schema
Semrush, SEL, OMT, Evergreen Media und Marktgetrieben shippen gar keinen Person-Block. Evergreen Media referenziert author via @id, ohne die Entität zu definieren — eine kaputte Graph-Referenz, die KI-Engines nicht auflösen können.

Auditiere jede URL mit Luminas Schema Validator →

Wie Google E-E-A-T tatsächlich verwertet

Google hat mehrfach klargestellt — zuletzt durch John Mueller und Hyung-Jin Kim — dass E-E-A-T kein direktes Ranking-Signal ist. Es gibt keinen E-E-A-T-Score, den der Algorithmus Feld für Feld liest. Was es gibt: einen Quality-Rater-Feedback-Loop, der die Trainingsdaten prägt, mit denen Google Ranking-Änderungen evaluiert. Plus mehrere algorithmische Systeme, die das E-E-A-T-Verhalten annähern, ohne es beim Namen zu nennen.

Die Quality Rater Guidelines sind öffentlich. Rund 16.000 vertraglich gebundene menschliche Rater bewerten Suchergebnisse auf einer "Needs Met"-Skala und einer "Page Quality"-Skala — wobei E-E-A-T die primäre Linse für den Page-Quality-Score ist. Ihre Scores beeinflussen die Live-Ergebnisse, die sie bewerten, nie. Was sie tun: Sie liefern die gelabelten Trainingsdaten für die algorithmischen Systeme, die entscheiden, welche Seiten für welche Suchanfragen ranken sollen. Wenn eine Ranking-Änderung live geht, misst Google, ob sie die Seiten nach oben gedrückt hat, die Rater hoch bewerten, und die nach unten, die Rater niedrig bewerten. Änderungen mit positiver Rater-Score-Korrelation bleiben. Änderungen mit negativer werden zurückgerollt.

Die algorithmischen Proxies sind real, aber indirekt. Das Helpful Content System gewichtet Erfahrung aus erster Hand und Content-Qualität. Das Spam System filtert offensichtliche Manipulation. Die Hidden-Reviews-Systeme bestrafen Fake-Review-Muster. Keines liest "E-E-A-T" beim Namen, aber die Ziele, die die Rater bewerten, korrelieren stark mit dem, worauf diese Systeme trainiert sind. Die praktische Folge: Auf E-E-A-T zu optimieren heißt, auf das Rater-Raster zu optimieren, und das Rater-Raster ist das, was die algorithmischen Systeme annähern. Es gibt keinen direkten Regler, aber einen messbaren Lenk-Effekt.

E-E-A-T als Entity-Graph-Problem

Die Verschiebung von 2024 bis 2026 in der E-E-A-T-Bewertung ist die Migration vom Seitenraster zum Entity-Graph-Verifikations-Problem. Quality Rater bewerten einzelne Seiten. Suchmaschinen und KI-Suchmaschinen durchqueren jetzt Entitäten. Der Autor einer Seite ist nicht mehr nur ein Name in der Byline — er ist ein Knoten in einem Wissensgraphen, der via @id-Referenzen und sameAs-Links zu externen Profilen verbunden ist, wo dieselbe Identität unabhängig beobachtbar ist.

Das Muster, das gewinnt: Deklariere eine kanonische Person-Entität pro Autor deiner Site, gib ihr eine stabile @id, und referenziere diese @id aus jedem Artikel, den der Autor schreibt. Verbinde dann die Identität der Person mit Wikipedia, Wikidata, ORCID, LinkedIn, Twitter/X, GitHub oder jedem anderen Profil, auf dem die Expertise des Autors sichtbar ist. Schema-seitig bedeutet das einen Person-Block mit name, jobTitle, knowsAbout, url und einem sameAs-Array. Referenz-seitig nutzt jeder Artikel author: {"@id": "https://meine-site.de/#person-julien"} — statt den Person-Block inline zu wiederholen.

Von den 10 Seiten, die ich auditiert habe, verdrahten nur 4 die Author-Person mit überhaupt einem sameAs-Array. Search Engine Journal und SearchAtlas shippen das stärkste Setup: je 5 Einträge mit LinkedIn, X/Twitter, YouTube plus zwei weiteren (Bluesky, Google Knowledge Graph, Instagram, persönliche Website — je nachdem, was im Autoren-Profil verfügbar ist). Die meisten anderen deklarieren eine Person inline mit Name und URL — die KI-Suchmaschinen haben nichts zum Cross-Reference. Der Artikel rankt, aber der Autor nicht. Bei YMYL-Themen, wo die Autoren-Identität das Trust-Signal ist, zählt diese Lücke mehr als der eigentliche Seiten-Inhalt.

Author-Entity-Verifikation: Das Schema-Muster 2026

Das kanonische 2026er-Muster sieht so aus. Eine Person-Entität, einmal deklariert auf deiner Site (typischerweise auf der Startseite oder einer Autoren-Profilseite), referenziert von jedem Artikel via @id. Die Person-Entität selbst trägt sameAs-Links zu verifizierbaren externen Profilen. KI-Suchmaschinen laden den Artikel, parsen die @id-Referenz des Autors, laden die verlinkte Person-Entität und durchlaufen sameAs, um die Identität zu bestätigen. Drei Schichten, alle parsbar, alle prüfbar.

// Auf der Startseite die kanonische Person deklarieren:
{
  "@context": "https://schema.org",
  "@type": "Person",
  "@id": "https://lumina-seo.com/#founder",
  "name": "Julien El-Bahy",
  "url": "https://lumina-seo.com/de/ueber-uns",
  "jobTitle": "Web Development Lead",
  "knowsAbout": ["SEO", "GEO", "Schema Markup", "KI-Suche"],
  "sameAs": [
    "https://www.linkedin.com/in/julien-el-bahy-b4b71a201/",
    "https://github.com/julien-elbahy",
    "https://twitter.com/julien_elbahy"
  ]
}

// Auf jedem Artikel die Entität via @id referenzieren (keine Inline-Wiederholung):
{
  "@context": "https://schema.org",
  "@type": "BlogPosting",
  "headline": "E-E-A-T Leitfaden",
  "author": {"@id": "https://lumina-seo.com/#founder"},
  "publisher": {"@id": "https://lumina-seo.com/#organization"},
  "datePublished": "2026-05-11T10:00:00+02:00",
  "dateModified": "2026-05-11T10:00:00+02:00"
}

Das Muster gewinnt auf drei Ebenen gleichzeitig. Schema-seitig ist es die kanonische Schema.org-Spec für Entity-Linking — die JSON-LD-1.1-Spezifikation unterstützt @id-Referenzen über Dokumente hinweg explizit. SEO-seitig lösen sowohl Googles Schema Validator als auch der Rich Results Test die Referenz korrekt auf. KI-seitig folgen alle großen Retrieval-Bots sameAs zur Identitätsbestätigung — eine Person mit mehreren verifizierbaren Profilen wird für die Themen in ihrem knowsAbout-Array als vertrauenswürdige Quelle gewichtet.

Drei häufige Fehler aus den Audit-Daten. Erstens: inline Person-Blöcke, auf jedem Artikel dupliziert — die Entität existiert, ist aber nicht entity-verlinkt, sodass jeder Artikel für den Crawler wie ein separater Autor aussieht. Zweitens: fehlendes sameAs — der Person-Block hat Name und jobTitle, aber nichts zum Querverweis. Die Entität existiert in deinem Schema, aber verbindet sich nicht mit dem weiteren Graphen. Drittens: inkonsistente Autoren-Namen — die Byline sagt "Julien El-Bahy", das Schema sagt "J. El-Bahy", und das LinkedIn-Profil sagt "Julien Elbahy". KI-Suchmaschinen behandeln das als drei verschiedene Personen. Wähle eine kanonische Form und nutze sie überall.

Die 5 stärksten E-E-A-T-Signale 2026

Fünf Signale bewegen E-E-A-T-Scores branchen- und content-übergreifend zuverlässig. Sie sind keine Checkliste — sie verstärken sich gegenseitig, wenn alle vorhanden sind, und verlieren an Wirkung, wenn sie isoliert auftreten. Die Reihenfolge zählt: Signal 1 ist das Fundament, Signal 5 ist der Multiplikator.

1. Eine verifizierte Author-Entität mit sameAs-Links

Deklariere eine kanonische Person-Entität pro Autor auf deiner Site, mit @id, jobTitle, knowsAbout und einem sameAs-Array von mindestens drei verifizierbaren externen Profilen (LinkedIn, Wikipedia, ORCID, Twitter, GitHub — je nach Branche). Referenziere sie von jedem Artikel via @id. Diese eine Änderung bewegt sowohl klassisches SEO (Googles Quality-Rater-Proxies) als auch KI-Citation-Raten (jede große Engine prüft die Autoren-Identität nach). Es ist der größte E-E-A-T-Hebel, den du dieses Quartal ziehen kannst.

2. Beweise aus erster Hand im Content

Eigene Screenshots, eigene Daten, eigene Produktfotos, benannte Lessons Learned, Daten und Zeitstempel, die zeigen, dass der Autor wirklich dabei war. Keines davon ist ein Schema-Feld — es ist ein Content-Muster, das menschliche Rater lesen und KI-Summarizer bevorzugen. Der Lumina-Blog shipped Live-Audit-Blöcke auf Konkurrenz-URLs, weil jeder eine SEO-Checkliste synthetisieren kann, aber nur wir können die genauen Zahlen veröffentlichen, die wir diese Woche an 10 rankenden Seiten gemessen haben. Das ist das Experience-Signal in der Praxis.

3. Site-Level-Trust-Signale

HTTPS überall, vollständige Impressum- und Datenschutz-Angaben, funktionierende Kontakt-Optionen, ehrliche Author-Bylines auf jedem veröffentlichten Artikel und das Fehlen täuschender Werbe-Muster. Trust ist das einzige E, das auf Site-Ebene wirkt — versagt es, helfen die per-Page-Verbesserungen der anderen drei nichts. Audit-seitig: Prüfe, dass jede Seite deiner indexierbaren Site HTTPS hat, dass Impressum und Datenschutz von jeder Seite aus erreichbar sind (Footer-Link reicht) und dass deine Kontakt-Email tatsächlich Mails empfängt.

4. Thematische Konsistenz über die Zeit

Autoren, die konsistent zu demselben Thema publizieren, akkumulieren Autorität schneller als Freelancer, die breit streuen. Das Signal ist nicht die Tiefe eines einzelnen Artikels — es ist das Muster eines Werks, das auf ein oder zwei Domänen fokussiert ist. Für Lumina heißt das: Ich publiziere fast ausschließlich zu SEO- und GEO-Themen. Die knowsAbout-Eigenschaft der Person deklariert die Fokusbereiche, und das Artikel-Archiv auf der Autoren-Profilseite bestätigt sie. KI-Suchmaschinen gewichten thematische Konsistenz bei der Citation-Auswahl. Position 5 mit starker thematischer Autorität schlägt regelmäßig Position 2 mit zerstreuter Autorenschaft.

5. Outbound-Citations zu autoritativen Quellen

Links zu primären Quellen sind ein Trust-Signal — sowohl für Quality Rater als auch für KI-Verifikations-Systeme. Wenn du Googles eigene Doku, Schema.org-Spezifikationen, wissenschaftliche Studien oder Behördendaten zitierst, lesen Rater das als Vertrauen in die zugrundeliegenden Behauptungen, und KI-Engines folgen den Links beim Abruf, um den Kontext zu bestätigen. Das Gegenmuster — Artikel, die Behauptungen ohne Quellen aufstellen, besonders Statistik-Claims mit erfundenen Prozenten — ist genau das, worauf das März-2024-Helpful-Content-System-Update getunt wurde. Zitiere, wenn du kannst. Markiere Hypothesen als Hypothesen, wenn du nicht kannst.

5-Schritte-Workflow für deinen E-E-A-T-Aufbau

Fünf Schritte in zwei Wochen bewegen jedes E-E-A-T-Signal, das zählt. Die Reihenfolge ist bewusst gewählt: Schritt 1 (Author-Entität) schaltet Schritte 2 bis 5 frei, weil jede spätere Verbesserung an der in Schritt 1 deklarierten kanonischen Entität ansetzt. Überspring Schritt 1, und die anderen verstärken sich schwächer.

01
Kanonische Author-Entität deklarieren

Wähle eine kanonische Person-Entität pro Autor. Stabile @id (z.B. /#founder), voller Name, jobTitle, knowsAbout-Array, sameAs-Links zu LinkedIn + mindestens zwei weiteren verifizierbaren Profilen. Einmal auf der Startseite oder Autoren-Profilseite deklarieren.

Mit Schema Validator prüfen →
02
Jeden Artikel via @id verlinken

Ersetze inline Author-Person-Blöcke durch author: {"@id": "https://meine-site.de/#person-NAME"} auf jedem Artikel. Gleiches Muster für publisher. Die Referenz löst die Entität auf — du musst den Person-Block nicht duplizieren.

@id-Auflösung prüfen →
03
Site-Level-Trust-Signale shippen

HTTPS auf allen Seiten. Impressum und Datenschutz von jeder Seite erreichbar. Funktionierende Kontakt-Email sichtbar im Footer. Author-Bylines auf jedem Artikel, die zur Autoren-Profilseite verlinken. Das ist Fundament, keine Optimierung.

Site-Header auditieren →
04
Beweise aus erster Hand ergänzen

Für deine 10 traffic-stärksten Seiten je mindestens ein Original-Element ergänzen: ein eigener Screenshot, ein frischer Datenpunkt, ein gemessenes Ergebnis, eine datierte Lesson Learned. Das Experience-Signal kumuliert — jedes Original-Element auf einer Top-Seite verbessert die ganze Site.

Bild-SEO auditieren →
05
Mit GEO Readiness auditieren

Lass Luminas GEO Readiness Checker auf jeden veröffentlichten Artikel laufen. Er prüft 42 E-E-A-T-nahe Signale auf Author-Entität, Schema-Vollständigkeit, sameAs-Auflösung und KI-Crawler-Zugang. Quartalsweise neu laufen lassen, um Drift zu fangen.

GEO Readiness laufen lassen →

FAQ

E-E-A-T steht für Experience (Erfahrung), Expertise, Authoritativeness (Autorität) und Trustworthiness (Vertrauenswürdigkeit). Das ist das Bewertungsraster, mit dem Googles rund 16.000 Quality Rater einschätzen, wie vertrauenswürdig eine Seite ist — besonders für YMYL-Themen wie Gesundheit, Finanzen und Recht. Die vier Signale fließen nicht direkt in den Ranking-Algorithmus, prägen aber die Trainingsdaten und Feedback-Loops, mit denen Google jede Algorithmus-Änderung evaluiert. 2026 nutzen KI-Suchmaschinen wie Google AI Overviews, ChatGPT Search und Perplexity dieselben Signale, um zu entscheiden, welche Seite sie zitieren.
Nicht direkt. Google hat mehrfach klargestellt, dass E-E-A-T selbst kein Ranking-Signal ist, das der Algorithmus Feld für Feld liest. Was es tut: Es prägt die Search Quality Rater Guidelines, mit denen die Rater die Suchergebnisse bewerten, die Google wiederum als Trainingsdaten für seine Ranking-Systeme nutzt. Der Effekt ist indirekt aber real: Seiten mit guten Rater-Scores ranken über die Zeit besser, und Seiten mit niedrigem E-E-A-T verlieren nach Core Updates an Sichtbarkeit. Das März-2026-Core-Update hat diesen Loop enger gezogen, indem es Experience als zentralen Differenzierer explizit gestärkt hat.
Google hat das zweite E (Experience) im Dezember 2022 ergänzt. Davor war E-A-T das Drei-Buchstaben-Raster: Expertise, Authoritativeness, Trustworthiness. Die neue Experience-Dimension deckt Erfahrung aus erster Hand mit dem Thema ab. Eine Ärztin, die über eine Behandlung schreibt, die sie täglich verschreibt, schneidet besser ab als ein Generalist, der dieselben Studien zitiert. Ein Rezensent, der das Produkt selbst benutzt hat, gewinnt gegen einen, der andere Rezensionen zusammenfasst. Die Ergänzung war eine direkte Antwort auf die KI-Content-Welle: KI kann die anderen drei E-A-T-Signale synthetisieren, aber keine echte Erfahrung aus erster Hand.
KI-Suchmaschinen (Google AI Overviews, ChatGPT Search, Perplexity, Claude mit Web-Zugriff) folgen denselben E-E-A-T-Heuristiken wie Googles Quality Rater, gewichten aber Author-Entity-Verifikation stärker, weil sie sie tatsächlich nachprüfen können. Wenn eine KI-Engine eine Seite als Citation-Kandidat lädt, parst sie das Author-Schema, folgt den sameAs-Links zu Wikipedia, LinkedIn, ORCID oder Wikidata und prüft, ob die behauptete Expertise mit verifizierbaren externen Profilen übereinstimmt. Eine Seite mit verifizierter Autoren-Entität wird deutlich häufiger zitiert als eine mit anonymem Byline — selbst wenn beide in der klassischen Google-Suche ähnlich ranken.
Vertrauen. Googles eigene Quality Rater Guidelines nennen Trust als höchste Priorität der vier, und die Dezember-2022-Ankündigung zur Experience-Ergänzung stellte explizit klar, dass Trust im Zentrum des Rasters steht. Ohne Vertrauen helfen die anderen drei Signale nichts: Eine sehr erfahrene Expertin auf einer autoritativen Website verliert trotzdem Sichtbarkeit, wenn die Seite kein HTTPS, kein Impressum, keine ehrliche Byline oder keine geprüften Quellen hat. Trust ist außerdem das einzige E, das auf Site-Ebene binär wirkt. Wenn die Site scheitert, retten keine Verbesserungen auf Seitenebene das Ergebnis.
Zeig direkte Beteiligung, keine Beschreibung aus dritter Hand. Eigene Screenshots statt Stock-Fotos, eigene Daten statt zitierte Benchmarks, eigene Lessons Learned statt umformulierter Best Practices. Lumina-Blogposts enthalten Live Audits gegen echte Konkurrenz-URLs, weil jeder eine SEO-Checkliste synthetisieren kann, aber nur wir können die genauen Zahlen veröffentlichen, die wir diesen Monat gemessen haben. Das Experience-Signal ist genau das, was KI-generierter Content strukturell nicht fälschen kann. Genau deshalb hat Google es im Dezember 2022 ergänzt.
Für YMYL-Themen ja. Für alle anderen wird sie dringend empfohlen. Auf der Autoren-Profilseite deklarierst du die kanonische Person-Schema-Entität, auf die jeder Artikel der Site per @id verweist. Sie trägt Qualifikationen, Bio, sameAs-Links zu verifizierbaren externen Profilen und die Liste der Artikel des Autors. Ohne sie ist deine Byline reiner Text. Mit ihr hast du eine Entität, die KI-Suchmaschinen prüfen und bestätigen können.
Deklariere eine kanonische Person-Entität im @graph deiner Site (typischerweise auf der Startseite oder Autoren-Profilseite) mit stabiler @id wie https://meine-site.de/#gruender. Enthalte name, url, jobTitle, knowsAbout und ein sameAs-Array mit Links zu Wikipedia, LinkedIn, ORCID, Twitter/X und jedem weiteren verifizierbaren Profil. Auf jedem Artikel referenzierst du die Entität dann via author: {'@id': 'https://meine-site.de/#gruender'}, statt den Person-Block inline zu wiederholen. Luminas Schema Validator löst @id-Refs zwischen Seiten auf — paste eine beliebige Artikel-URL und du siehst, ob die Autoren-Entität korrekt verlinkt ist.

Wo du startest

Wenn du diese Woche genau eine Sache machst, mach Schritt 1 aus dem Workflow: Deklariere deine kanonische Author-Person-Entität mit vollem sameAs-Array. Wähl LinkedIn plus zwei weitere Profile, wo deine Expertise nachweisbar ist — Wikipedia, falls du gelistet bist, ORCID, falls du akademisch publizierst, Twitter/X oder GitHub, falls du dort regelmäßig veröffentlichst. Ergänze knowsAbout mit den zwei bis drei Themen, zu denen du am meisten schreibst. Validiere das Schema mit Luminas Schema Validator und bestätige, dass die @id auflöst.

Wenn du mehr Zeit hast, ship Schritt 2 in derselben Woche: Ersetze inline Author-Blöcke auf deinen 10 traffic-stärksten Artikeln durch @id-Referenzen auf die kanonische Entität. Die Änderung ist für Leser unsichtbar und fügt dem sichtbaren Content nichts hinzu, aber sie sagt jeder KI-Suchmaschine, dass die Autoren dieser 10 Seiten dieselbe prüfbare Entität sind. Seiten, deren Autoren korrekt entity-verlinkt sind, sehen KI-Citation-Raten, die über sechs bis acht Wochen kumulieren: erst klein, dann spürbar größer als die Ranking-Position vermuten lässt.

Auditiere dein E-E-A-T-Setup jetzt

Luminas Schema Validator löst @id-Referenzen zwischen Seiten auf, deckt fehlende sameAs auf und markiert inline Author-Blöcke, die entity-verlinkt sein sollten. Kostenlos, ohne Login.

Schema Validator laufen lassen →
Julien El-Bahy

Julien El-Bahy

Web Development Lead und Macher von Lumina SEO. Spezialisiert auf SEO, GEO und KI-gestützte Such-Tools.

Auf LinkedIn vernetzen →

Passende Tools & Artikel