E-E-A-T ist das SEO-Konzept, auf das alle verweisen und das fast niemand auditiert. Backlinks bekommen Spreadsheets. Schema bekommt Validator-Tools. PageSpeed bekommt Dashboards. E-E-A-T bleibt in einer Grauzone, in der jeder Ratgeber dieselbe Vier-Buchstaben-Definition wiederholt, kaum jemand E-E-A-T tatsächlich in den Schema-Graph einbaut und fast niemand prüft, ob die eigene Author-Entität überhaupt verifizierbar ist. Das Ergebnis ist absehbar: Die Hälfte der SERP für "e-e-a-t seo" sind veraltete Artikel aus 2023, die zwar über Author-Entity reden, aber inline Person-Blöcke ohne sameAs-Links shippen. Die Top-DE-Seite zum Thema wurde seit über zwei Jahren nicht angefasst.
Ich habe einen Live-Audit der 10 Top-Treffer auf google.com und google.de für "e-e-a-t seo" und "e-e-a-t" durchgeführt — mit Luminas Schema Validator, Meta Tag Analyzer und GEO Readiness Checker. Das Muster ist eindeutig: Nur 4 von 10 shippen FAQPage-Schema (das Rich-Result-Format, das KI-Engines für Snippet-Pulls bevorzugen), nur 4 von 10 verlinken die Author-Person via sameAs auf externe Profile, OMTs Rang-2-DE-Artikel wurde seit April 2024 nicht inhaltlich aktualisiert, und Marktgetrieben rankt auf google.de Position 4 komplett ohne JSON-LD. Dieser Leitfaden ist die komplette Evergreen-Referenz: Was E-E-A-T wirklich ist, warum das zweite E im Dezember 2022 hinzukam, warum es 2026 wichtiger ist als je zuvor, die Entity-Graph-Verschiebung, die niemand sonst beschreibt, die Schema-Muster, die KI-Engines tatsächlich prüfen, die fünf Signale mit echtem Hebel und ein Fünf-Schritte-Workflow für deinen Aufbau.
Was E-E-A-T wirklich ist
E-E-A-T steht für Experience (Erfahrung), Expertise, Authoritativeness (Autorität) und Trustworthiness (Vertrauenswürdigkeit). Das ist das Bewertungsraster, mit dem Googles rund 16.000 Quality Rater einschätzen, wie vertrauenswürdig eine Seite ist. Google veröffentlicht den Rahmen in den Search Quality Rater Guidelines, einem über 170-seitigen Dokument, das die Rater bei der Bewertung einzelner Suchergebnisse konsultieren. Ihre Scores fließen niemals direkt in den Live-Ranking-Algorithmus, prägen aber die Trainingsdatensätze, mit denen Google jede Algorithmus-Änderung vor Rollout evaluiert. Das Signal fließt indirekt — genau deshalb bleibt "Ist E-E-A-T ein Ranking-Faktor" eine umstrittene Frage.
Das zweite E wurde im Dezember 2022 ergänzt, als Google Experience zum ursprünglichen E-A-T-Trio hinzufügte. Die Änderung war eine direkte Reaktion auf die KI-Content-Welle, die 2023 einsetzte. KI kann Expertise (Qualifikationen), Authoritativeness (Backlinks) und Trustworthiness (HTTPS, Quellen) synthetisieren. Was sie nicht imitieren kann, ist echte Beteiligung aus erster Hand. Die neue Experience-Dimension verschob das Bewertungsraster zurück zu Content, der von Menschen geschrieben wurde, die das Thema wirklich erlebt haben.
Das März-2026-Core-Update hat diese Verschiebung explizit verstärkt. Sites, die ihre Experience-Signale zugunsten synthetisierten Contents abgebaut haben, verloren AI-Overview-Citation-Slots. Einige der EN-Seiten in meinem Audit ranken nicht weiter, weil ihr Experience-Signal schwach ist — selbst wenn ihr Authority-Signal stark wirkt. E-E-A-T ist 2026 kein Häkchen mehr. Es ist ein kontinuierliches Spektrum, das der Algorithmus zunehmend präzise abliest.
Die vier E's im Detail
Jedes E steht für eine andere Vertrauens-Dimension. Seiten, die in einer punkten und in einer anderen versagen, verlieren bei YMYL-Themen schnell an Sichtbarkeit. Hier ist, was jeder Buchstabe 2026 wirklich bedeutet — mit den Signalen, die ihn bewegen.
Experience: Hast du das wirklich gemacht?
Experience ist die jüngste und folgenreichste Ergänzung. Sie fragt, ob der Autor direkt mit dem Thema zu tun hat. Eine Ärztin, die über eine Behandlung schreibt, die sie täglich verschreibt, gewinnt gegen einen Generalisten, der dieselben Studien zitiert. Ein Rezensent, der ein Produkt selbst besessen und benutzt hat, gewinnt gegen einen, der andere Rezensionen zusammenfasst. Die Signale, die Experience bewegen: eigene Screenshots, eigene Daten, eigene Fotos, konkrete Lessons Learned mit Beispielen, Daten und Zeitstempel, die zeigen, dass der Autor wirklich dabei war. Keines davon ist ein Schema-Feld. Alle sind Content-Muster, die menschliche Rater lesen und KI-Summarizer bevorzugen.
Expertise: Kennst du dich wirklich aus?
Expertise deckt Qualifikationen und nachweisbare Wissens-Tiefe ab. Für YMYL-Themen (Your Money or Your Life — Gesundheit, Finanzen, Recht, Sicherheit) zählen formale Qualifikationen am meisten: Approbation für Gesundheits-Content, CFP-Auszeichnung für Finanzberatung, Anwaltszulassung für rechtliche Erklärungen. Für Non-YMYL-Themen wird Expertise durch Behandlungstiefe, technische Präzision und konsistente Veröffentlichungen zum Thema signalisiert. Die Signale: ein Author-Bio, der relevante Qualifikationen nennt, ein Werk, das thematischen Fokus zeigt, und eine Sprache, die tatsächliches Fachverständnis demonstriert — nicht oberflächliche Paraphrasierung.
Authoritativeness: Bist du die richtige Adresse?
Authoritativeness ist externe Anerkennung, nicht Selbstanspruch. Es geht darum, ob andere autoritative Sites und Menschen dich zitieren, verlinken oder zitierend erwähnen. Die Signale, die sie bewegen: Backlinks aus anerkannten Publikationen deines Themengebiets, Erwähnungen in Branchen-Studien, Mentions in Fachmedien, Aufnahme in themenspezifische Listen oder Roundups. Selbstbezeichnete Autorität ("wir sind die führende X") ist das Gegenteil eines Autoritäts-Signals. Das nächste Schema-Signal ist die Person-Eigenschaft knowsAbout, kombiniert mit verifizierbaren sameAs-Links zu externen Profilen, wo Autorität unabhängig beobachtbar ist.
Trustworthiness: Ist die Site selbst vertrauenswürdig?
Trust ist das einzige E, das auf Site-Ebene wirkt, nicht auf Seitenebene. Googles Dokumentation nennt Trust explizit als höchste Priorität der vier, und die 2022er-Ankündigung zur Experience-Ergänzung stellte klar, dass Trust im Zentrum des Rahmens steht. Ohne Trust retten keine Verbesserungen auf Seitenebene die Site. Die Signale: HTTPS auf allen Seiten, vollständige Impressum- und Datenschutz-Angaben, ehrliche Author-Bylines, geprüfte Quellen, funktionierende Kontakt-Optionen und das Fehlen täuschender Werbe-Muster. Für YMYL-Sites verlangt Trust außerdem klare Offenlegung von Affiliationen, Monetarisierung und möglichen Interessenkonflikten.
Warum E-E-A-T in der KI-Suche wichtiger wird
KI-Suchmaschinen gewichten E-E-A-T stärker als die klassische Google-Suche, weil sie es tatsächlich überprüfen können. Googles Ranking-Algorithmus liest E-E-A-T indirekt durch Quality-Rater-Feedback-Loops. KI-Engines parsen das Schema direkt, folgen den sameAs-Links beim Abruf und prüfen Autoren-Claims gegen Wikipedia, Wikidata, ORCID und LinkedIn, bevor sie entscheiden, ob sie eine Seite zitieren. Wenn eine Kandidaten-Seite eine prüfbare Autoren-Entität hat, zitiert die KI sie deutlich selbstsicherer. Wenn die Byline reiner Text ist, wählt die Engine meist einen Konkurrenten, dessen Autor sie verifizieren kann.
Das gilt für jede große KI-Suchmaschine, die gegen Live-Web-Content abruft: Google AI Overviews, ChatGPT Search, Perplexity, Claude mit Web-Zugriff und Gemini im AI Mode. Alle führen eine Suchanfrage durch, laden eine kleine Anzahl Kandidaten-Seiten, parsen die strukturierten Daten und wählen die Citation anhand einer Kombination aus thematischem Match und Quellen-Trust-Signalen. Der Trust-Check ist genau die Stelle, an der E-E-A-T das Ergebnis still entscheidet. Eine Seite auf einer dünnen Domain mit anonymen Bylines kann auf Position 3 für die Suchanfrage ranken und trotzdem jeden KI-Citation-Slot an eine Verified-Author-Seite auf Position 8 verlieren.
Die User Agents GPTBot, ClaudeBot und PerplexityBot crawlen aktiv nach Entity-Kontext beim Abruf. Sie laden nicht nur die Kandidaten-Seite, sondern folgen den sameAs-Profilen der kanonischen Autoren-Entität, um die behauptete Expertise zu bestätigen. Eine Seite aus 2024, die einen inline Person-Block ohne sameAs-Array shipped, lässt zwar die Seite parsen, aber den Autor unverifiziert. Die Seite kann aufgrund anderer Signale dennoch zitiert werden. Aber die Autoren-Trust-Dimension fehlt, und die Citation-Häufigkeit über die Zeit kippt zu Seiten, die Entity-Verifikation von Anfang an richtig verdrahten.
Was 10 Top-Rankings für E-E-A-T tatsächlich shippen
Ich habe die Top 5 EN + Top 5 nativen DE-Treffer für "e-e-a-t seo" / "e-e-a-t" mit Luminas Schema Validator, Meta Tag Analyzer und GEO Readiness Checker auditiert. Die Lücken erzählen die echte Geschichte.
article:modified_time — unsichtbar für KI-Frische-Scoring. Die Seite rankt nur über Link-Signale.author via @id, ohne die Entität zu definieren — eine kaputte Graph-Referenz, die KI-Engines nicht auflösen können.Wie Google E-E-A-T tatsächlich verwertet
Google hat mehrfach klargestellt — zuletzt durch John Mueller und Hyung-Jin Kim — dass E-E-A-T kein direktes Ranking-Signal ist. Es gibt keinen E-E-A-T-Score, den der Algorithmus Feld für Feld liest. Was es gibt: einen Quality-Rater-Feedback-Loop, der die Trainingsdaten prägt, mit denen Google Ranking-Änderungen evaluiert. Plus mehrere algorithmische Systeme, die das E-E-A-T-Verhalten annähern, ohne es beim Namen zu nennen.
Die Quality Rater Guidelines sind öffentlich. Rund 16.000 vertraglich gebundene menschliche Rater bewerten Suchergebnisse auf einer "Needs Met"-Skala und einer "Page Quality"-Skala — wobei E-E-A-T die primäre Linse für den Page-Quality-Score ist. Ihre Scores beeinflussen die Live-Ergebnisse, die sie bewerten, nie. Was sie tun: Sie liefern die gelabelten Trainingsdaten für die algorithmischen Systeme, die entscheiden, welche Seiten für welche Suchanfragen ranken sollen. Wenn eine Ranking-Änderung live geht, misst Google, ob sie die Seiten nach oben gedrückt hat, die Rater hoch bewerten, und die nach unten, die Rater niedrig bewerten. Änderungen mit positiver Rater-Score-Korrelation bleiben. Änderungen mit negativer werden zurückgerollt.
Die algorithmischen Proxies sind real, aber indirekt. Das Helpful Content System gewichtet Erfahrung aus erster Hand und Content-Qualität. Das Spam System filtert offensichtliche Manipulation. Die Hidden-Reviews-Systeme bestrafen Fake-Review-Muster. Keines liest "E-E-A-T" beim Namen, aber die Ziele, die die Rater bewerten, korrelieren stark mit dem, worauf diese Systeme trainiert sind. Die praktische Folge: Auf E-E-A-T zu optimieren heißt, auf das Rater-Raster zu optimieren, und das Rater-Raster ist das, was die algorithmischen Systeme annähern. Es gibt keinen direkten Regler, aber einen messbaren Lenk-Effekt.
E-E-A-T als Entity-Graph-Problem
Die Verschiebung von 2024 bis 2026 in der E-E-A-T-Bewertung ist die Migration vom Seitenraster zum Entity-Graph-Verifikations-Problem. Quality Rater bewerten einzelne Seiten. Suchmaschinen und KI-Suchmaschinen durchqueren jetzt Entitäten. Der Autor einer Seite ist nicht mehr nur ein Name in der Byline — er ist ein Knoten in einem Wissensgraphen, der via @id-Referenzen und sameAs-Links zu externen Profilen verbunden ist, wo dieselbe Identität unabhängig beobachtbar ist.
Das Muster, das gewinnt: Deklariere eine kanonische Person-Entität pro Autor deiner Site, gib ihr eine stabile @id, und referenziere diese @id aus jedem Artikel, den der Autor schreibt. Verbinde dann die Identität der Person mit Wikipedia, Wikidata, ORCID, LinkedIn, Twitter/X, GitHub oder jedem anderen Profil, auf dem die Expertise des Autors sichtbar ist. Schema-seitig bedeutet das einen Person-Block mit name, jobTitle, knowsAbout, url und einem sameAs-Array. Referenz-seitig nutzt jeder Artikel author: {"@id": "https://meine-site.de/#person-julien"} — statt den Person-Block inline zu wiederholen.
Von den 10 Seiten, die ich auditiert habe, verdrahten nur 4 die Author-Person mit überhaupt einem sameAs-Array. Search Engine Journal und SearchAtlas shippen das stärkste Setup: je 5 Einträge mit LinkedIn, X/Twitter, YouTube plus zwei weiteren (Bluesky, Google Knowledge Graph, Instagram, persönliche Website — je nachdem, was im Autoren-Profil verfügbar ist). Die meisten anderen deklarieren eine Person inline mit Name und URL — die KI-Suchmaschinen haben nichts zum Cross-Reference. Der Artikel rankt, aber der Autor nicht. Bei YMYL-Themen, wo die Autoren-Identität das Trust-Signal ist, zählt diese Lücke mehr als der eigentliche Seiten-Inhalt.
Author-Entity-Verifikation: Das Schema-Muster 2026
Das kanonische 2026er-Muster sieht so aus. Eine Person-Entität, einmal deklariert auf deiner Site (typischerweise auf der Startseite oder einer Autoren-Profilseite), referenziert von jedem Artikel via @id. Die Person-Entität selbst trägt sameAs-Links zu verifizierbaren externen Profilen. KI-Suchmaschinen laden den Artikel, parsen die @id-Referenz des Autors, laden die verlinkte Person-Entität und durchlaufen sameAs, um die Identität zu bestätigen. Drei Schichten, alle parsbar, alle prüfbar.
// Auf der Startseite die kanonische Person deklarieren:
{
"@context": "https://schema.org",
"@type": "Person",
"@id": "https://lumina-seo.com/#founder",
"name": "Julien El-Bahy",
"url": "https://lumina-seo.com/de/ueber-uns",
"jobTitle": "Web Development Lead",
"knowsAbout": ["SEO", "GEO", "Schema Markup", "KI-Suche"],
"sameAs": [
"https://www.linkedin.com/in/julien-el-bahy-b4b71a201/",
"https://github.com/julien-elbahy",
"https://twitter.com/julien_elbahy"
]
}
// Auf jedem Artikel die Entität via @id referenzieren (keine Inline-Wiederholung):
{
"@context": "https://schema.org",
"@type": "BlogPosting",
"headline": "E-E-A-T Leitfaden",
"author": {"@id": "https://lumina-seo.com/#founder"},
"publisher": {"@id": "https://lumina-seo.com/#organization"},
"datePublished": "2026-05-11T10:00:00+02:00",
"dateModified": "2026-05-11T10:00:00+02:00"
}
Das Muster gewinnt auf drei Ebenen gleichzeitig. Schema-seitig ist es die kanonische Schema.org-Spec für Entity-Linking — die JSON-LD-1.1-Spezifikation unterstützt @id-Referenzen über Dokumente hinweg explizit. SEO-seitig lösen sowohl Googles Schema Validator als auch der Rich Results Test die Referenz korrekt auf. KI-seitig folgen alle großen Retrieval-Bots sameAs zur Identitätsbestätigung — eine Person mit mehreren verifizierbaren Profilen wird für die Themen in ihrem knowsAbout-Array als vertrauenswürdige Quelle gewichtet.
Drei häufige Fehler aus den Audit-Daten. Erstens: inline Person-Blöcke, auf jedem Artikel dupliziert — die Entität existiert, ist aber nicht entity-verlinkt, sodass jeder Artikel für den Crawler wie ein separater Autor aussieht. Zweitens: fehlendes sameAs — der Person-Block hat Name und jobTitle, aber nichts zum Querverweis. Die Entität existiert in deinem Schema, aber verbindet sich nicht mit dem weiteren Graphen. Drittens: inkonsistente Autoren-Namen — die Byline sagt "Julien El-Bahy", das Schema sagt "J. El-Bahy", und das LinkedIn-Profil sagt "Julien Elbahy". KI-Suchmaschinen behandeln das als drei verschiedene Personen. Wähle eine kanonische Form und nutze sie überall.
Die 5 stärksten E-E-A-T-Signale 2026
Fünf Signale bewegen E-E-A-T-Scores branchen- und content-übergreifend zuverlässig. Sie sind keine Checkliste — sie verstärken sich gegenseitig, wenn alle vorhanden sind, und verlieren an Wirkung, wenn sie isoliert auftreten. Die Reihenfolge zählt: Signal 1 ist das Fundament, Signal 5 ist der Multiplikator.
1. Eine verifizierte Author-Entität mit sameAs-Links
Deklariere eine kanonische Person-Entität pro Autor auf deiner Site, mit @id, jobTitle, knowsAbout und einem sameAs-Array von mindestens drei verifizierbaren externen Profilen (LinkedIn, Wikipedia, ORCID, Twitter, GitHub — je nach Branche). Referenziere sie von jedem Artikel via @id. Diese eine Änderung bewegt sowohl klassisches SEO (Googles Quality-Rater-Proxies) als auch KI-Citation-Raten (jede große Engine prüft die Autoren-Identität nach). Es ist der größte E-E-A-T-Hebel, den du dieses Quartal ziehen kannst.
2. Beweise aus erster Hand im Content
Eigene Screenshots, eigene Daten, eigene Produktfotos, benannte Lessons Learned, Daten und Zeitstempel, die zeigen, dass der Autor wirklich dabei war. Keines davon ist ein Schema-Feld — es ist ein Content-Muster, das menschliche Rater lesen und KI-Summarizer bevorzugen. Der Lumina-Blog shipped Live-Audit-Blöcke auf Konkurrenz-URLs, weil jeder eine SEO-Checkliste synthetisieren kann, aber nur wir können die genauen Zahlen veröffentlichen, die wir diese Woche an 10 rankenden Seiten gemessen haben. Das ist das Experience-Signal in der Praxis.
3. Site-Level-Trust-Signale
HTTPS überall, vollständige Impressum- und Datenschutz-Angaben, funktionierende Kontakt-Optionen, ehrliche Author-Bylines auf jedem veröffentlichten Artikel und das Fehlen täuschender Werbe-Muster. Trust ist das einzige E, das auf Site-Ebene wirkt — versagt es, helfen die per-Page-Verbesserungen der anderen drei nichts. Audit-seitig: Prüfe, dass jede Seite deiner indexierbaren Site HTTPS hat, dass Impressum und Datenschutz von jeder Seite aus erreichbar sind (Footer-Link reicht) und dass deine Kontakt-Email tatsächlich Mails empfängt.
4. Thematische Konsistenz über die Zeit
Autoren, die konsistent zu demselben Thema publizieren, akkumulieren Autorität schneller als Freelancer, die breit streuen. Das Signal ist nicht die Tiefe eines einzelnen Artikels — es ist das Muster eines Werks, das auf ein oder zwei Domänen fokussiert ist. Für Lumina heißt das: Ich publiziere fast ausschließlich zu SEO- und GEO-Themen. Die knowsAbout-Eigenschaft der Person deklariert die Fokusbereiche, und das Artikel-Archiv auf der Autoren-Profilseite bestätigt sie. KI-Suchmaschinen gewichten thematische Konsistenz bei der Citation-Auswahl. Position 5 mit starker thematischer Autorität schlägt regelmäßig Position 2 mit zerstreuter Autorenschaft.
5. Outbound-Citations zu autoritativen Quellen
Links zu primären Quellen sind ein Trust-Signal — sowohl für Quality Rater als auch für KI-Verifikations-Systeme. Wenn du Googles eigene Doku, Schema.org-Spezifikationen, wissenschaftliche Studien oder Behördendaten zitierst, lesen Rater das als Vertrauen in die zugrundeliegenden Behauptungen, und KI-Engines folgen den Links beim Abruf, um den Kontext zu bestätigen. Das Gegenmuster — Artikel, die Behauptungen ohne Quellen aufstellen, besonders Statistik-Claims mit erfundenen Prozenten — ist genau das, worauf das März-2024-Helpful-Content-System-Update getunt wurde. Zitiere, wenn du kannst. Markiere Hypothesen als Hypothesen, wenn du nicht kannst.
5-Schritte-Workflow für deinen E-E-A-T-Aufbau
Fünf Schritte in zwei Wochen bewegen jedes E-E-A-T-Signal, das zählt. Die Reihenfolge ist bewusst gewählt: Schritt 1 (Author-Entität) schaltet Schritte 2 bis 5 frei, weil jede spätere Verbesserung an der in Schritt 1 deklarierten kanonischen Entität ansetzt. Überspring Schritt 1, und die anderen verstärken sich schwächer.
Wähle eine kanonische Person-Entität pro Autor. Stabile @id (z.B. /#founder), voller Name, jobTitle, knowsAbout-Array, sameAs-Links zu LinkedIn + mindestens zwei weiteren verifizierbaren Profilen. Einmal auf der Startseite oder Autoren-Profilseite deklarieren.
Ersetze inline Author-Person-Blöcke durch author: {"@id": "https://meine-site.de/#person-NAME"} auf jedem Artikel. Gleiches Muster für publisher. Die Referenz löst die Entität auf — du musst den Person-Block nicht duplizieren.
HTTPS auf allen Seiten. Impressum und Datenschutz von jeder Seite erreichbar. Funktionierende Kontakt-Email sichtbar im Footer. Author-Bylines auf jedem Artikel, die zur Autoren-Profilseite verlinken. Das ist Fundament, keine Optimierung.
Site-Header auditieren →Für deine 10 traffic-stärksten Seiten je mindestens ein Original-Element ergänzen: ein eigener Screenshot, ein frischer Datenpunkt, ein gemessenes Ergebnis, eine datierte Lesson Learned. Das Experience-Signal kumuliert — jedes Original-Element auf einer Top-Seite verbessert die ganze Site.
Bild-SEO auditieren →Lass Luminas GEO Readiness Checker auf jeden veröffentlichten Artikel laufen. Er prüft 42 E-E-A-T-nahe Signale auf Author-Entität, Schema-Vollständigkeit, sameAs-Auflösung und KI-Crawler-Zugang. Quartalsweise neu laufen lassen, um Drift zu fangen.
GEO Readiness laufen lassen →FAQ
Wo du startest
Wenn du diese Woche genau eine Sache machst, mach Schritt 1 aus dem Workflow: Deklariere deine kanonische Author-Person-Entität mit vollem sameAs-Array. Wähl LinkedIn plus zwei weitere Profile, wo deine Expertise nachweisbar ist — Wikipedia, falls du gelistet bist, ORCID, falls du akademisch publizierst, Twitter/X oder GitHub, falls du dort regelmäßig veröffentlichst. Ergänze knowsAbout mit den zwei bis drei Themen, zu denen du am meisten schreibst. Validiere das Schema mit Luminas Schema Validator und bestätige, dass die @id auflöst.
Wenn du mehr Zeit hast, ship Schritt 2 in derselben Woche: Ersetze inline Author-Blöcke auf deinen 10 traffic-stärksten Artikeln durch @id-Referenzen auf die kanonische Entität. Die Änderung ist für Leser unsichtbar und fügt dem sichtbaren Content nichts hinzu, aber sie sagt jeder KI-Suchmaschine, dass die Autoren dieser 10 Seiten dieselbe prüfbare Entität sind. Seiten, deren Autoren korrekt entity-verlinkt sind, sehen KI-Citation-Raten, die über sechs bis acht Wochen kumulieren: erst klein, dann spürbar größer als die Ranking-Position vermuten lässt.
Auditiere dein E-E-A-T-Setup jetzt
Luminas Schema Validator löst @id-Referenzen zwischen Seiten auf, deckt fehlende sameAs auf und markiert inline Author-Blöcke, die entity-verlinkt sein sollten. Kostenlos, ohne Login.
Schema Validator laufen lassen →