Im März 2026 hat Google seine Crawler-Dokumentation mit einer Zahl aktualisiert, die für viel Aufmerksamkeit gesorgt hat: 2 MB. Das ist die maximale Menge an HTML, die Googlebot pro URL verarbeitet. Das vorherige dokumentierte Limit lag bei 15 MB. Natürlich reagierte die SEO-Welt mit einer Mischung aus Alarm und heißen Takes.
Die Sache ist: Das ist vermutlich weniger dramatisch, als es die LinkedIn-Posts klingen lassen. Aber es lohnt sich zu verstehen, was sich tatsächlich geändert hat und ob deine Website betroffen ist.
Was sich geändert hat
Google hat seine Dokumentation korrigiert, um abzubilden, was Googlebot wahrscheinlich schon seit Längerem tut. Die 15-MB-Angabe stand jahrelang in den Docs, aber das tatsächliche Crawling-Verhalten deutete auf einen deutlich niedrigeren Schwellenwert hin. Googles Blogpost vom März 2026 bestätigte: Googlebot ruft bis zu 2 MB unkomprimierte Daten pro HTML-URL ab.
Das ist keine plötzliche technische Änderung — es ist eine Korrektur der Dokumentation. Aber es ist relevant, weil wir zum ersten Mal eine konkrete Zahl haben, mit der wir arbeiten können.
Die tatsächlichen Limits
Google Crawl-Größen-Limits (2026)
- HTML-Seiten (Googlebot): 2 MB unkomprimiert
- PDF-Dateien: 64 MB
- Andere Ressourcen (CSS, JS, Bilder): 15 MB Standard für Crawler ohne spezifisches Limit
Die 2 MB gelten für das rohe, unkomprimierte HTML — inklusive allem, was inline eingebettet ist: CSS, JavaScript, SVGs, base64-kodierte Bilder. Extern verlinkte Ressourcen (separate CSS-Dateien, JS-Dateien, Bilder) werden einzeln abgerufen, jeweils mit eigenem Limit.
Wenn dein HTML 2 MB überschreitet, überspringt Google die Seite nicht komplett. Es wird abgeschnitten — das heißt, Google verarbeitet die ersten 2 MB und ignoriert den Rest. Inhalte, strukturierte Daten oder Links, die nach der 2-MB-Marke kommen, werden schlicht nicht indexiert.
Wer wirklich betroffen ist
Fast niemand. Laut einer Seobility-Analyse von 44,5 Millionen Seiten überschreiten nur 0,82 % die 2-MB-Grenze für HTML. Die mittlere HTML-Größe im Web liegt bei gerade mal 20 KB. Selbst am 90. Perzentil sind Seiten nur rund 392 KB groß — weniger als 20 % des Limits.
Die Websites, die am ehesten an die 2-MB-Grenze stoßen, sind:
- E-Commerce-Seiten mit riesigen Filterseiten — dynamisch generierte Produktlisten können aufblähen, wenn alle Filterkombinationen serverseitig gerendert werden
- Seiten mit base64-kodierten Bildern oder Fonts inline im HTML — ein einzelnes großes Bild als base64 kann hunderte KB hinzufügen
- Single-Page-Applications, die State als JSON ablegen — React/Next.js-Apps serialisieren manchmal große Daten-Payloads ins HTML
- Seiten mit riesigen Inline-SVGs — komplexe Illustrationen oder Icon-Systeme, die direkt eingebettet sind
Wenn deine Website eine normale Unternehmensseite, ein Blog oder ein mittelgroßer Online-Shop ist — bist du mit ziemlicher Sicherheit im grünen Bereich.
So prüfst du deine Seiten
Der schnellste Weg zur Prüfung ist ein Blick auf die HTML-Antwortgröße deiner wichtigsten Seiten. Dafür gibt es mehrere Möglichkeiten:
Browser DevTools
Öffne die Chrome DevTools (F12), geh zum Network-Tab, lade die Seite neu, klicke auf die Haupt-Dokumentanfrage und schau dir die Response-Größe an. Achte darauf, dass du die unkomprimierte Größe siehst, nicht die Transfer-Größe (die ist normalerweise gzip-komprimiert und deutlich kleiner).
Lumina Tech Stack Detector
Wir haben gerade eine HTML-Größen-Metrik zum Lumina Tech Stack Detector hinzugefügt. Gib eine beliebige URL ein und du siehst die HTML-Größe mit farbkodiertem Feedback: Grün, wenn du deutlich unter dem Limit liegst, Gelb, wenn du dich näherst, Rot, wenn du drüber bist.
Kommandozeile
curl -s https://example.com | wc -c
Das gibt dir die Byte-Anzahl der rohen HTML-Antwort.
Was tun, wenn du über dem Limit liegst
Wenn du tatsächlich Seiten hast, die 2 MB überschreiten oder sich dem Limit nähern, sind das die wirkungsvollsten Maßnahmen:
- Inline-Assets in externe Dateien auslagern. Base64-Bilder, große Inline-SVGs und eingebettetes CSS/JS sollten separate Dateien sein, die Browser und Crawler unabhängig abrufen.
- Wichtige Inhalte nach oben. Selbst wenn abgeschnitten wird — stell sicher, dass dein Hauptinhalt, strukturierte Daten und wichtige interne Links im ersten Teil des HTML stehen, nicht unter Megabytes an Navigation oder Boilerplate begraben.
- Lange Listings paginieren. Wenn eine Kategorieseite 500 Produkte im HTML auflistet, ziehe Pagination oder Lazy Loading in Betracht.
- Überflüssiges Markup entfernen. Entferne ungenutzte CSS-Klassen, redundante Data-Attribute und übermäßigen Whitespace aus dem serverseitig gerenderten Output.
Überoptimier das nicht. Wenn deine Seiten unter 500 KB liegen — und die meisten tun das — ist das 2-MB-Limit für dich irrelevant. Konzentrier deine Technical-SEO-Arbeit dort, wo sie wirklich etwas bewegt.
HTML-Größe mit einem Klick prüfen
Der Lumina Tech Stack Detector zeigt jetzt die HTML-Größe neben den erkannten Technologien. Grün heißt sicher, Gelb heißt aufpassen.
Tech Stack Detector testen