Beinahe hätte ich den Project-Mariner-Rollout übersehen. Am 20. März 2026 hat Google still und leise einen neuen Eintrag in die Crawler-Docs geschoben: Google-Agent. Kein Blogpost, keine Keynote. Nur ein Doku-Update, das einen massiven Wandel im Web einläutet.
Google-Agent ist kein Crawler. Es ist eine KI, die Websites besucht und Dinge tut: Buttons klickt, Formulare ausfüllt, Preise vergleicht. Im Auftrag echter Nutzer. Das ist eine grundlegend neue Art von Web-Traffic, und die meisten Seiten sind nicht darauf vorbereitet.
Was ist Google-Agent?
Google-Agent ist der User-Agent-String für KI-Agenten auf Googles Infrastruktur. Diese Agenten besuchen Websites, klicken auf Buttons, füllen Formulare aus und erledigen Aufgaben, gesteuert von einem echten Nutzer über Project Mariner, Googles KI-Prototyp in Chrome.
Stell dir vor: Jemand sagt seiner KI „Such mir den günstigsten Flug nach Lissabon nächsten Donnerstag." Die KI muss Airline-Seiten besuchen, Preise vergleichen, vielleicht sogar eine Buchung starten. Google-Agent ist die Identität, die sie dabei nutzt. Es indexiert deine Inhalte nicht. Es benutzt deine Seite so wie ein Mensch, nur schneller.
Wichtige technische Details
- User-Agent-String:
Google-Agent - IP-Bereiche: Veröffentlicht in Googles
user-triggered-agents.json - Rollout: Gestartet am 20. März 2026, vollständige Bereitstellung über Wochen
- Art: Nutzergesteuert (kein automatisiertes Crawling)
Unterschiede zu Googlebot und Google-Extended
Google hat jetzt drei Crawler, und die haben sehr verschiedene Aufgaben:
- Googlebot — Der klassische Indexierungs-Crawler. Blockierst du ihn, verschwindest du aus den Suchergebnissen. Einfach.
- Google-Extended — Füttert Gemini und Vertex AI mit Trainingsdaten. Blockierung hält deine Inhalte aus Googles KI-Modellen raus, beeinflusst aber nicht dein Ranking.
- Google-Agent — Handelt im Auftrag einer konkreten Person. Besucht deine Seite um etwas zu tun — Preise vergleichen, Artikel lesen, einen Kauf starten. Nutzergesteuert, nicht automatisiert.
Und genau das ist der Punkt: Google-Agent steht für jemanden, der gerade jetzt mit deinem Unternehmen interagieren will. Ihn zu blockieren ist, als würdest du dem persönlichen Einkaufsberater eines Kunden den Zutritt zu deinem Laden verweigern.
Was das für deine Website bedeutet
Die Antwort hängt davon ab, was deine Seite macht, aber für die meisten Unternehmen sind die Auswirkungen groß.
E-Commerce und Dienstleistungsunternehmen
Hier wird es spannend. Wenn jemandes KI-Agent auf fünf Seiten Preise vergleicht und deine blockiert, hast du den Verkauf gerade an die Konkurrenz verloren. Ich rechne damit, dass KI-gestützte Käufe innerhalb von 12 Monaten einen spürbaren Anteil am E-Commerce ausmachen.
Content-Publisher
KI-Agenten, die deine Artikel für einen konkreten Nutzer lesen, sind grundverschieden von KI-Training. Es ist eher wie ein Screenreader oder eine Browser-Erweiterung, die Seiten zusammenfasst. Blockierst du das, kann eine echte Person deine Inhalte nicht über ihr bevorzugtes Tool erreichen.
Datenschutzsensible Websites
Banken, Gesundheitsportale, Behörden: hier lohnt es sich genau hinzuschauen, was KI-Agenten dürfen und was nicht. Gute Nachricht: Google-Agent respektiert robots.txt, du hast also granulare Kontrolle darüber, welche Pfade offen sind.
So bereitest du deine Website vor
Drei Dinge, die du diese Woche erledigen solltest. Keins davon dauert länger als 10 Minuten.
1. Prüfe deine robots.txt
Ich hab das auf dutzenden Seiten gesehen: Eine breite Wildcard-Regel, die alle Bots außer Googlebot blockiert. Google-Agent fällt da mit rein. Schau jetzt nach, vielleicht blockierst du ihn, ohne es zu wissen.
# Google-Agent erlauben (empfohlen für die meisten Websites) User-agent: Google-Agent Allow: / # Bei Bedarf blockieren (für sensible Bereiche) User-agent: Google-Agent Disallow: /admin/ Disallow: /api/
Nutze den Lumina Crawler Access Checker, um deine aktuelle Konfiguration zu prüfen.
2. Überwache deine Server-Logs
Fang an, nach dem Google-Agent User-Agent-String zu suchen. Der Traffic wird gerade noch gering sein. Project Mariner rollt noch aus. Aber wenn es skaliert, willst du Baseline-Daten zum Vergleichen haben.
3. Überprüfe deine WAF/CDN-Regeln
Cloudflare, AWS WAF, Sucuri: wenn du Bot-Schutz nutzt, prüf ob Google-Agent nicht geblockt wird. Google veröffentlicht seine IP-Bereiche in user-triggered-agents.json, sodass du sie explizit allowlisten kannst.
Was ist Google Project Mariner?
Bevor Google-Agent in deinen Server-Logs auftaucht, muss ein Nutzer Project Mariner aktiviert haben. Mariner ist Googles KI-Agent-Prototyp, direkt in Chrome eingebaut: Du sagst in natürlicher Sprache, was du willst, und der Agent navigiert selbstständig durchs Web, um die Aufgabe zu erledigen. Google hat Mariner erstmals im Dezember 2024 öffentlich gezeigt und den Zugang seitdem in Phasen ausgerollt.
Wie bekommst du Zugang zu Project Mariner?
Der Zugang ist begrenzt. Google hat Project Mariner im Dezember 2024 angekündigt und seitdem schrittweise über eine Warteliste geöffnet. Der Weg rein läuft über ein Google-KI-Abo mit Labs-Zugang. Auch dann ist die Verfügbarkeit je nach Region unterschiedlich, und eine öffentliche API gibt es bisher nicht.
Sicherheit und Datenschutz bei Project Mariner
Niemand hat die Sicherheitsfrage bisher vollständig beantwortet. Ein Google-gebrandeter Agent, der Buttons klickt und Formulare abschickt, hat enorme Macht über jede Session, in der er authentifiziert ist. Google sagt, der Agent läuft in der Chrome-Instanz des Nutzers und verwendet dessen Cookies, was die Credentials auf dem Gerät hält. Die offensichtliche Angriffsfläche ist Prompt Injection: Eine manipulierte Seite könnte versuchen, die Anweisungen des Agenten zu kapern. Google spricht von Nutzer-Bestätigungen bei kritischen Aktionen, aber das volle Threat-Modell wird noch nach und nach veröffentlicht.
Das große Bild: Das agentische Web
Google-Agent kommt nicht allein. OpenAI hat bereits ChatGPT-User und OAI-SearchBot. Anthropic liefert Claude-User. Jedes große KI-Lab baut Agenten, die im Auftrag von Menschen das Web durchsuchen. Das Muster ist unübersehbar.
Was hier passiert: es ist eine neue Schicht von Web-Traffic, keine Bots, keine Menschen, sondern KI im Auftrag von Menschen. Seiten, die gut mit diesen Agenten zusammenarbeiten, gewinnen doppelt: bessere Sichtbarkeit in KI-gestützten Suchergebnissen und mehr Conversions durch KI-unterstützte Aufgaben.
Das ist der Kern dessen, was ich Generative Engine Optimization (GEO) nenne: deine Seite nicht nur für Suchmaschinen fit machen, sondern auch für KI-Systeme, die sie aktiv nutzen. Wer das jetzt versteht, hat einen echten Vorsprung für die nächsten Jahre.
Prüfe deinen AI-Crawler-Zugang
Lumina prüft Google-Agent und 23 weitere KI-Crawler. Sieh mit einem Klick, welche Bots auf deine Website zugreifen können.
Lumina holen — Kostenlos