Am 20. März 2026 hat Google seiner Crawler-Dokumentation einen neuen Eintrag hinzugefügt: Google-Agent. Im Gegensatz zu herkömmlichen Crawlern, die Inhalte im Hintergrund indexieren, steht Google-Agent für etwas grundlegend Neues — KI-Agenten, die das Web navigieren und im Auftrag von Nutzern Aktionen ausführen.
Das ist kein weiterer Indexierungs-Bot. Das ist der Beginn des agentischen Webs.
Was ist Google-Agent?
Google-Agent ist ein User-Agent-String für KI-Agenten, die auf der Google-Infrastruktur gehostet werden. Diese Agenten durchsuchen Websites, klicken auf Buttons, füllen Formulare aus und erledigen Aufgaben — alles gesteuert von einem menschlichen Nutzer. Das erste Produkt, das diese Technologie nutzt, ist Project Mariner, Googles KI-Forschungsprototyp, der innerhalb von Chrome arbeitet.
Stellen Sie es sich so vor: Wenn jemand einen KI-Assistenten bittet, einen Flug zu buchen, Preise zu vergleichen oder ein Formular auszufüllen, muss die KI Websites besuchen und mit ihnen interagieren. Google-Agent ist die Identität, die sie dabei verwendet.
Wichtige technische Details
- User-Agent-String:
Google-Agent - IP-Bereiche: Veröffentlicht in Googles
user-triggered-agents.json - Rollout: Gestartet am 20. März 2026, vollständige Bereitstellung über Wochen
- Art: Nutzergesteuert (kein automatisiertes Crawling)
Unterschiede zu Googlebot und Google-Extended
Das Google-Crawler-Ökosystem umfasst jetzt drei verschiedene Agenten mit sehr unterschiedlichen Aufgaben:
- Googlebot — Crawlt und indexiert Seiten für die Google-Suche. Wird er blockiert, erscheinen Ihre Seiten nicht in den Suchergebnissen.
- Google-Extended — Crawlt Inhalte für das KI-Training (Gemini, Vertex AI). Die Blockierung verhindert, dass Ihre Inhalte zum Training von Googles KI-Modellen verwendet werden, beeinflusst aber nicht Ihre Rankings.
- Google-Agent — Handelt im Auftrag einzelner Nutzer. Besucht Ihre Website, um bestimmte Aufgaben wie Produktvergleiche, Inhalte lesen oder Formulare ausfüllen zu erledigen. Er ist nutzergesteuert, nicht automatisiert.
Der entscheidende Unterschied: Google-Agent repräsentiert die tatsächliche Absicht eines Nutzers. Ihn zu blockieren könnte bedeuten, potenzielle Kunden zu blockieren, deren KI-Assistent versucht, mit Ihrem Unternehmen zu interagieren.
Was das für Ihre Website bedeutet
Die Auswirkungen hängen von Ihrem Geschäftsmodell ab:
E-Commerce und Dienstleistungsunternehmen
Wenn Nutzer KI-Agenten schicken, um Ihre Preise zu vergleichen, die Verfügbarkeit zu prüfen oder eine Buchung zu starten — sollten Sie erreichbar sein. Google-Agent zu blockieren könnte bedeuten, Conversions an Wettbewerber zu verlieren, deren Websites mit KI-Agenten funktionieren.
Content-Publisher
KI-Agenten könnten Ihre Artikel im Auftrag von Nutzern lesen, die Recherchen durchführen. Das unterscheidet sich vom KI-Training — der Agent bedient einen bestimmten Nutzer, ähnlich wie eine Browser-Erweiterung, die Inhalte vorliest.
Datenschutzsensible Websites
Wenn Ihre Website sensible Daten verarbeitet (Banking, Gesundheitswesen), sollten Sie prüfen, ob KI-Agent-Interaktionen mit Ihren Sicherheitsanforderungen vereinbar sind. Google-Agent kann über robots.txt gesteuert werden.
So bereiten Sie Ihre Website vor
Hier sind drei konkrete Schritte, die Sie jetzt unternehmen sollten:
1. Prüfen Sie Ihre robots.txt
Stellen Sie sicher, dass Sie Google-Agent nicht versehentlich durch eine zu weit gefasste Wildcard-Regel blockieren. Wenn Ihre robots.txt alle Bots außer Googlebot blockiert, könnte Google-Agent davon betroffen sein.
# Google-Agent erlauben (empfohlen für die meisten Websites) User-agent: Google-Agent Allow: / # Bei Bedarf blockieren (für sensible Bereiche) User-agent: Google-Agent Disallow: /admin/ Disallow: /api/
Nutzen Sie den Lumina Robots.txt Analyzer, um Ihre aktuelle Konfiguration zu prüfen.
2. Überwachen Sie Ihre Server-Logs
Suchen Sie in Ihren Zugriffslogs nach dem Google-Agent User-Agent-String. Das Volumen wird anfangs gering sein, aber mit der breiteren Einführung von Project Mariner zunehmen.
3. Überprüfen Sie Ihre WAF/CDN-Regeln
Wenn Sie Cloudflare, AWS WAF oder ähnliche Dienste nutzen, stellen Sie sicher, dass Ihre Bot-Schutzregeln Google-Agent nicht blockieren. Google veröffentlicht seine IP-Bereiche, sodass Sie diese auf die Allowlist setzen können.
Das große Bild: Das agentische Web
Google-Agent ist keine isolierte Entwicklung. OpenAI hat ChatGPT-User und OAI-SearchBot. Anthropic hat Claude-User. Das Muster ist klar: KI-Unternehmen bauen Agenten, die das Web im Auftrag von Nutzern durchsuchen.
Das schafft eine neue Kategorie von Web-Traffic, die zwischen herkömmlichen Bots und menschlichen Besuchern liegt. Websites, die für diese Interaktionen optimiert sind, werden einen Vorteil haben — sowohl in KI-gestützten Suchergebnissen als auch bei direkten Nutzeraufgaben.
Genau das adressiert Generative Engine Optimization (GEO): Ihre Web-Präsenz nicht nur für Suchmaschinen vorzubereiten, sondern auch für KI-Systeme, die aktiv mit Ihren Inhalten interagieren.
Prüfe deinen AI-Crawler-Zugang
Lumina prüft Google-Agent und 23 weitere KI-Crawler. Sieh mit einem Klick, welche Bots auf deine Website zugreifen können.
Lumina holen — Kostenlos