Am 20. März 2026 hat Google seiner Crawler-Dokumentation einen neuen Eintrag hinzugefügt: Google-Agent. Im Gegensatz zu herkömmlichen Crawlern, die Inhalte im Hintergrund indexieren, steht Google-Agent für etwas grundlegend Neues — KI-Agenten, die das Web navigieren und im Auftrag von Nutzern Aktionen ausführen.

Das ist kein weiterer Indexierungs-Bot. Das ist der Beginn des agentischen Webs.

Was ist Google-Agent?

Google-Agent ist ein User-Agent-String für KI-Agenten, die auf der Google-Infrastruktur gehostet werden. Diese Agenten durchsuchen Websites, klicken auf Buttons, füllen Formulare aus und erledigen Aufgaben — alles gesteuert von einem menschlichen Nutzer. Das erste Produkt, das diese Technologie nutzt, ist Project Mariner, Googles KI-Forschungsprototyp, der innerhalb von Chrome arbeitet.

Stellen Sie es sich so vor: Wenn jemand einen KI-Assistenten bittet, einen Flug zu buchen, Preise zu vergleichen oder ein Formular auszufüllen, muss die KI Websites besuchen und mit ihnen interagieren. Google-Agent ist die Identität, die sie dabei verwendet.

Wichtige technische Details

  • User-Agent-String: Google-Agent
  • IP-Bereiche: Veröffentlicht in Googles user-triggered-agents.json
  • Rollout: Gestartet am 20. März 2026, vollständige Bereitstellung über Wochen
  • Art: Nutzergesteuert (kein automatisiertes Crawling)

Unterschiede zu Googlebot und Google-Extended

Das Google-Crawler-Ökosystem umfasst jetzt drei verschiedene Agenten mit sehr unterschiedlichen Aufgaben:

Der entscheidende Unterschied: Google-Agent repräsentiert die tatsächliche Absicht eines Nutzers. Ihn zu blockieren könnte bedeuten, potenzielle Kunden zu blockieren, deren KI-Assistent versucht, mit Ihrem Unternehmen zu interagieren.

Was das für Ihre Website bedeutet

Die Auswirkungen hängen von Ihrem Geschäftsmodell ab:

E-Commerce und Dienstleistungsunternehmen

Wenn Nutzer KI-Agenten schicken, um Ihre Preise zu vergleichen, die Verfügbarkeit zu prüfen oder eine Buchung zu starten — sollten Sie erreichbar sein. Google-Agent zu blockieren könnte bedeuten, Conversions an Wettbewerber zu verlieren, deren Websites mit KI-Agenten funktionieren.

Content-Publisher

KI-Agenten könnten Ihre Artikel im Auftrag von Nutzern lesen, die Recherchen durchführen. Das unterscheidet sich vom KI-Training — der Agent bedient einen bestimmten Nutzer, ähnlich wie eine Browser-Erweiterung, die Inhalte vorliest.

Datenschutzsensible Websites

Wenn Ihre Website sensible Daten verarbeitet (Banking, Gesundheitswesen), sollten Sie prüfen, ob KI-Agent-Interaktionen mit Ihren Sicherheitsanforderungen vereinbar sind. Google-Agent kann über robots.txt gesteuert werden.

So bereiten Sie Ihre Website vor

Hier sind drei konkrete Schritte, die Sie jetzt unternehmen sollten:

1. Prüfen Sie Ihre robots.txt

Stellen Sie sicher, dass Sie Google-Agent nicht versehentlich durch eine zu weit gefasste Wildcard-Regel blockieren. Wenn Ihre robots.txt alle Bots außer Googlebot blockiert, könnte Google-Agent davon betroffen sein.

# Google-Agent erlauben (empfohlen für die meisten Websites)
User-agent: Google-Agent
Allow: /

# Bei Bedarf blockieren (für sensible Bereiche)
User-agent: Google-Agent
Disallow: /admin/
Disallow: /api/

Nutzen Sie den Lumina Robots.txt Analyzer, um Ihre aktuelle Konfiguration zu prüfen.

2. Überwachen Sie Ihre Server-Logs

Suchen Sie in Ihren Zugriffslogs nach dem Google-Agent User-Agent-String. Das Volumen wird anfangs gering sein, aber mit der breiteren Einführung von Project Mariner zunehmen.

3. Überprüfen Sie Ihre WAF/CDN-Regeln

Wenn Sie Cloudflare, AWS WAF oder ähnliche Dienste nutzen, stellen Sie sicher, dass Ihre Bot-Schutzregeln Google-Agent nicht blockieren. Google veröffentlicht seine IP-Bereiche, sodass Sie diese auf die Allowlist setzen können.

Das große Bild: Das agentische Web

Google-Agent ist keine isolierte Entwicklung. OpenAI hat ChatGPT-User und OAI-SearchBot. Anthropic hat Claude-User. Das Muster ist klar: KI-Unternehmen bauen Agenten, die das Web im Auftrag von Nutzern durchsuchen.

Das schafft eine neue Kategorie von Web-Traffic, die zwischen herkömmlichen Bots und menschlichen Besuchern liegt. Websites, die für diese Interaktionen optimiert sind, werden einen Vorteil haben — sowohl in KI-gestützten Suchergebnissen als auch bei direkten Nutzeraufgaben.

Genau das adressiert Generative Engine Optimization (GEO): Ihre Web-Präsenz nicht nur für Suchmaschinen vorzubereiten, sondern auch für KI-Systeme, die aktiv mit Ihren Inhalten interagieren.

Prüfe deinen AI-Crawler-Zugang

Lumina prüft Google-Agent und 23 weitere KI-Crawler. Sieh mit einem Klick, welche Bots auf deine Website zugreifen können.

Lumina holen — Kostenlos