- Google hat in den Suchergebnissen AI-generierte Zusammenfassungen (AI Overviews) eingeführt, die häufig Inhalte von Websites aufgreifen und damit Traffic abziehen
- Website-Betreibern bleiben faktisch nur extreme Optionen wie das Blockieren von Snippets (max-snippet:0, nosnippet) oder teilweises Blockieren (data-nosnippet), wodurch sie praktisch in einem Dilemma ohne Ausweg stecken
- Auf Nutzerseite gibt es nur begrenzte und unvollständige Ausweichmöglichkeiten wie das Deaktivieren der Search-Labs-Einstellung, URL-Parameter oder Browser-Erweiterungen
- EU- und britische Regulierungsbehörden untersuchen derzeit den wettbewerbswidrigen Charakter von Google AI Overviews und die Schäden für Publisher und erwägen Regulierungen wie Traffic-Sharing und ein faires Opt-out
- Bis auf Weiteres ist max-snippet:0 die einzige realistische Maßnahme für Publisher, hat aber den gravierenden Nachteil sinkender Klickraten, weshalb Kritik an Googles Dark-Pattern-artigem Design laut wird
Das Problem mit Google AI Overviews
- Google hat kürzlich in den Suchergebnissen AI-Zusammenfassungen (SGE: Search Generative Experience) eingeführt, die automatisch von der AI erzeugt werden
- Diese Funktion analysiert den eigentlichen Inhalt von Websites, fasst ihn kurz zusammen und zeigt ihn direkt an, um die Nutzererfahrung zu verbessern
- Dadurch sehen sich jedoch viele Website-Betreiber mit dem Problem konfrontiert, dass Nutzer nur noch die Zusammenfassung konsumieren, ohne die Originalseite zu besuchen
- Das führt letztlich zu einem Rückgang des organischen Traffics (organic traffic) von Websites
Auswirkungen von Google AI Overviews
- AI Overviews fassen Inhalte automatisch zusammen und zeigen sie oben in der Suche an, ohne Zustimmung der Website-Betreiber
- Nutzer neigen zunehmend dazu, nur die Zusammenfassung zu lesen und die Originalseite nicht anzuklicken
- Dadurch wird die Wirkung traditioneller SEO-Strategien geschwächt und Website-Betreiber werden benachteiligt
Reaktionsmöglichkeiten für Webmaster
- 1. max-snippet:0
<meta name="robots" content="max-snippet:0">
- Blockiert alle Snippets und AI-Zusammenfassungen, sodass in den Suchergebnissen nur Titel + URL angezeigt werden
- Das kann die Klickrate (CTR) deutlich senken
- Derzeit ist dies die wirksamste Methode, aber keine perfekte Lösung
- 2. nosnippet
<meta name="robots" content="nosnippet">
- Hat den gleichen Effekt wie max-snippet:0 und entfernt Beschreibungen oder Zusammenfassungen vollständig aus den Suchergebnissen
- Dadurch kann die Ergebnisliste eintöniger und weniger attraktiv wirken
- Verhindert AI-Zusammenfassungen, kann aber zu geringerer Sichtbarkeit in der Suche führen
- 3. data-nosnippet
<span data-nosnippet>…</span>
- Eine Möglichkeit, bestimmte Inhalte selektiv auszuschließen
- Google kann jedoch weiterhin anderen Text für Zusammenfassungen verwenden, weshalb keine vollständige Kontrolle möglich ist
- Kann auf HTML-Elemente wie span, div und section angewendet werden
- 4. Alternativen auf Nutzerseite (wirken sich nur auf das persönliche Konto aus)
- Search-Labs-Opt-out: Angemeldete Nutzer können „AI Overviews and more“ deaktivieren
- Das gilt nur für das eigene Nutzerkonto und beeinflusst nicht, wie die Website anderen angezeigt wird
- URL-Modifikatoren: Zur Suchanfrage
&udm=14, -AR, -noai hinzufügen
- Browser-Erweiterungen: Tools wie Bye Bye Google AI können genutzt werden
- Sie funktionieren bei Google-Updates möglicherweise nicht mehr
- Reddit-Hack: Es wurde vorgeschlagen, durch das Hinzufügen von Schimpfwörtern AI-Zusammenfassungen zu umgehen
- Eine unpraktische Behelfslösung
- Unter iOS kann man in der Google-App die Gemini-Anzeige deaktivieren, den Web-Tab verwenden oder auf alternative Browser wie Safari oder DuckDuckGo ausweichen
- 5. Regulatorische Hoffnung: Untersuchungen in der EU und im Vereinigten Königreich
- EU
- Independent Publishers Alliance, Movement for an Open Web und Foxglove Legal haben bei der EU-Kommission eine kartellrechtliche Beschwerde eingereicht
- Sie argumentieren, dass AI Overviews zu missbräuchlicher Nutzung von Inhalten, Traffic-Abfluss und dem Fehlen eines fairen Opt-out führen
- Vereinigtes Königreich
- Die Wettbewerbs- und Marktaufsichtsbehörde (CMA) untersucht, ob AI-Zusammenfassungen den Wettbewerb behindern und Publisher schädigen
- Geprüft werden verpflichtende Quellenangaben, Traffic-Sharing und Beschränkungen für Googles Bevorzugung eigener Angebote
Der Kern des Problems
- Das Dilemma der Publisher: Wenn sie Snippets nicht blockieren, extrahiert die AI Inhalte und verursacht Traffic-Verluste; blockieren sie sie, sinkt die Sichtbarkeit in der Suche
- Mangelnde Kontrolle für Nutzer: Die Alternativen sind umständlich, unvollständig und uneinheitlich
- Kritik an Dark Patterns: Googles strukturelles Design wird als manipulatives Design betrachtet, das Publisher dazu zwingt, etwas Wichtiges aufzugeben
- Das ist ein typisches Dark Pattern, das Publisher zu nachteiligen Entscheidungen zwingt
Fazit
- Bis Regulierungsbehörden Änderungen erzwingen, bleibt max-snippet:0 derzeit die einzige Option für Publisher, geht jedoch mit erheblichen Sichtbarkeitsverlusten einher
- Website-Betreiber müssen eine unfaire Wahl zwischen dem Blockieren von AI-Zusammenfassungen und dem Verlust an Sichtbarkeit treffen
- Googles Politik ist eine erzwungene Wahl ohne Ausweg und damit ein typisches Dark Pattern
- Die künftigen Entscheidungen der Regulierungsbehörden in der EU und im Vereinigten Königreich sind die einzige Hoffnung auf Veränderung, aber keine sofortige Lösung
3 Kommentare
Dazu passt auch der Beitrag Das Ende des SEO-Zeitalters? Der Beginn der Marketing-Optimierung für AI-Agenten.
Wenn man sich die SEO-bezogenen Beiträge auf Reddit ansieht, scheint die Sichtbarkeit bei Google zwar unverändert zu sein, aber wegen Zero Click geht der Traffic deutlich zurück, und es gibt viele Posts, in denen diese Sorge geäußert wird.
> Würden Sie das als eine faire Funktion ansehen – oder als ein klassisches Beispiel für Dark-Pattern-Engineering? Teilen Sie uns Ihre Meinung in den Kommentaren mit.
Im Text steht tatsächlich, man solle einen Kommentar hinterlassen, aber auf der Website scheint es gar keine Kommentarfunktion zu geben.
Wenn ein Artikel darüber, KI zu blockieren, mit KI geschrieben wurde, ist das schon ziemlich widersprüchlich.
Hacker-News-Kommentare
Ich habe das Gefühl, dass das dasselbe „Portal-/Broker“-Phänomen ist, das sich seit Jahrzehnten in alle Bereiche ausbreitet. Zwischen Verbraucher und Produzent ist eine dritte Ebene getreten, was es für beide Seiten bequemer gemacht hat, aber inzwischen ist man auf diese Ebene angewiesen. Wenn man bei Amazon bestellt, kommuniziert man nicht mehr direkt mit dem Verkäufer, und bei Essensbestellungen bezahlt man auch nicht direkt das Restaurant. Auch wenn man im Web nach Informationen sucht, setzt man sich nicht mehr mit dem Stil einzelner Autoren, der Navigation, Werbung usw. auseinander. Aus Sicht der Content-Eigentümer führt diese Struktur zu weniger Seitenbesuchen und schadet den Werbeeinnahmen, und anders als bei Amazon oder Liefer-Apps gibt es für Werbeverluste durch Google-Zusammenfassungen keinen Ausgleich. Da der Großteil der Online-Inhalte durch Werbung finanziert wird und auch für Google Werbeeinnahmen überlebenswichtig sind, treibt das Unternehmen diese Entwicklung für die Zukunft offenbar trotzdem zwangsläufig voran. Google scheint sich nur darauf zu konzentrieren, seinen Platz in der Zukunft zu sichern
Mich stört, dass urheberrechtlich geschütztes Material auf der Website meines Softwareprodukts von Google und anderen AIs ohne Erlaubnis abgesaugt und neu verarbeitet wird. Aber wenn ich das blockiere, ist die Wahrscheinlichkeit fast null, dass mein Content in deren AI-Zusammenfassungen erwähnt wird
Ich verstehe nicht, warum solche AI-Zusammenfassungsfunktionen die künftigen Einnahmen von Google nicht kannibalisieren sollen. Google verdient Geld damit, Nutzer über Werbung auf Websites zu leiten, aber mit solchen Zusammenfassungen macht es die Websites selbst überflüssig. Wer würde dann noch eine Website ohne Besucher erstellen?
Ich habe meine persönliche Website per Apache-Konfiguration so eingestellt, dass Indexierung, Snippets, Übersetzung und Bildindexierung komplett blockiert werden. Trotzdem hat allein das Internet Archive das ignoriert und weiter gecrawlt, und selbst nach mehreren Löschanfragen wird dem nie entsprochen. Inzwischen blockiere ich mit Anubis zusätzliches Scraping. (Die Seite ist ein öffentliches Tagebuch, das ich im Jahr 2000 begonnen habe, daher möchte ich nicht, dass es auffindbar ist)
robots.txtbeim Internet Archive. Diese Richtlinie wurde zwar mehrfach geändert, aber in den letzten Jahren respektiert manrobots.txtdort wieder. Siehe FAQIn gewisser Weise bedeutet Publishen, etwas offenzulegen, damit andere es mit einer gewissen Freiheit nutzen können. Diese Freiheit kann der Website helfen oder auch nicht. Content-Publisher haben sich immer angepasst, wenn große Plattformen wie Google Veränderungen eingeführt haben. AI-Zusammenfassungen sind Teil dieses Wandels
In diesem Blogpost steht im letzten Satz, man solle einen Kommentar hinterlassen, aber ich sehe tatsächlich keinen Kommentarbereich. Daher frage ich mich, ob der Beitrag vielleicht von einer AI erzeugt wurde
Ich frage mich, ob diese Funktion auch bei Perplexity, OpenAI, Claude usw. funktioniert
Ich denke, es wäre für alle besser, wenn Google wie Perplexity die Quellen klar zitieren würde. Das gäbe dem Original einen Link und Credit und würde auch die UX verbessern
Mein Spezialgebiet wird künftig wohl sein, Unternehmenswebsites so zu gestalten, dass sie von LLMs gut zusammengefasst werden. Für solche detaillierten, gründlichen Leitfäden wird es Bedarf geben
Ich habe den Titel und die Domain dieses Artikels eingefügt, und dabei kam ein anderes Ergebnis heraus. Referenzbild