3 Punkte von GN⁺ 2025-09-01 | 3 Kommentare | Auf WhatsApp teilen
  • Google hat in den Suchergebnissen AI-generierte Zusammenfassungen (AI Overviews) eingeführt, die häufig Inhalte von Websites aufgreifen und damit Traffic abziehen
  • Website-Betreibern bleiben faktisch nur extreme Optionen wie das Blockieren von Snippets (max-snippet:0, nosnippet) oder teilweises Blockieren (data-nosnippet), wodurch sie praktisch in einem Dilemma ohne Ausweg stecken
  • Auf Nutzerseite gibt es nur begrenzte und unvollständige Ausweichmöglichkeiten wie das Deaktivieren der Search-Labs-Einstellung, URL-Parameter oder Browser-Erweiterungen
  • EU- und britische Regulierungsbehörden untersuchen derzeit den wettbewerbswidrigen Charakter von Google AI Overviews und die Schäden für Publisher und erwägen Regulierungen wie Traffic-Sharing und ein faires Opt-out
  • Bis auf Weiteres ist max-snippet:0 die einzige realistische Maßnahme für Publisher, hat aber den gravierenden Nachteil sinkender Klickraten, weshalb Kritik an Googles Dark-Pattern-artigem Design laut wird

Das Problem mit Google AI Overviews

  • Google hat kürzlich in den Suchergebnissen AI-Zusammenfassungen (SGE: Search Generative Experience) eingeführt, die automatisch von der AI erzeugt werden
  • Diese Funktion analysiert den eigentlichen Inhalt von Websites, fasst ihn kurz zusammen und zeigt ihn direkt an, um die Nutzererfahrung zu verbessern
  • Dadurch sehen sich jedoch viele Website-Betreiber mit dem Problem konfrontiert, dass Nutzer nur noch die Zusammenfassung konsumieren, ohne die Originalseite zu besuchen
  • Das führt letztlich zu einem Rückgang des organischen Traffics (organic traffic) von Websites

Auswirkungen von Google AI Overviews

  • AI Overviews fassen Inhalte automatisch zusammen und zeigen sie oben in der Suche an, ohne Zustimmung der Website-Betreiber
  • Nutzer neigen zunehmend dazu, nur die Zusammenfassung zu lesen und die Originalseite nicht anzuklicken
  • Dadurch wird die Wirkung traditioneller SEO-Strategien geschwächt und Website-Betreiber werden benachteiligt

Reaktionsmöglichkeiten für Webmaster

  • 1. max-snippet:0
    • <meta name="robots" content="max-snippet:0">
    • Blockiert alle Snippets und AI-Zusammenfassungen, sodass in den Suchergebnissen nur Titel + URL angezeigt werden
      • Das kann die Klickrate (CTR) deutlich senken
    • Derzeit ist dies die wirksamste Methode, aber keine perfekte Lösung
  • 2. nosnippet
    • <meta name="robots" content="nosnippet">
    • Hat den gleichen Effekt wie max-snippet:0 und entfernt Beschreibungen oder Zusammenfassungen vollständig aus den Suchergebnissen
      • Dadurch kann die Ergebnisliste eintöniger und weniger attraktiv wirken
    • Verhindert AI-Zusammenfassungen, kann aber zu geringerer Sichtbarkeit in der Suche führen
  • 3. data-nosnippet
    • <span data-nosnippet>…</span>
    • Eine Möglichkeit, bestimmte Inhalte selektiv auszuschließen
      • Google kann jedoch weiterhin anderen Text für Zusammenfassungen verwenden, weshalb keine vollständige Kontrolle möglich ist
    • Kann auf HTML-Elemente wie span, div und section angewendet werden
  • 4. Alternativen auf Nutzerseite (wirken sich nur auf das persönliche Konto aus)
    • Search-Labs-Opt-out: Angemeldete Nutzer können „AI Overviews and more“ deaktivieren
      • Das gilt nur für das eigene Nutzerkonto und beeinflusst nicht, wie die Website anderen angezeigt wird
    • URL-Modifikatoren: Zur Suchanfrage &udm=14, -AR, -noai hinzufügen
    • Browser-Erweiterungen: Tools wie Bye Bye Google AI können genutzt werden
      • Sie funktionieren bei Google-Updates möglicherweise nicht mehr
    • Reddit-Hack: Es wurde vorgeschlagen, durch das Hinzufügen von Schimpfwörtern AI-Zusammenfassungen zu umgehen
      • Eine unpraktische Behelfslösung
    • Unter iOS kann man in der Google-App die Gemini-Anzeige deaktivieren, den Web-Tab verwenden oder auf alternative Browser wie Safari oder DuckDuckGo ausweichen
  • 5. Regulatorische Hoffnung: Untersuchungen in der EU und im Vereinigten Königreich
    • EU
      • Independent Publishers Alliance, Movement for an Open Web und Foxglove Legal haben bei der EU-Kommission eine kartellrechtliche Beschwerde eingereicht
      • Sie argumentieren, dass AI Overviews zu missbräuchlicher Nutzung von Inhalten, Traffic-Abfluss und dem Fehlen eines fairen Opt-out führen
    • Vereinigtes Königreich
      • Die Wettbewerbs- und Marktaufsichtsbehörde (CMA) untersucht, ob AI-Zusammenfassungen den Wettbewerb behindern und Publisher schädigen
      • Geprüft werden verpflichtende Quellenangaben, Traffic-Sharing und Beschränkungen für Googles Bevorzugung eigener Angebote

Der Kern des Problems

  • Das Dilemma der Publisher: Wenn sie Snippets nicht blockieren, extrahiert die AI Inhalte und verursacht Traffic-Verluste; blockieren sie sie, sinkt die Sichtbarkeit in der Suche
  • Mangelnde Kontrolle für Nutzer: Die Alternativen sind umständlich, unvollständig und uneinheitlich
  • Kritik an Dark Patterns: Googles strukturelles Design wird als manipulatives Design betrachtet, das Publisher dazu zwingt, etwas Wichtiges aufzugeben
    • Das ist ein typisches Dark Pattern, das Publisher zu nachteiligen Entscheidungen zwingt

Fazit

  • Bis Regulierungsbehörden Änderungen erzwingen, bleibt max-snippet:0 derzeit die einzige Option für Publisher, geht jedoch mit erheblichen Sichtbarkeitsverlusten einher
    • Website-Betreiber müssen eine unfaire Wahl zwischen dem Blockieren von AI-Zusammenfassungen und dem Verlust an Sichtbarkeit treffen
  • Googles Politik ist eine erzwungene Wahl ohne Ausweg und damit ein typisches Dark Pattern
  • Die künftigen Entscheidungen der Regulierungsbehörden in der EU und im Vereinigten Königreich sind die einzige Hoffnung auf Veränderung, aber keine sofortige Lösung

3 Kommentare

 
laeyoung 2025-09-01

Dazu passt auch der Beitrag Das Ende des SEO-Zeitalters? Der Beginn der Marketing-Optimierung für AI-Agenten.

Wenn man sich die SEO-bezogenen Beiträge auf Reddit ansieht, scheint die Sichtbarkeit bei Google zwar unverändert zu sein, aber wegen Zero Click geht der Traffic deutlich zurück, und es gibt viele Posts, in denen diese Sorge geäußert wird.

 
crawler 2025-09-01

> Würden Sie das als eine faire Funktion ansehen – oder als ein klassisches Beispiel für Dark-Pattern-Engineering? Teilen Sie uns Ihre Meinung in den Kommentaren mit.

Im Text steht tatsächlich, man solle einen Kommentar hinterlassen, aber auf der Website scheint es gar keine Kommentarfunktion zu geben.
Wenn ein Artikel darüber, KI zu blockieren, mit KI geschrieben wurde, ist das schon ziemlich widersprüchlich.

 
GN⁺ 2025-09-01
Hacker-News-Kommentare
  • Ich habe das Gefühl, dass das dasselbe „Portal-/Broker“-Phänomen ist, das sich seit Jahrzehnten in alle Bereiche ausbreitet. Zwischen Verbraucher und Produzent ist eine dritte Ebene getreten, was es für beide Seiten bequemer gemacht hat, aber inzwischen ist man auf diese Ebene angewiesen. Wenn man bei Amazon bestellt, kommuniziert man nicht mehr direkt mit dem Verkäufer, und bei Essensbestellungen bezahlt man auch nicht direkt das Restaurant. Auch wenn man im Web nach Informationen sucht, setzt man sich nicht mehr mit dem Stil einzelner Autoren, der Navigation, Werbung usw. auseinander. Aus Sicht der Content-Eigentümer führt diese Struktur zu weniger Seitenbesuchen und schadet den Werbeeinnahmen, und anders als bei Amazon oder Liefer-Apps gibt es für Werbeverluste durch Google-Zusammenfassungen keinen Ausgleich. Da der Großteil der Online-Inhalte durch Werbung finanziert wird und auch für Google Werbeeinnahmen überlebenswichtig sind, treibt das Unternehmen diese Entwicklung für die Zukunft offenbar trotzdem zwangsläufig voran. Google scheint sich nur darauf zu konzentrieren, seinen Platz in der Zukunft zu sichern

    • Ich finde bemerkenswert, wie hier davon gesprochen wird, dass diese Veränderung beiden Seiten nützt. Im Übergang wird eine Seite definitiv geschädigt, aber am Ende ist der Nutzen für Verbraucher und Plattform wohl größer
  • Mich stört, dass urheberrechtlich geschütztes Material auf der Website meines Softwareprodukts von Google und anderen AIs ohne Erlaubnis abgesaugt und neu verarbeitet wird. Aber wenn ich das blockiere, ist die Wahrscheinlichkeit fast null, dass mein Content in deren AI-Zusammenfassungen erwähnt wird

    • Wenn man auf diese Weise blockiert, kann es bei Ergebnissen zu meinem Produkt oder Unternehmen sogar schlimmer werden, weil die AI-Zusammenfassung dann statt der Nummer-2-Quelle auf andere Informationen zurückgreift. Wenn bei einer Suche wie „Wie hebt man Geld bei PayPal ab“ die zweitplatzierte Seite zum Beispiel eine negative Domain wie „PayPal sucks“ ist, wird es erst recht unerquicklich, wenn die offizielle Seite aus der Zusammenfassung ausgeschlossen wird. Letztlich ist es für Publisher also besser, es einfach zuzulassen. Wenn man sich um sinkenden Traffic sorgt, sollte man bedenken, dass der „source“-Link in der Zusammenfassung vor allen anderen Ergebnissen erscheint. Wenn man sich um Falschinformationen sorgt, kann man das über Genauigkeitsmeldungen oder Inhaltskorrekturen lösen. Außerdem sollte Google ermöglichen, AI-Zusammenfassungen und Snippets getrennt abzuwählen, und wenn man sich über AI-Zusammenfassungen Sorgen macht, sollte man sich konsequenterweise auch um Snippets kümmern
    • Ich habe die Sorge, dass irgendwann die Nachricht kommt, man solle zahlen, wenn Google mein Unternehmen positiver darstellen soll als die Konkurrenz, oder zahlen, wenn man fälschlich generierte Fehlinformationen entfernen lassen will
    • Wenn es sich um eine Website handelt, die direkt etwas verkauft, halte ich Sichtbarkeit in AI-Zusammenfassungen eher für wünschenswert
  • Ich verstehe nicht, warum solche AI-Zusammenfassungsfunktionen die künftigen Einnahmen von Google nicht kannibalisieren sollen. Google verdient Geld damit, Nutzer über Werbung auf Websites zu leiten, aber mit solchen Zusammenfassungen macht es die Websites selbst überflüssig. Wer würde dann noch eine Website ohne Besucher erstellen?

    • Google verfügt bereits über die Technik, Produkt- und Dienstleistungsanzeigen in AI-Zusammenfassungen einzufügen. In einer Studie wurde als reales Beispiel beschrieben, dass bei der Suche nach „Urlaub“ sowohl Hotels als auch Fluggesellschaften jeweils erwähnt wurden. Der Link zu diesem Paper ist hier
    • 99 % der Einnahmen konzentrieren sich auf Suchanfragen mit klarer Kaufabsicht wie „buy macbook“ oder „book trip to dc“. Bei informationsorientierten Suchanfragen gibt es fast keine Werbeeinnahmen
    • Dass tatsächlich nur ein winziger Teil der Queries Umsatz bringt, sieht man auch daran, dass es für die meisten Suchanfragen überhaupt keine Anzeigengebote gibt
    • Eigentlich hat Google mehr Angst davor, dass Technologien wie ChatGPT seinen Platz ersetzen könnten. Deshalb ist es zur Sicherung der eigenen Position am besten, den Nutzern sofort die gewünschten Informationen zu liefern. Meiner Meinung nach sind LLMs unvollkommen, aber bei mehrdeutigen Fragen, Informationssynthese, Übersetzung usw. Suchmaschinen weit überlegen. Wenn man Informationen möchte statt eine bestimmte Seite zu finden, kommen LLMs dem Ideal deutlich näher. Ich würde mich nicht wundern, wenn Suchmaschinen in den nächsten zehn Jahren verschwinden
    • Vielleicht hat Google diese Veränderung auch widerwillig eingeführt, weil es in der Realität immer stärker von LLM-Diensten verdrängt wird. Dass Google AI-Zusammenfassungen oberhalb der Werbung platziert, zeigt, wie verzweifelt die Lage ist
  • Ich habe meine persönliche Website per Apache-Konfiguration so eingestellt, dass Indexierung, Snippets, Übersetzung und Bildindexierung komplett blockiert werden. Trotzdem hat allein das Internet Archive das ignoriert und weiter gecrawlt, und selbst nach mehreren Löschanfragen wird dem nie entsprochen. Inzwischen blockiere ich mit Anubis zusätzliches Scraping. (Die Seite ist ein öffentliches Tagebuch, das ich im Jahr 2000 begonnen habe, daher möchte ich nicht, dass es auffindbar ist)

    • Ich verstehe nicht, wie man etwas öffentlich ins Internet stellen und gleichzeitig nicht archiviert haben wollen kann. Wenn die Domain irgendwann verschwindet und man sich das später noch einmal ansehen möchte, ist es doch eher gut, wenn es im Internet Archive erhalten geblieben ist. Sobald etwas ins Internet gestellt wird, ist es seinem Wesen nach öffentlich
    • Am meisten frustriert mich, dass das Internet Archive auf meine Anfragen überhaupt nicht antwortet. Illegale Inhalte wie Verleumdung, Staatsgeheimnisse oder bestimmte pornografische Inhalte können als Ausnahmen gelöscht werden, aber wenn man etwas selbst veröffentlicht hat, sollte dessen Entfernung aus dem historischen Archiv nach dem allgemeinen Grundsatz nicht erlaubt sein. Wenn ich wirklich persönliche Informationen hätte verbergen wollen, hätte ich sie hinter einen Login gestellt. Die Seite existiert weiterhin, und irgendjemand crawlt sie ständig
    • In Snapshots gibt es ein Feld namens „why?“. Tatsächlich könnte meine Seite außer vom Internet Archive auch von Common Crawl, Archive Team oder anderen dorthin gepusht worden sein. Man sollte den Grund prüfen und den Urheber genau identifizieren
    • Versuche es mit einer Lösch- oder Ausschlussanfrage über robots.txt beim Internet Archive. Diese Richtlinie wurde zwar mehrfach geändert, aber in den letzten Jahren respektiert man robots.txt dort wieder. Siehe FAQ
  • In gewisser Weise bedeutet Publishen, etwas offenzulegen, damit andere es mit einer gewissen Freiheit nutzen können. Diese Freiheit kann der Website helfen oder auch nicht. Content-Publisher haben sich immer angepasst, wenn große Plattformen wie Google Veränderungen eingeführt haben. AI-Zusammenfassungen sind Teil dieses Wandels

    • Meiner Meinung nach ist das eine ziemlich anspruchsvolle Sichtweise. Ich habe schon Software unter Lizenzbedingungen veröffentlicht. Nur weil etwas öffentlich ist, heißt das nicht, dass jeder es für jeden Zweck verwenden darf
    • Ich gehe davon aus, dass ich Inhalte veröffentliche und dabei das Urheberrecht daran behalte. Das bedeutet nicht, dass ich jedem die Freiheit geben will, sie kommerziell neu zu veröffentlichen. Vielleicht steuern wir auf eine Zukunft zu, in der man Inhalte hinter Logins verstecken muss, aber das wäre eine bittere Zukunft für das Web
    • Seit dem Statute of Anne von 1710, dem ersten Urheberrechtsgesetz, gelten Regeln auch für öffentlich verbreitete Informationen
    • Ich veröffentliche meine Texte in der Hoffnung, dass Menschen sie direkt lesen, nicht damit Google schlampige AI-Zusammenfassungen daraus macht. Googles Entscheidungen laufen am Ende auf Googles eigenen Vorteil hinaus
    • Publishen sollte nicht bedeuten, alle Rechte abzugeben. Viele schreiben, um ein Publikum anzusprechen, das ähnlich denkt wie sie selbst. Wenn sich dann ein Vermittler dazwischenschiebt, wird die Verbindung zwischen Leser und Autor eher beschädigt. Wenn ich eine Zusammenfassung will, kann ich das in der Form tun, die ich möchte, aber die meisten Autoren wollen keine LLM-Zusammenfassungen. Außerdem sind LLMs stark voreingenommen und können bei Zusammenfassungen ausgerechnet wichtige Absätze durch eigene Filter entfernen. Wenig ist für Ideen so zerstörerisch wie eine verzerrte, abgeschwächte Version der eigenen Position
  • In diesem Blogpost steht im letzten Satz, man solle einen Kommentar hinterlassen, aber ich sehe tatsächlich keinen Kommentarbereich. Daher frage ich mich, ob der Beitrag vielleicht von einer AI erzeugt wurde

  • Ich frage mich, ob diese Funktion auch bei Perplexity, OpenAI, Claude usw. funktioniert

  • Ich denke, es wäre für alle besser, wenn Google wie Perplexity die Quellen klar zitieren würde. Das gäbe dem Original einen Link und Credit und würde auch die UX verbessern

    • Google zitiert zwar auch, aber so unauffällig, dass es als ein Zeichen in Form eines „Link“-ähnlichen Unicode-Symbols erscheint. Wenn man darauf klickt, landet man nicht direkt auf der Quellseite, sondern es öffnet sich ein Seitenpanel, in dem oft mehrere Quellen enthalten sind. Technisch gesehen ist dieses Zitat zwar der erste Link auf der Ergebnisseite, aber um tatsächlich auf meine Seite zu gelangen, braucht man zwei Klicks. Es wäre besser, die Zitate sichtbarer zu machen, den Seitentitel als Ankertext zu verwenden und einen direkten Link anzubieten. Wenn es mehrere Zitate gibt, sollte das Seitenpanel von Anfang an geöffnet sein oder alle Quellen direkt auf der Hauptseite sichtbar sein
  • Mein Spezialgebiet wird künftig wohl sein, Unternehmenswebsites so zu gestalten, dass sie von LLMs gut zusammengefasst werden. Für solche detaillierten, gründlichen Leitfäden wird es Bedarf geben

  • Ich habe den Titel und die Domain dieses Artikels eingefügt, und dabei kam ein anderes Ergebnis heraus. Referenzbild