6 Punkte von davespark 2025-10-10 | 5 Kommentare | Auf WhatsApp teilen

Am 12. September 2025 erschütterte eine einzige Parameteränderung von Google das gesamte AI-Ökosystem. Die ChatGPT-Sichtbarkeit von Reddit brach über Nacht um 97 % ein, und während die SEO-Branche wegen Ranking-Problemen in Aufruhr war, bestand die eigentliche Krise im Zusammenbruch des AI-Traffics.

Kernpunkte:

  • 97 % über Nacht verschwunden: Als Google die Suchergebnisse von 100 auf 10 begrenzte, stürzte die Sichtbarkeit von Reddit in AI-Engines von 7 % auf 0,3 % ab. AIs wie ChatGPT, Perplexity und Claude konnten nicht mehr auf Reddit-Inhalte zugreifen
  • Eine Welt, in der alles ab Platz 11 verschwindet: Die von AI-Engines am meisten bevorzugten Community-Inhalte lagen größtenteils auf den Plätzen 15 bis 40. Da Google die Datenkontrolle verschärfte und AIs nun nur noch die Top-10-Ergebnisse sehen können, wurde der gesamte Longtail-Content für AIs unsichtbar
  • Neue Regeln im Zeitalter von AEO: „Top 10 or Die“ – Im Zeitalter der AI-Suche verschwindet man vollständig aus ChatGPT und anderen AI-Engines, wenn man es nicht unter die Top 10 der Google-Suche schafft. Die Spielregeln für SEO und AEO haben sich damit an einem historischen Wendepunkt gleichzeitig verändert

5 Kommentare

 
regentag 2025-10-10

Heißt das, dass KI wie ChatGPT, wenn sie im Web nach Ergebnissen sucht, zuerst eine Google-Suche macht und dann nur diese Ergebnisse verwendet..? Also wird etwas ausgeschlossen, wenn Google es nicht anzeigt...?

 
laeyoung 2025-10-10

Soweit ich weiß, konnte man bei einer Google-Suche per URL durch den Query-Parameter num=100 die Top-100-Suchergebnisse auf einmal abrufen. Google hat das kürzlich jedoch entfernt, sodass man jetzt nur noch die Top 10 abrufen kann.

Das führt zu Problemen: SEO-bezogene SaaS konnten mit dieser Funktion anzeigen, auf welchem Rang ein bestimmtes Keyword bei Google erscheint, aber jetzt werden nur noch die Plätze bis Rang 10 angezeigt, wodurch die Ranglistenanzeige kaputtgegangen ist. Zweitens gibt es, wie im Artikel erwähnt, im AI-Bereich das Problem, dass beim Abrufen von Inhalten nach einer Websuche nur noch die Top 10 sichtbar sind. Dadurch erscheinen nur Wikipedia oder – wenn man es auf Korea überträgt – Einträge wie bei NamuWiki, während gerade wichtige Beiträge auf Reddit gar nicht mehr erfasst werden.

 
winterjung 2025-10-10

Ich wollte noch weitere Quellen prüfen, aber den als Referenz im Original verlinkten Artikel Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions
kann ich offenbar nicht mehr einsehen, vielleicht wurde er entfernt.
Was mir im Text etwas fragwürdig erscheint, ist die Passage: "Denken Sie an Reddit-Beiträge oder Community-Diskussionen, an Threads von Expertinnen und Experten. Würden solche Inhalte bei kommerziellen Suchbegriffen in Googles Top 10 landen? Kaum. Aber die Plätze 15 bis 40 wurden von Reddit beherrscht." Direkt darunter zeigt jedoch die Grafik zu Perplexitys Top 10 Websites, dass Reddit mit 46,7 % auf Platz 1 liegt. Das wirkt etwas widersprüchlich. Personalisierte Empfehlungen mögen dabei eine Rolle spielen, aber auch erfahrungsgemäß erscheinen bei Google-Suchen oft Reddit-Ergebnisse weit oben.

Zusätzlich stimmt es zwar, dass Google das Verhalten der Suchergebnisse seit dem 12. September so geändert hat, dass der Query-Parameter num=100 nur noch 10 Ergebnisse zurückliefert[^1], doch es gibt die Einschätzung[^2], dass dies zwar kurzfristig für Verwirrung durch die Auswirkungen auf SEO-Tools gesorgt haben mag, sich aber grundsätzlich durch das Bezahlen von 10 Abfragen statt einer bisherigen Abfrage oder durch präzisere Queries auffangen lässt. Andererseits gibt es auch die Ansicht, dass der Rückgang des Reddit-Zitierungs-Traffics in ChatGPT eher auf eine Änderung der internen Modellspezifikation von OpenAI am 12. September zurückzuführen sein könnte.[^3]

Ich stimme der Ansicht zu, dass AEO wichtig ist, aber die Behauptung "Wenn man nicht in Googles Top 10 erscheint, verschwindet man vollständig aus AI-Engines einschließlich ChatGPT" halte ich für nur schwach belegt.
[^1]: https://searchengineland.com/google-search-rank-and-position-tracking-…
[^2]: https://locomotive.agency/blog/…
[^3]: https://sherwood.news/markets/…

 
gooksangom6394 2025-10-10

Im Moment mag das vielleicht nur ein wenig unbequem wirken, aber wenn das so läuft, stammen die von der KI weitervervielfältigten Inhalte am Ende ebenfalls nur aus den Top 10. Dadurch werden Daten außerhalb der oberen Ränge bei der Zugänglichkeit schnell nach hinten gedrängt, die Vielfalt wird beschädigt, und etwas überspitzt ausgedrückt könnte das zu einer Art „Inzest“ bei KI-Inhalten führen, aus dem so etwas wie eine genetische Datenkrankheit entsteht.

Vielleicht ist das eine allzu abwegige Vorstellung, aber wenn man bedenkt, dass unzählige Menschen über künstliche Intelligenz nur auf Daten aus einem begrenzten Bereich zugreifen und dass Daten, die wiederum mithilfe künstlicher Intelligenz erzeugt wurden, erneut in das Training künstlicher Intelligenz einfließen, dann wirkt das rein intuitiv einfach nicht wie die bessere Richtung.

Natürlich kann man das Problem des übermäßigen Traffics, das durch KI entsteht, auch nicht einfach ignorieren.

 
jhk0530 2025-10-10

Ähnliches wurde auch in not by AI angesprochen, das ich früher einmal gesehen habe. Der Ausdruck „Daten-Erbkrankheit“ ist echt originell, haha.