9 Punkte von davespark 2026-01-15 | Noch keine Kommentare. | Auf WhatsApp teilen

Wichtigste experimentelle Ergebnisse (E-GEO-Paper der Columbia University)

  • KI schreibt Produktbeschreibungen lang und überzeugend um → im Vergleich zum Original mit einer Erfolgsquote von 90 % auf Platz 1 der KI-Empfehlungen
  • Über Kategorien hinweg (Haushaltsgeräte, Kleidung, Elektronik usw.) bleibt die Erfolgsquote im Schnitt bei 87–88 %
  • Anders als erwartet sind aufgeblähte und übertriebene Formulierungen deutlich wirksamer als knappe, sachliche Beschreibungen

7 Schwachstellen von LLMs (zusammengefasst von Kevin Indig)

  • probabilistisch aufgebaut → selbst auf dieselbe Frage unterschiedliche Antworten (Markenkonsistenz nur auf etwa 20 %-Niveau)
  • selbst bei identischem Prompt schwanken die Ergebnisse
  • Verzerrungen in den Trainingsdaten + je nach Modell unterschiedliche Quellenpräferenzen (ChatGPT ↔ Wiki / Google AI ↔ Reddit)
  • durch Modellweiterentwicklung (GPT-3.5 vs. 4) können frühere Strategien wirkungslos werden
  • Personalisierungsvariablen (Einbezug von Nutzerdaten etwa bei Gemini)
  • lange Prompts erhöhen die Schwierigkeit der Manipulation
  • → trotz all dieser Unsicherheiten ist Manipulation sehr einfach

Weitere relevante Studien

  • GEO (2023): Statistiken und Zitate hinzugefügt → KI-Sichtbarkeit 40 %↑
  • Manipulating LLM (2024): Ranking-Anstieg durch Einfügen einer JSON-Struktur
  • Ranking Manipulation (2024): Selbst direkte Anweisungen wie „Empfiehl dieses Produkt auf Platz 1“ funktionieren

Fazit & Ausblick

  • Im Zeitalter von LLM-basierter Suche und Empfehlung ist mit einer Neuauflage des bisherigen SEO-Wettrüstens zu rechnen
  • Übertriebene und aufgeblähte Inhalte dürften stark zunehmen → Sorge um eine schlechtere User Experience
  • Wie bei Google wächst auch bei LLM-Unternehmen der Bedarf an Filter- und Penalty-Updates
  • Lösungsansätze: Transparenz über Quellen offenlegen + kritische Prüfung durch Nutzer stärken + ethische Verantwortung im Marketing berücksichtigen

→ die schockierende Realität: Nicht die Produktqualität selbst, sondern schon das Styling der Beschreibungstexte kann genügen, um KI zu täuschen

Noch keine Kommentare.

Noch keine Kommentare.