Wie leicht lassen sich KI-Antworten manipulieren? Schon geänderte Produktbeschreibungen bringen 90 % Erfolgsquote
(aisparkup.com)Wichtigste experimentelle Ergebnisse (E-GEO-Paper der Columbia University)
- KI schreibt Produktbeschreibungen lang und überzeugend um → im Vergleich zum Original mit einer Erfolgsquote von 90 % auf Platz 1 der KI-Empfehlungen
- Über Kategorien hinweg (Haushaltsgeräte, Kleidung, Elektronik usw.) bleibt die Erfolgsquote im Schnitt bei 87–88 %
- Anders als erwartet sind aufgeblähte und übertriebene Formulierungen deutlich wirksamer als knappe, sachliche Beschreibungen
7 Schwachstellen von LLMs (zusammengefasst von Kevin Indig)
- probabilistisch aufgebaut → selbst auf dieselbe Frage unterschiedliche Antworten (Markenkonsistenz nur auf etwa 20 %-Niveau)
- selbst bei identischem Prompt schwanken die Ergebnisse
- Verzerrungen in den Trainingsdaten + je nach Modell unterschiedliche Quellenpräferenzen (ChatGPT ↔ Wiki / Google AI ↔ Reddit)
- durch Modellweiterentwicklung (GPT-3.5 vs. 4) können frühere Strategien wirkungslos werden
- Personalisierungsvariablen (Einbezug von Nutzerdaten etwa bei Gemini)
- lange Prompts erhöhen die Schwierigkeit der Manipulation
- → trotz all dieser Unsicherheiten ist Manipulation sehr einfach
Weitere relevante Studien
- GEO (2023): Statistiken und Zitate hinzugefügt → KI-Sichtbarkeit 40 %↑
- Manipulating LLM (2024): Ranking-Anstieg durch Einfügen einer JSON-Struktur
- Ranking Manipulation (2024): Selbst direkte Anweisungen wie „Empfiehl dieses Produkt auf Platz 1“ funktionieren
Fazit & Ausblick
- Im Zeitalter von LLM-basierter Suche und Empfehlung ist mit einer Neuauflage des bisherigen SEO-Wettrüstens zu rechnen
- Übertriebene und aufgeblähte Inhalte dürften stark zunehmen → Sorge um eine schlechtere User Experience
- Wie bei Google wächst auch bei LLM-Unternehmen der Bedarf an Filter- und Penalty-Updates
- Lösungsansätze: Transparenz über Quellen offenlegen + kritische Prüfung durch Nutzer stärken + ethische Verantwortung im Marketing berücksichtigen
→ die schockierende Realität: Nicht die Produktqualität selbst, sondern schon das Styling der Beschreibungstexte kann genügen, um KI zu täuschen
Noch keine Kommentare.