- AI-Funktionen werden ohne Zustimmung der Öffentlichkeit automatisch in wichtige Software und Dienste integriert
- Die meisten Nutzer wollen keine AI oder misstrauen ihr, doch große IT-Konzerne wie Microsoft und Google beschleunigen die Einführung durch Bundling und erzwungene Integration
- Verbraucher tragen die Kosten ohne Wahlmöglichkeit, und Umfragen zeigen tatsächlich, dass mit AI erweiterte Produkte bei Beliebtheit und Vertrauen schlechter abschneiden
- Unternehmen verbergen AI-bezogene Kosten und Verluste, indem sie diese an bestehende Dienste koppeln und buchhalterisch kaschieren
- Es wird die Notwendigkeit rechtlicher und institutioneller Regulierung (Transparenz, Opt-in, Verantwortung, geistige Eigentumsrechte usw.) betont und zu gesellschaftlicher Gegenwehr gegen den Missbrauch von AI aufgerufen
Das Phänomen, der Öffentlichkeit AI gegen ihren Willen aufzuzwingen
- Beim jüngsten Öffnen von Microsoft Outlook erschien eine Aufforderung, den Copilot-AI-Begleiter zu verwenden
- Er trägt zwar den Namen AI-Begleiter (Companion), ist in Wirklichkeit aber eine unerwünschte Funktion
- Auch die Empfänger erwarten eher eine selbst geschriebene E-Mail und keine von AI verfasste Nachricht
- Die Deaktivierung von Copilot wurde schwer auffindbar gemacht; kaum war ein Weg gefunden, es abzuschalten, wurde in anderen Programmen wie Excel bereits die Zustimmung zu AI-Nutzungsbedingungen erzwungen
- Der Preis für das MS-365-Abo wurde zudem um 3 US-Dollar pro Monat erhöht, wobei 60 unerwünschte Copilot-Nutzungen gebündelt enthalten sind
- Selbst wenn man es faktisch nicht nutzt, zahlt man dafür, und AI-Funktionen werden in jede Software wie Word und Excel eingebaut
Wirtschaftliche und strategische Gründe für AI-Bundling und erzwungene Nutzung
- Für AI sind die meisten Nutzer nicht bereit, freiwillig zu zahlen (nur 8 % der US-Amerikaner würden extra bezahlen)
- Deshalb lässt sie sich nur dann im Markt verankern, wenn sie mit unverzichtbaren Diensten gebündelt und so erzwungen eingeführt wird
- Wäre AI ein eigenständiges Bezahlprodukt, würden die Verluste klar sichtbar, und der Unmut von Investoren und Aktionären würde explodieren
- Indem Unternehmen AI in bestehenden Diensten verstecken, verschleiern sie buchhalterische Verluste und stellen es nach außen als profitabel dar
- Ein Beispiel: Wenn ein Restaurant Granitsteine als Dessert verkaufen würde, würde sie niemand kaufen; schlägt man aber 1 Dollar auf den Gesamtpreis der Mahlzeit auf und zwingt sie allen auf, kann man behaupten, „alle Kunden kaufen den Stein“
Verlust der Wahlfreiheit und Unzufriedenheit der Nutzer
- Tatsächlich haben Nutzer keine Wahl, ob AI eingeführt wird oder nicht
- Nicht nur Microsoft, auch Google fügt Suchergebnissen automatisch AI hinzu
- Plattformen ergänzen AI-Funktionen einseitig ohne Zustimmung der Nutzer, und Kunden erleben eine Haltung nach dem Motto: „Seid still und nehmt es hin“
- All die folgenden AI-Funktionen werden unabhängig vom Willen der Nutzer zwangsweise angewendet
- AI-Kundencenter, AI-Suchergebnisse, in Software eingebaute AI, von AI versendete E-Mails, Spotify-AI-Musik, Amazon-AI-Bücher usw.
- Je mehr AI-Funktionen hinzugefügt werden, desto stärker sinkt die Produktpräferenz (Umfrage unter 4.000 Personen, nur 18 % bevorzugen AI)
- Auch Experten und Medien warnen, dass eine überhastete AI-Einführung das Kundenvertrauen und den Umsatz beeinträchtigen kann
Big Tech treibt die AI-Zwangseinführung noch aggressiver voran
- Früher reagierten Unternehmen sensibler auf Kundenmeinungen, heute übt Big Tech monopolartige Einflussmacht aus
- Der Wille und die Wahlfreiheit der Nutzer werden vollständig ausgeblendet, und einseitige Funktionserweiterungen setzen sich fort
- Meta (Facebook) bereitet sogar eine Funktion vor, bei der AI-Chatbots zuerst Nachrichten senden, auch wenn Nutzer das nicht wollen (ein vollständiges Deaktivieren des Messengers ist praktisch unmöglich)
- Diese Vorgehensweise kommt klassischem Spam sehr nahe, und die Ablehnung durch Nutzer wächst
Die Realität: Ein Boykott von AI ist unmöglich
- Selbst wer AI ablehnen möchte, müsste in der Praxis E-Mail, Suche, Word und Excel, Amazon und Spotify usw. vollständig aufgeben
- Künftig dürften sogar grundlegende gesellschaftliche Dienste wie Medizin, Beratung, Recht, Personalgewinnung und Notfallhilfe AI-zentriert ersetzt werden
- Große IT-Konzerne tilgen bereits jetzt rasch die letzten Spuren menschlicher Dienstleistungen – unabhängig von Zustimmung oder Wahl der Nutzer
Der Widerspruch: Unzuverlässige AI wird zwangsweise verbreitet
- Erstaunlich ist, dass diese erzwungene Einführung beschleunigt wird, obwohl AI noch gar nicht zuverlässig genug funktioniert
- Tatsächlich gibt es viele absurde und ungenaue AI-Antworten, doch die Unternehmen scheinen nicht ernsthaft daran interessiert zu sein, das zu beheben
Notwendigkeit gesellschaftlicher und rechtlicher Gegenmaßnahmen
- Regulierungen zur AI-Einführung wie Transparenzgesetze, Opt-in-Gesetze (vorherige Zustimmung), Haftungsregeln und Gesetze zum Schutz geistigen Eigentums sind zwingend notwendig
- Falls die Politik nicht reagiert, seien gesellschaftliche Aktionen wie Bürgerinitiativen oder Sammelklagen nötig
- Auch Verbraucher (als Geschworene) würden am Ende die Realität nachvollziehen können, dass ihnen AI gegen ihren Willen aufgezwungen wird
Zweifel am Wettbewerbsnarrativ USA gegen China
- Es wird der Logik widersprochen, dass die USA im Wettlauf um die Einführung von AI China voraus sein müssten
- Es wird betont, man sei überzeugt, dass das Ziel, auf das AI zusteuert, eher unglückliche Folgen und Reue hinterlassen wird, und man wolle die Ergebnisse lieber erst in ferner Zukunft beobachten
Fazit
- AI breitet sich unter Führung von Big Tech ohne Zustimmung der Öffentlichkeit breit im Alltag und in der Gesellschaft aus
- Nicht eine aktive Nachfrage der Nutzer, sondern das Gewinnstreben monopolartiger Unternehmen und eine Verzerrung der Marktmechanismen sind die grundlegenden Ursachen
- Eine AI-Einführung ohne Wahlfreiheit wird sich künftig verschärfen, mit hoher Wahrscheinlichkeit späterer gesellschaftlicher Reue
4 Kommentare
Sie haben schon eine grottige automatische Übersetzung in die koreanische Übersetzung hineingepfuscht, und jetzt haben sie sich wohl noch weiterentwickelt. Die automatische Übersetzung konnte man schon nicht aufhalten, also werden wir uns wohl auch den grottigen KI-Mist komplett antun!
Ich hasse AI-Funktionen, besonders Dienste, die im Hintergrund warten und angeblich helfen wollen, wirklich.
Wenn sie remote ausgeführt werden, gibt es das Problem, dass meine Informationen preisgegeben werden; wenn sie lokal ausgeführt werden, verbrauchen sie die Ressourcen meines Computers (CPU, Arbeitsspeicher, Akku, ...).
Wie wäre es mit einem Dienst, den man auf einem privaten Remote-Server installiert?
Hacker-News-Kommentare
Ich finde solche integrierten AI-Funktionen ebenfalls nervig und unnötig, nicht weil LLMs nutzlos wären, sondern weil ihre Einbindung in bestehende Produkte nicht wirklich durchdacht ist. Das erinnert an große Unternehmen, die blindlings Software einführen, nur um einem Trend hinterherzulaufen. Wie petekoomen kürzlich kreativ angemerkt hat, erleben wir gerade erneut das Phänomen der „pferdelosen Kutsche im AI-Zeitalter“.
Bei Produkten wie Cursor und Windsurf beobachte ich, dass LLMs in großem Stil subventioniert werden. Diese Tools sind im Grunde Marketinginstrumente für LLMs, und ein Blick auf die Investorenstruktur macht das noch deutlicher. Mir war nicht klar, wie hoch die Betriebskosten solcher Dienste sind und wie dringend sie eine schnelle Massenverbreitung brauchen. Ich frage mich, wie schnell diese Durchdringung wirklich erzwungen werden soll.
Die wichtigsten AI-Gatekeeper kämpfen bereits jetzt beim Betrieb großer Modelle mit Engpässen und Skalierungsproblemen. Ohne grundlegende technologische Durchbrüche wird sich daran wohl nichts ändern. Je stärker die Welt auf AI ausgerichtet wird, desto abhängiger werden wir von diesen Gatekeepern und ihren Compute-Ressourcen. Ich befürchte Preissteigerungen für bevorzugten Zugang oder Priorisierung von Ressourcen. Und wir sind noch nicht einmal bei Wearables angekommen.
Alle Nutzerdaten müssen an diese Gatekeeper gesendet werden, und obwohl sich ohnehin immer mehr Daten in die Cloud verlagern, war der wirtschaftliche Anreiz zum Auslesen und Wiederverwerten früher geringer, sodass mein Wissen und meine personenbezogenen Daten weniger exponiert waren. Mit der erzwungenen Einführung von AI wird aber immer intransparenter, wer die Modelle betreibt und wohin meine Daten gehen. Die unzureichende Genauigkeit von LLMs ist ein Problem, aber die Konzentration von Gatekeeper-Macht und Daten ist genauso besorgniserregend. Ich habe Sorge, dass wir aus Bequemlichkeit billigere Betriebsmodelle wählen und dafür Qualitätsverluste in Kauf nehmen.
Ich stimme der Grundaussage insgesamt zu, aber der etwas holprige Stil des Autors lässt mich fragen, ob der Text vielleicht von AI mitgeschrieben wurde. Für alle vom Autor genannten Funktionen gibt es Open-Source- oder günstige bezahlte Alternativen. In bestimmten Bereichen wie bei Versicherungen scheint der Einsatz von AI wegen öffentlichem Druck oder Service-Lock-in allerdings kaum vermeidbar. Man könnte argumentieren, dass echte Nutzer es wollen, weil ChatGPT weltweit zu den meistgenutzten Websites gehört, aber ich sehe zwei berechtigte Gegenargumente. Erstens gibt es zahllose Beispiele dafür, dass Popularität nicht automatisch Zahlungsbereitschaft bedeutet. Waren kostenpflichtige soziale Netzwerke je wirklich populär? Zweitens wollen nur sehr wenige Nutzer, dass populäre Websites in völlig andere Lebensbereiche eindringen und den Alltag vollständig dominieren.
Ich habe gerade eben zum ersten Mal gesehen, dass Gmail eingehende E-Mails für mich zusammenfasst. Bitte nicht. Ich lese meine E-Mails selbst, und eine unnötige Zusammenfassung vergrößert nur noch die Menge an Text, die ich lesen muss. Für Nutzer, die massenhaft E-Mails von Kollegen mit unklarer Priorität erhalten, mag das nützlich sein, aber in meinem privaten Konto kommen alle Nachrichten von Freunden, und der Rest gehört nicht zusammengefasst, sondern direkt in den Papierkorb. Für Gmails Spam-Filter bin ich allerdings wirklich dankbar.
Ich stimme dem Inhalt dieses Beitrags vollkommen zu. „AI“ mag für mittelmäßige Betrüger einen kleinen Markt schaffen, für die meisten Nutzer ist sie aber Spam, ähnlich wie Clippy, das auch niemand wollte. Hoffentlich verschwindet AI eines Tages genauso wie Clippy.
Ich stimme der Behauptung „Alle wollten das Internet“ nicht zu. Viele hatten bis vor dem Smartphone-Zeitalter überhaupt kein Interesse daran, und Smartphones haben sich durchgesetzt, weil sie im Vergleich zum Desktop zwar unbequemer, aber viel praktischer sind. „Unbequemer, aber bequemer“ ist dieselbe Marketinglogik wie bei AI, daher nehme ich an, dass die Masse AI am Ende ebenfalls akzeptieren wird.
Das fühlt sich an, als würde man gegen die Luft reden. Das Problem mit AI ist so subtil, dass die meisten schon zufrieden sind, wenn sie nur „ganz brauchbare Antworten“ bekommen, ohne zu erkennen, was für ein neuartiges kreatives Werkzeug auf dem Niveau einer natürlichsprachlichen Programmiersprache das eigentlich ist. Für wiederholbaren Erfolg braucht man wirksame Prompts, aber die wenigsten machen sich diese Mühe. Sogar Diskussionen über Prompt Engineering werden mit der Frage abgetan, ob das Schreiben von Prompts überhaupt Engineering sei. Dabei ist genau das ein hochkomplexer technischer Prozess, den die Branche ernst nehmen müsste. Kaum jemand versteht die subtile Stärke von LLMs wirklich, und im Mainstream gelten sie eher als Betrug.
Warum sind CEOs so auf AI fixiert? Weil Aktieninvestoren schon allein auf das Schlagwort „mit AI“ sofort anspringen. Genau diese Investorennachfrage hält das „AI-Geschäftsmodell“ vor dem Zusammenbruch. Es ist letztlich eine Blase, aber eine, die sich noch eine ganze Weile halten kann.
ChatGPT gehört weltweit zu den fünf populärsten Websites und wächst schnell. Ein so populäres Produkt lässt sich nicht allein mit Marktresistenz erklären. Auch bei Instagram ist die tatsächliche Zahlungsbereitschaft verschwindend gering, vielleicht bei 8 %. Ist Instagram deshalb ein aufgezwungenes Produkt, das die Leute gar nicht wollen?