16 Punkte von GN⁺ 2025-07-07 | 4 Kommentare | Auf WhatsApp teilen
  • AI-Funktionen werden ohne Zustimmung der Öffentlichkeit automatisch in wichtige Software und Dienste integriert
  • Die meisten Nutzer wollen keine AI oder misstrauen ihr, doch große IT-Konzerne wie Microsoft und Google beschleunigen die Einführung durch Bundling und erzwungene Integration
  • Verbraucher tragen die Kosten ohne Wahlmöglichkeit, und Umfragen zeigen tatsächlich, dass mit AI erweiterte Produkte bei Beliebtheit und Vertrauen schlechter abschneiden
  • Unternehmen verbergen AI-bezogene Kosten und Verluste, indem sie diese an bestehende Dienste koppeln und buchhalterisch kaschieren
  • Es wird die Notwendigkeit rechtlicher und institutioneller Regulierung (Transparenz, Opt-in, Verantwortung, geistige Eigentumsrechte usw.) betont und zu gesellschaftlicher Gegenwehr gegen den Missbrauch von AI aufgerufen

Das Phänomen, der Öffentlichkeit AI gegen ihren Willen aufzuzwingen

  • Beim jüngsten Öffnen von Microsoft Outlook erschien eine Aufforderung, den Copilot-AI-Begleiter zu verwenden
  • Er trägt zwar den Namen AI-Begleiter (Companion), ist in Wirklichkeit aber eine unerwünschte Funktion
  • Auch die Empfänger erwarten eher eine selbst geschriebene E-Mail und keine von AI verfasste Nachricht
  • Die Deaktivierung von Copilot wurde schwer auffindbar gemacht; kaum war ein Weg gefunden, es abzuschalten, wurde in anderen Programmen wie Excel bereits die Zustimmung zu AI-Nutzungsbedingungen erzwungen
  • Der Preis für das MS-365-Abo wurde zudem um 3 US-Dollar pro Monat erhöht, wobei 60 unerwünschte Copilot-Nutzungen gebündelt enthalten sind
  • Selbst wenn man es faktisch nicht nutzt, zahlt man dafür, und AI-Funktionen werden in jede Software wie Word und Excel eingebaut

Wirtschaftliche und strategische Gründe für AI-Bundling und erzwungene Nutzung

  • Für AI sind die meisten Nutzer nicht bereit, freiwillig zu zahlen (nur 8 % der US-Amerikaner würden extra bezahlen)
  • Deshalb lässt sie sich nur dann im Markt verankern, wenn sie mit unverzichtbaren Diensten gebündelt und so erzwungen eingeführt wird
  • Wäre AI ein eigenständiges Bezahlprodukt, würden die Verluste klar sichtbar, und der Unmut von Investoren und Aktionären würde explodieren
  • Indem Unternehmen AI in bestehenden Diensten verstecken, verschleiern sie buchhalterische Verluste und stellen es nach außen als profitabel dar
  • Ein Beispiel: Wenn ein Restaurant Granitsteine als Dessert verkaufen würde, würde sie niemand kaufen; schlägt man aber 1 Dollar auf den Gesamtpreis der Mahlzeit auf und zwingt sie allen auf, kann man behaupten, „alle Kunden kaufen den Stein“

Verlust der Wahlfreiheit und Unzufriedenheit der Nutzer

  • Tatsächlich haben Nutzer keine Wahl, ob AI eingeführt wird oder nicht
  • Nicht nur Microsoft, auch Google fügt Suchergebnissen automatisch AI hinzu
  • Plattformen ergänzen AI-Funktionen einseitig ohne Zustimmung der Nutzer, und Kunden erleben eine Haltung nach dem Motto: „Seid still und nehmt es hin“
  • All die folgenden AI-Funktionen werden unabhängig vom Willen der Nutzer zwangsweise angewendet
    • AI-Kundencenter, AI-Suchergebnisse, in Software eingebaute AI, von AI versendete E-Mails, Spotify-AI-Musik, Amazon-AI-Bücher usw.
  • Je mehr AI-Funktionen hinzugefügt werden, desto stärker sinkt die Produktpräferenz (Umfrage unter 4.000 Personen, nur 18 % bevorzugen AI)
  • Auch Experten und Medien warnen, dass eine überhastete AI-Einführung das Kundenvertrauen und den Umsatz beeinträchtigen kann

Big Tech treibt die AI-Zwangseinführung noch aggressiver voran

  • Früher reagierten Unternehmen sensibler auf Kundenmeinungen, heute übt Big Tech monopolartige Einflussmacht aus
  • Der Wille und die Wahlfreiheit der Nutzer werden vollständig ausgeblendet, und einseitige Funktionserweiterungen setzen sich fort
  • Meta (Facebook) bereitet sogar eine Funktion vor, bei der AI-Chatbots zuerst Nachrichten senden, auch wenn Nutzer das nicht wollen (ein vollständiges Deaktivieren des Messengers ist praktisch unmöglich)
  • Diese Vorgehensweise kommt klassischem Spam sehr nahe, und die Ablehnung durch Nutzer wächst

Die Realität: Ein Boykott von AI ist unmöglich

  • Selbst wer AI ablehnen möchte, müsste in der Praxis E-Mail, Suche, Word und Excel, Amazon und Spotify usw. vollständig aufgeben
  • Künftig dürften sogar grundlegende gesellschaftliche Dienste wie Medizin, Beratung, Recht, Personalgewinnung und Notfallhilfe AI-zentriert ersetzt werden
  • Große IT-Konzerne tilgen bereits jetzt rasch die letzten Spuren menschlicher Dienstleistungen – unabhängig von Zustimmung oder Wahl der Nutzer

Der Widerspruch: Unzuverlässige AI wird zwangsweise verbreitet

  • Erstaunlich ist, dass diese erzwungene Einführung beschleunigt wird, obwohl AI noch gar nicht zuverlässig genug funktioniert
  • Tatsächlich gibt es viele absurde und ungenaue AI-Antworten, doch die Unternehmen scheinen nicht ernsthaft daran interessiert zu sein, das zu beheben

Notwendigkeit gesellschaftlicher und rechtlicher Gegenmaßnahmen

  • Regulierungen zur AI-Einführung wie Transparenzgesetze, Opt-in-Gesetze (vorherige Zustimmung), Haftungsregeln und Gesetze zum Schutz geistigen Eigentums sind zwingend notwendig
  • Falls die Politik nicht reagiert, seien gesellschaftliche Aktionen wie Bürgerinitiativen oder Sammelklagen nötig
  • Auch Verbraucher (als Geschworene) würden am Ende die Realität nachvollziehen können, dass ihnen AI gegen ihren Willen aufgezwungen wird

Zweifel am Wettbewerbsnarrativ USA gegen China

  • Es wird der Logik widersprochen, dass die USA im Wettlauf um die Einführung von AI China voraus sein müssten
  • Es wird betont, man sei überzeugt, dass das Ziel, auf das AI zusteuert, eher unglückliche Folgen und Reue hinterlassen wird, und man wolle die Ergebnisse lieber erst in ferner Zukunft beobachten

Fazit

  • AI breitet sich unter Führung von Big Tech ohne Zustimmung der Öffentlichkeit breit im Alltag und in der Gesellschaft aus
  • Nicht eine aktive Nachfrage der Nutzer, sondern das Gewinnstreben monopolartiger Unternehmen und eine Verzerrung der Marktmechanismen sind die grundlegenden Ursachen
  • Eine AI-Einführung ohne Wahlfreiheit wird sich künftig verschärfen, mit hoher Wahrscheinlichkeit späterer gesellschaftlicher Reue

4 Kommentare

 
secwind 2025-07-07

Sie haben schon eine grottige automatische Übersetzung in die koreanische Übersetzung hineingepfuscht, und jetzt haben sie sich wohl noch weiterentwickelt. Die automatische Übersetzung konnte man schon nicht aufhalten, also werden wir uns wohl auch den grottigen KI-Mist komplett antun!

 
regentag 2025-07-07

Ich hasse AI-Funktionen, besonders Dienste, die im Hintergrund warten und angeblich helfen wollen, wirklich.
Wenn sie remote ausgeführt werden, gibt es das Problem, dass meine Informationen preisgegeben werden; wenn sie lokal ausgeführt werden, verbrauchen sie die Ressourcen meines Computers (CPU, Arbeitsspeicher, Akku, ...).

 
beoks 2025-07-07

Wie wäre es mit einem Dienst, den man auf einem privaten Remote-Server installiert?

 
GN⁺ 2025-07-07
Hacker-News-Kommentare
  • Ich finde solche integrierten AI-Funktionen ebenfalls nervig und unnötig, nicht weil LLMs nutzlos wären, sondern weil ihre Einbindung in bestehende Produkte nicht wirklich durchdacht ist. Das erinnert an große Unternehmen, die blindlings Software einführen, nur um einem Trend hinterherzulaufen. Wie petekoomen kürzlich kreativ angemerkt hat, erleben wir gerade erneut das Phänomen der „pferdelosen Kutsche im AI-Zeitalter“.

    • Ich habe die Unsicherheit und Angst von Product Ownern direkt miterlebt, die geradezu besessen davon sind, einfach irgendwie AI in ihre Produkte einzubauen. In diesem chaotischen Umfeld wird ohne klare Vision erst einmal gehandelt; es wirkt eher wie eine Show für das Vertrauen der Investoren und aus Angst, abgehängt zu werden. Führungskräfte wollen oft einfach nur „AI“, ohne konkrete Ideen, und in manchen Firmen ist Widerspruch gar nicht erwünscht. Ich habe das Gefühl, dass sich nach dieser Phase einige ziemlich schämen werden.
    • Intern nennen wir diesen Trend „Clippification“: wie Clippy, das ungefragt mit völlig unpassenden Hilfetipps aufpoppt. Wenn nacheinander AI-Chatbot-Pop-ups erscheinen, obwohl man sie gar nicht will, stören sie nur bei der Arbeit. Es fühlt sich an, als würde man gegen eine ganze Armee von Clippys kämpfen.
    • Ich bin eigentlich ein begeisterter AI-Befürworter und nutze AI aktiv fürs Programmieren, Schreiben und für Entscheidungen. Aber AI-Funktionen, die nachträglich in Nicht-AI-Apps eingebaut werden, sind meist schlampig angeflanscht, oft mit minderwertigen Modellen, offenbar nur um Kosten zu sparen. Wenn ich AI richtig nutzen will, müssen Frontier-Modelle wie chatgtp/claude/gemini ordentlichen Zugriff auf die Daten und APIs meiner Apps haben.
    • Das größere Problem als die Technologie selbst sind die Menschen: fanatische Befürworter, die Probleme leugnen, und dubiose Sales-Pitches von minderwertigen Startups. Die AI-Community reagiert auf Kritiker oft feindselig und untergräbt damit das Vertrauen in die Technologie noch weiter. Ich glaube nicht, dass viele unter solchen Bedingungen gerne zusammenarbeiten wollen.
    • Die Art und Weise, wie AI sinnvoll in Projekte eingebunden wird, ist in Wirklichkeit subtiler, bringt weniger Geld ein und liefert nicht den „Hype“, den Unternehmen wollen.
  • Bei Produkten wie Cursor und Windsurf beobachte ich, dass LLMs in großem Stil subventioniert werden. Diese Tools sind im Grunde Marketinginstrumente für LLMs, und ein Blick auf die Investorenstruktur macht das noch deutlicher. Mir war nicht klar, wie hoch die Betriebskosten solcher Dienste sind und wie dringend sie eine schnelle Massenverbreitung brauchen. Ich frage mich, wie schnell diese Durchdringung wirklich erzwungen werden soll.

  • Die wichtigsten AI-Gatekeeper kämpfen bereits jetzt beim Betrieb großer Modelle mit Engpässen und Skalierungsproblemen. Ohne grundlegende technologische Durchbrüche wird sich daran wohl nichts ändern. Je stärker die Welt auf AI ausgerichtet wird, desto abhängiger werden wir von diesen Gatekeepern und ihren Compute-Ressourcen. Ich befürchte Preissteigerungen für bevorzugten Zugang oder Priorisierung von Ressourcen. Und wir sind noch nicht einmal bei Wearables angekommen.
    Alle Nutzerdaten müssen an diese Gatekeeper gesendet werden, und obwohl sich ohnehin immer mehr Daten in die Cloud verlagern, war der wirtschaftliche Anreiz zum Auslesen und Wiederverwerten früher geringer, sodass mein Wissen und meine personenbezogenen Daten weniger exponiert waren. Mit der erzwungenen Einführung von AI wird aber immer intransparenter, wer die Modelle betreibt und wohin meine Daten gehen. Die unzureichende Genauigkeit von LLMs ist ein Problem, aber die Konzentration von Gatekeeper-Macht und Daten ist genauso besorgniserregend. Ich habe Sorge, dass wir aus Bequemlichkeit billigere Betriebsmodelle wählen und dafür Qualitätsverluste in Kauf nehmen.

    • In unserem Büro betreiben wir seit einem Monat testweise einen eigenen LLM-Server aus Datenschutz- und Informationssicherheitsgründen. Eine einzelne RTX 5090 deckt die sporadische Nutzung von rund 50 Personen problemlos ab. Das Modell Qwen3 32b erreicht Benchmarks auf dem Niveau von GPT 4.1-mini oder Gemini 2.5 Flash. Bei zwei gleichzeitigen Anfragen und 32k Kontext hatte ich erwartet, dass eine GPU nicht reicht, aber in der Praxis nutzt eben kaum jemand 24 Stunden am Tag ein LLM.
    • Normale Verbraucher sind am Ende selbst das Produkt, zahlen also nicht mit Geld, sondern mit Daten. Für Kreative, also Content- und App-Entwickler, hängt viel davon ab, wie lange der Markt wettbewerbsintensiv bleibt. Wenn wegen Regulierungshürden nur wenige große Anbieter übrig bleiben, könnten die Kosten explodieren.
    • Die realistische Skalengrenze liegt weniger bei den Modellanbietern als beim Stromnetz. Pro Mensch liegt der Energieverbrauch bei etwa 250 W, der menschliche Körper selbst braucht rund 100 W, und mit Ruhezeiten ist die effektiv nutzbare Arbeitszeit deutlich kürzer. Wenn AI heutige Büroangestellte ersetzen soll, müsste sie wesentlich energieeffizienter sein als Menschen. Bei der aktuellen Energieeffizienz von AI und dem Tempo des PV-Ausbaus in Japan halte ich einen Eins-zu-eins-Ersatz der Menschheit vor 2032 für unwahrscheinlich. Die heutigen Open-Weight-Modelle sind zwar noch nicht SOTA, aber bereits nützlich. Durch Zustimmungsmechanismen zur Datenweitergabe wie unter der GDPR ist Datenschutz ohnehin schon bedroht, aber das Risiko zentralisierter datenbasierter Vertrauenssysteme bleibt weiterhin real.
  • Ich stimme der Grundaussage insgesamt zu, aber der etwas holprige Stil des Autors lässt mich fragen, ob der Text vielleicht von AI mitgeschrieben wurde. Für alle vom Autor genannten Funktionen gibt es Open-Source- oder günstige bezahlte Alternativen. In bestimmten Bereichen wie bei Versicherungen scheint der Einsatz von AI wegen öffentlichem Druck oder Service-Lock-in allerdings kaum vermeidbar. Man könnte argumentieren, dass echte Nutzer es wollen, weil ChatGPT weltweit zu den meistgenutzten Websites gehört, aber ich sehe zwei berechtigte Gegenargumente. Erstens gibt es zahllose Beispiele dafür, dass Popularität nicht automatisch Zahlungsbereitschaft bedeutet. Waren kostenpflichtige soziale Netzwerke je wirklich populär? Zweitens wollen nur sehr wenige Nutzer, dass populäre Websites in völlig andere Lebensbereiche eindringen und den Alltag vollständig dominieren.

  • Ich habe gerade eben zum ersten Mal gesehen, dass Gmail eingehende E-Mails für mich zusammenfasst. Bitte nicht. Ich lese meine E-Mails selbst, und eine unnötige Zusammenfassung vergrößert nur noch die Menge an Text, die ich lesen muss. Für Nutzer, die massenhaft E-Mails von Kollegen mit unklarer Priorität erhalten, mag das nützlich sein, aber in meinem privaten Konto kommen alle Nachrichten von Freunden, und der Rest gehört nicht zusammengefasst, sondern direkt in den Papierkorb. Für Gmails Spam-Filter bin ich allerdings wirklich dankbar.

    • Wenn künftig auch die Spam-Filterung von LLMs übernommen wird, dann ist der Tag vermutlich nicht mehr fern, an dem Spammer oder Hacker E-Mails mit eingebetteten Anweisungen verschicken, die Schwachstellen von AI ausnutzen.
  • Ich stimme dem Inhalt dieses Beitrags vollkommen zu. „AI“ mag für mittelmäßige Betrüger einen kleinen Markt schaffen, für die meisten Nutzer ist sie aber Spam, ähnlich wie Clippy, das auch niemand wollte. Hoffentlich verschwindet AI eines Tages genauso wie Clippy.

  • Ich stimme der Behauptung „Alle wollten das Internet“ nicht zu. Viele hatten bis vor dem Smartphone-Zeitalter überhaupt kein Interesse daran, und Smartphones haben sich durchgesetzt, weil sie im Vergleich zum Desktop zwar unbequemer, aber viel praktischer sind. „Unbequemer, aber bequemer“ ist dieselbe Marketinglogik wie bei AI, daher nehme ich an, dass die Masse AI am Ende ebenfalls akzeptieren wird.

    • In den Niederlanden wurde um 1997 in Straßeninterviews gefragt, ob die Leute ein Mobiltelefon wollten, also kein Smartphone, und die überwältigende Antwort war: „Brauche ich nicht.“ Widerstand gegen neue Geräte ist also ein ganz normales Phänomen.
    • Vielleicht ist schon die Grundfrage falsch. Niemand wusste, welche langfristigen Folgen Internet und Mobile haben würden, also dominierte einfach Zukunftsoptimismus. Auch Kokablätter galten anfangs einmal als Wundermittel. Die mobile Revolution hat die Gesellschaft massiv verändert, und ich bedaure, dass wir nicht mehr in die frühere Zeit zurückkönnen. Ich vermute, dieses Gefühl habe nicht nur ich.
    • Ich nutze das Internet seit meiner Kindheit in den frühen 90ern. Wenn eine neue Technologie auftaucht, betrachten Menschen sie zunächst mit Staunen, halten sie für eine Welt von Nerds, die nichts mit ihrem Alltag zu tun hat, und tauchen dann vorübergehend darin ein.
    • Das Internet war eine Veränderung, die alle wollten. Hype und schnelle Verbreitung gehörten dazu. Natürlich ist „alle“ übertrieben, so wie es auch bei Elektrizität oder dem Telefon Ludditen und Skeptiker gab. Trotzdem war der Dotcom-Boom genau die Art Entwicklung, die sich jede neue Industrie wünscht.
  • Das fühlt sich an, als würde man gegen die Luft reden. Das Problem mit AI ist so subtil, dass die meisten schon zufrieden sind, wenn sie nur „ganz brauchbare Antworten“ bekommen, ohne zu erkennen, was für ein neuartiges kreatives Werkzeug auf dem Niveau einer natürlichsprachlichen Programmiersprache das eigentlich ist. Für wiederholbaren Erfolg braucht man wirksame Prompts, aber die wenigsten machen sich diese Mühe. Sogar Diskussionen über Prompt Engineering werden mit der Frage abgetan, ob das Schreiben von Prompts überhaupt Engineering sei. Dabei ist genau das ein hochkomplexer technischer Prozess, den die Branche ernst nehmen müsste. Kaum jemand versteht die subtile Stärke von LLMs wirklich, und im Mainstream gelten sie eher als Betrug.

    • Der Kern von „Engineering“ ist Vorhersagbarkeit und Wiederholbarkeit. LLMs sind nicht vorhersagbar; mit jeder Modelländerung ändert sich auch, wie Eingaben interpretiert werden, wodurch der Beruf des Prompt Engineers letztlich sinnlos wird. Es gibt zu viele unbekannte Faktoren wie Trainingsverfahren, Trainingsdaten und Bias. Ein großartiger Prompt für Gemini 2.5 Pro kann in der nächsten Version schon wertlos sein. Bei dynamischen, „selbstverbessernden“ Modellen ist es noch schlimmer. Ist das, was man „Vibe coding“ nennt, am Ende nicht einfach „Vibe prompting“?
    • Wenn es mehr Mühe und Energie kostet, ein Problem mit AI zu lösen, als es selbst zu lösen, dann ist es effizienter, es direkt selbst zu machen. Wenn umständliches Prompt Engineering zwingend nötig ist, dann ist das ein Zeichen dafür, dass man das Niveau des Software Engineerings nicht erhöht hat. Ich brauche weder Autovervollständigung noch Tipp-Hilfen. Wenn es mehr geistige Arbeit verlangt, sinkt der Wert für mich.
    • Wenn diese Art nichtdeterministischen Software Engineerings zuerst erfunden worden wäre, hätte man später wohl den Entwicklern der Programmiersprache C ein Denkmal gesetzt.
  • Warum sind CEOs so auf AI fixiert? Weil Aktieninvestoren schon allein auf das Schlagwort „mit AI“ sofort anspringen. Genau diese Investorennachfrage hält das „AI-Geschäftsmodell“ vor dem Zusammenbruch. Es ist letztlich eine Blase, aber eine, die sich noch eine ganze Weile halten kann.

    • Außerdem wollen Plattformen mit ohnehin riesigen Nutzerbasen wie Microsoft, Google, Meta und Apple zusätzliche AI-Interaktionsdaten einsammeln, daraus eigene Trainingsdaten und Insights gewinnen und von A/B-Tests profitieren. Gleichzeitig wollen sie verhindern, dass andere wie Anthropic oder Deepseek diese Daten abgreifen und damit konkurrieren.
    • AI steigert in vielen Bereichen bereits die Produktivität, und auch wenn kurzfristig vieles eine Blase ist, war es historisch bei fast jeder Technologie so, dass es Blasen gab, bis der Markt gesättigt oder monopolisiert war.
  • ChatGPT gehört weltweit zu den fünf populärsten Websites und wächst schnell. Ein so populäres Produkt lässt sich nicht allein mit Marktresistenz erklären. Auch bei Instagram ist die tatsächliche Zahlungsbereitschaft verschwindend gering, vielleicht bei 8 %. Ist Instagram deshalb ein aufgezwungenes Produkt, das die Leute gar nicht wollen?

    • Wenn man Leute fragen würde, ob sie Facebook-, Twitter- oder sogar Hacker-News-Feeds zufällig in Shopping-Seiten oder Arbeits-E-Mails eingestreut haben möchten, würden die meisten vermutlich nein sagen. Selbst große Websites sind nicht automatisch dafür geeignet, wahllos in jede Umgebung eingebaut zu werden.
    • Mein 75-jähriger Vater nutzt Claude inzwischen praktisch für alle Suchen statt Google. Nur die Leute um die 30 in meinem Umfeld lehnen AI aktiv ab. Diese Altersgruppe scheint sich so lange an eine weitgehend unveränderte Umgebung gewöhnt zu haben, dass sich dieser Zustand verfestigt hat.
    • ChatGPT kann ich gezielt aufrufen, wenn ich es nutzen will. Was ich nicht brauche, ist ein langsames, schlecht umgesetztes Chat-Interface, das mir in jeder App und auf jeder Website aufgezwungen wird. Ich brauche keinen neuen Chat, der langsam ist, Funktionen schwer auffindbar macht und mich durch ungenaue Antworten in die Irre führt.
    • Ich habe gestern das Spiel Quordle heruntergeladen, und einer der Hauptvorteile der Bezahloption war ein „AI-Chatbot im Spiel“. AI reicht völlig, wenn ich sie dann nutzen kann, wenn ich will, und in dem Umfeld, das ich mir aussuche. Nur weil ich sie in einem bestimmten Bereich nutze, heißt das nicht, dass ich sie überall wahllos eingebaut haben will.
    • Tatsächlich fühlen sich Facebook und Instagram für mich wie der Öffentlichkeit „aufgezwungene“ Produkte an. Sie sind faktisch zu Pflichtplattformen für soziale Interaktion mit dem eigenen Umfeld geworden. Deshalb nutze ich weder Facebook Marketplace noch Instagram Reels. Zwangsbeschallung durch Werbung und erzwungene AI-Integration sind ähnliche Probleme.