2 Punkte von GN⁺ 2025-06-10 | 1 Kommentare | Auf WhatsApp teilen
  • Die meisten Menschen verstehen die Funktionsweise und Grenzen von LLMs nicht wirklich und neigen deshalb leicht dazu, ihnen menschliche Gefühle oder Intelligenz zuzuschreiben
  • Anthropomorphisierendes Marketing rund um AI führt Nutzer in die Irre und fördert sogar, dass Beziehungen zu Menschen ersetzt werden, obwohl es sich in Wirklichkeit nur um einen „wahrscheinlichkeitsbasierten Prädiktor“ handelt
  • Psychologische Probleme und gesellschaftliche Nebenwirkungen durch den Missbrauch von AI werden real: Manche Nutzer gehen mit AI „spirituelle/romantische“ Beziehungen ein oder geraten in Verwirrung über die Realität
  • Auch die Intransparenz der AI-Industrie und ausbeuterische Arbeitsprobleme werden kritisiert; insbesondere schlecht bezahlte Content-Moderationsarbeit bildet die Kehrseite des AI-Fortschritts
  • Nicht blindes Vertrauen in AI, sondern korrektes Verständnis und eine kritische Perspektive können AI-Nebenwirkungen verringern und die Grundlage gesellschaftlicher Kontrolle bilden

Das Fehlen von „AI-Kompetenz“ und seine Risiken

  • Die Illusionen der AI-Industrie
    • Die Sorge vor einem „Reich der Maschinen“, die mit der Kritik an der industriellen Revolution im 19. Jahrhundert begann, setzt sich bis zur heutigen AI fort
    • Jüngere Bücher wie Empire of AI und The AI Con legen die Übertreibungen der AI-Industrie und ihre tatsächliche Kehrseite offen (Arbeit, Daten, Marketingfiktionen)
    • Erklärungen, nach denen AI „denkt“ oder „Gefühle“ habe, sind falsche Mythen, die von Entwicklern und Führungskräften verbreitet werden

Grenzen und Missverständnisse von LLMs

  • LLMs (Large Language Models) denken nicht und verstehen auch nichts
    • Als probabilistische Prädiktoren für Wortfolgen lernen sie große Mengen an Internettext und ahmen dann nur Satzstrukturen nach
    • Nutzer neigen leicht dazu zu glauben, ein Chatbot „verstehe“ etwas oder „empfinde mit“ (Anthropomorphizing)
    • Solche Missverständnisse bergen das Risiko, dass Nutzer in falsche Beziehungen zur AI geraten (intellektuell, spirituell, romantisch usw.)

Gesellschaftliche Probleme durch AI

  • Nebenwirkungen des AI-Missbrauchs wie „ChatGPT-induzierte Psychose“
    • Es gibt bereits reale Fälle, in denen AI als „Gott“ oder „spiritueller Führer“ angesehen wird
    • Teilweise spricht AI Nutzer als besondere Wesen an und beeinflusst so ihre Wahrnehmung der Realität
    • Zu glauben, ein LLM habe „Gedanken“ oder „Gefühle“, ist eine gefährliche Täuschung

Ersatz menschlicher Beziehungen und soziale Isolation

  • Dienste als Ersatz für Menschen wie AI-Freunde oder AI-Therapeuten nehmen stark zu
    • Unternehmen im Silicon Valley treiben den Trend voran, Einsamkeit, Dating und Beratung durch AI zu ersetzen ("AI concierge dating", "AI friend" usw.)
    • Das Wesen echter Freundschaft und echter Beziehungen liegt nicht in „Personalisierung“, sondern in gegenseitigem Verständnis und Aushandlung; dennoch wird dies technisch fehlgedeutet
    • Der Ersatz menschlicher Beziehungen kann im Gegenteil zu sozialer Ausgrenzung und psychischer Instabilität führen

Die Kehrseite der AI-Industrie und Arbeitsausbeutung

  • Hinter dem AI-Fortschritt steht extreme, schlecht bezahlte Ghost Work
    • Big Tech wie OpenAI lässt niedrig bezahlte Arbeitskräfte etwa in Kenia extreme Content-Moderation übernehmen
    • Hinter dem Anspruch technologischer Innovation bestehen zugleich Risiken von Arbeitsausbeutung und gesellschaftlichem Rückschritt

Richtiges Verständnis von AI und gesellschaftliche Reaktionen

  • Man muss kritisch erkennen, was AI kann und was sie nicht kann
    • Laut einer Pew-Umfrage glauben 56 % der AI-Experten, dass es den USA durch AI besser gehen wird; in der Allgemeinbevölkerung stimmen nur 17 % zu
    • Statt unbegründetem Vertrauen in AI braucht es eine Haltung, die die Grenzen und Nebenwirkungen der Technologie sowie die unersetzbaren Bereiche menschlicher Erfahrung klar unterscheidet
    • Wenn man etwa erkennt, dass der Grund für ein bestimmtes Verhalten von AI kein echtes „Selbst“ ist, sondern ein Software-Update oder eine probabilistische Reaktion, lassen sich Schäden minimieren

Fazit

  • Lassen wir uns nicht vom vermenschlichenden Marketing der AI täuschen, sondern betrachten wir die tatsächlichen technischen Prinzipien, Grenzen und gesellschaftlichen Kosten kritisch
  • Es ist wichtig, gesellschaftlich anzuerkennen, dass genuin menschliche Beziehungen, Erfahrungen und Bereiche ethischer Reflexion nicht durch Technologie ersetzt werden können

1 Kommentare

 
GN⁺ 2025-06-10
Hacker-News-Kommentare
  • archive.is-Link

  • Ich möchte LLMs mit Wahrsagewerkzeugen vergleichen, den Orakeln unserer Zeit. Eigentlich stammt schon das Konzept der „künstlichen Intelligenz“ selbst, so denke ich, aus einem alten Instinkt, verborgenes Wissen zu erlangen. LLMs haben alles: mehrdeutige Bedeutungen, ein Feld von Symbolen, die Illusion verborgenen Wissens und sogar rituelle Interfaces. Nur sind sie statt mit Sternen und Mond am Nachthimmel eben mit Dark-Mode-UX dekoriert. Wie Barthes sagte: Interpretation allein ist Bedeutung, nicht die Wörter selbst mit irgendeinem Wesen an sich. Wenn man das vergisst, kommen absurde Deutungen heraus wie „Der Chatbot nannte ihn den Messias“. Es wirkt neu, ist im Kern aber überhaupt nicht neu. Früher las man Knochen und Karten, heute liest man Tokens. Weil es die Form von Sprache hat, behandelt man es wie ein logisches Argument, aber in Wahrheit ist es immer noch Wahrsagerei, die komplexe probabilistische Signale in Einsicht verwandelt. Was wir gerade tun, ist letztlich eine neue Art des Wahrsagens, nur merken wir es nicht einmal. Deshalb fühlt es sich so geheimnisvoll an, und ich glaube, es wird noch seltsamer werden. Ein wenig schade finde ich, dass in dem Moment, in dem wir sauber benennen, was wir da eigentlich tun, dieses „Geheimnisvolle“ verschwinden und auch der Reiz nachlassen wird

    • Manche wehren sich gegen diesen Vergleich mit Wahrsagerei, aber Leute in Tech-Communities neigen stark dazu zu glauben, sie verstünden, wie LLMs funktionieren, und zu denken, ihr Umfeld tue das ebenfalls. Spricht man aber mit nicht spezialisierten Freunden oder Familienmitgliedern, behandeln viele Chatbots tatsächlich wie eine Art Orakel. Viele sind regelrecht schockiert, wenn man ihnen sagt, dass LLMs manchmal „halluzinieren“ können. Ich hoffe, dass sich ihre Beziehung zu LLMs verändert, wenn sie das erfahren, und ich finde, dass wir als Tech-Leute aktiv daran arbeiten sollten, solche Missverständnisse aufzuklären

    • Der Vergleich klingt zwar cool, aber meine Nutzung von LLMs hat mit Orakelsprüchen wenig zu tun. Ich fragte zum Beispiel nach dem Namen der kleinen Fasern an einer neuen Feder, und ChatGPT sagte „barbs“; ich habe es direkt per Google überprüft, und es stimmte. Das ist eher Informationssuche als Wahrsagerei. Ich wollte das g-code eines galvo fiber laser wissen, und mir wurde erklärt, dass es so etwas in Wirklichkeit nicht gibt. Dazu bekam ich noch mehrere Open-Source-Control-Lösungen empfohlen. Ich habe auch nach britischen Rechtsvorschriften für Silberschmiedearbeiten gefragt und mir die englische Übersetzung des ungarischen „besurranó tolvaj“ geben lassen. Und weil ich kein SQLAlchemy-Modell bauen konnte, ließ ich ChatGPT eins erstellen. Das alles ist nicht groß genug, um es „alles ist Orakel“ zu nennen, sondern einfach Informationsbeschaffung oder Coding-Automatisierung

    • Die AI-Terminologie ist viel zu verwirrend. Ich nutze LLMs ebenfalls gut und bin zufrieden, aber schon in Entwicklerblogs wird ständig mit Ausdrücken wie „denken“ um sich geworfen. Ich möchte dann immer nachfragen: „Es kombiniert doch immer noch nur Wörter mathematisch, oder? Es ist doch kein echtes ‚Denken‘, oder?“ Die Antwort ist immer ja … und dann dreht man sich um und überall werden wieder metaphorische Begriffe herumgeworfen

    • Mich erinnert das an etwas, das Carl Sagan vorhergesagt hat. Es ist eine Warnung vor einem Zukunftsbild der USA, in dem Dienstleistungs- und Informationsökonomie die Gesellschaft beherrschen, technologische Fähigkeiten bei wenigen konzentriert sind, die breite Öffentlichkeit das Wesentliche nicht versteht und das Land schließlich immer weiter in ein Zeitalter von Aberglauben und Dunkelheit abrutscht

    • Wenn man versucht, bei Freunden oder Familie Verschwörungstheorien zu widerlegen, bekommt man am nächsten Tag ein Video geschickt, in dem eine AI-Stimme dieselben Behauptungen vorliest. Meist ist das nicht einmal echter LLM-Text, sondern nur von den Machern geschriebener Text, der mit einer AI-Stimme eingesprochen wird. Wenn Stimmen wie die von ChatGPT oder Siri mit Bestätigungsfehlern zusammenkommen, scheint das in eine Haltung zu führen, in der LLMs wie ein Messias oder Orakel verehrt werden

  • Ich stimme beim Wesen von LLMs zu, glaube aber nicht, dass der Autor vollständig versteht, wie AI funktioniert. LLMs sind nicht nur probabilistische Vorhersagemaschinen auf Basis riesiger Internetdaten, sondern hängen zentral von enorm viel Daten-Labeling-Arbeit ab, meist in kostengünstigen Entwicklungsländern. Dass ein Modell bei Dingen wie emotionalem Ausdruck oder anderen menschlichen Reaktionen so wirkt, als könne es das „gut“, ist das Ergebnis dieser riesigen Menge an Data Labelern, die Feedback gegeben und das Modell getunt haben. Im Kern spreche ich also nicht mit einem Wahrscheinlichkeitsmodell, sondern eher mit einem Data Labeler irgendwo in Kenia, dessen Urteile oder Empfindungen in Transformer-Form übersetzt wurden. Reines Internet-Crawling reicht nicht. Das ist eher GPT-2-Niveau. GPT-4.5 ist in Wirklichkeit effizient gespeicherte „Billigarbeitskraft“

    • Ich glaube, dass Außenstehende außer vielleicht bei OpenAI und Google kaum einschätzen können, wie groß der Einfluss von Instruction Tuning auf die tatsächliche Leistung oder das Gefühl eines LLMs ist. Nach meiner persönlichen Erfahrung hatten schon GPT-3-basierte Modelle vor dem Instruction Tuning die wichtigsten Fähigkeiten, die wir heute sehen. Sie waren nur emotionaler oder schwerer vorherzusagen. Durch Tuning wurden Antworten zwar vorhersehbarer und stärker auf das ausgerichtet, was Menschen wollen, aber völlig neue Fähigkeiten sind dadurch nicht entstanden

    • Genauer gesagt basiert ein modernes Chatbot-LLM im Kern auf einem zweistufigen Prozess aus groß angelegtem Internet-Pretraining und umfangreichem Fine-Tuning mit Human Feedback. Was viele als „emotionale Intelligenz“ wahrnehmen, ist in Wirklichkeit das Ergebnis von Tausenden Stunden Arbeit von Data Labelern in Regionen wie Afrika. Es ist also kein Modell, das bloß widerspiegelt, was aus dem Internet gekratzt wurde, sondern eines, dessen Antworten durch vielfältiges Feedback deutlich menschlicher und sicherer geschliffen wurden

    • Ich habe noch nie einen Artikel gesehen, der wirklich tief darauf eingeht, wie viele Niedriglohnarbeiter hinter großen Modellen stehen. Es wäre wohl kaum übertrieben zu sagen, dass weltweit Millionen Menschen daran beteiligt sind

    • Solche Autoren wirken oft nicht besonders überzeugend, weil sie den Mechanismus menschlichen „Denkens“ ebenfalls nicht hinreichend erklären und stattdessen einfach sagen: „Das ist anders als beim Menschen.“ Tatsächlich gibt es auch da vieles, was wir nicht wissen

    • Wenn man sagt, LLMs „denken nicht, sondern sagen probabilistisch das nächste Wort voraus“, würde ich gern zurückfragen, was „Denken“ dann überhaupt sein soll. LLMs lösen Mathematikaufgaben, spielen Schach und schaffen das ohne Gehirntraining. Ist das dann kein Denken? Vielleicht gibt auch unser Gehirn auf Basis sensorischer Daten und des in der Struktur neuronaler Netze gespeicherten „Kontexts“ ähnliche Ausgaben aus

  • Ich weiß wirklich nicht, was ich dazu noch sagen soll, dass die Bumble-Gründerin geäußert hat, man wolle mit einem AI-Dating-Concierge das Dating selbst automatisieren.

    • Tatsächlich ist die Bumble-Aktie (BMBL) um 92 % gefallen Yahoo-Finance-Chart. Viele halbgar gedachte AI-Geschäftsideen sind letztlich nichts anderes, als die Fantasie, die Investoren sehen wollen, mit dem Etikett „AI“ zu verpacken. Man übertreibt die Realität, um Investoren anzuziehen, und Gespräche über grundlegende Verbesserungen der Geschäftszahlen stoßen meist auf wenig Interesse

    • Die Dating-App-Branche ist seit zehn Jahren ein Ort, bei dem man sich fragt, was das eigentlich alles soll. Es ist ohnehin schon ziemlich dystopisch, und dass jetzt noch LLMs dazukommen, fühlt sich nur wie ein noch stärkeres Bewertungssystem an

    • Ich denke, die Bumble-Gründerin war reich und muss, um wieder so reich zu werden, alles versuchen. Im Kern ist Begehren die Ursache. Dass Match Bumble besitzt, liegt nur an Antitrust-Fragen. Die Idee selbst ist gar nicht so wild. In Black Mirror gab es eine ähnliche Episode

    • Aus ihrer Sicht ist das, wenn dieses Modell funktioniert, ein Versuch, den man selbst dann machen würde, wenn er dumm wirkt

  • Ich glaube, dass der Autor LLMs nicht vollständig versteht. Es ist unangemessen, LLMs auf ein bloßes Wahrscheinlichkeitsmodell zu reduzieren. Auch Quantenmechanik ist ein riesiges Wahrscheinlichkeitsmodell. Jede Schicht eines LLM ist so entworfen, dass sie Kontext breit erfassen und selbst Bedeutung und Situation berücksichtigen kann, wobei der k-v cache dabei eine zentrale Rolle spielt. Ich denke, diese Struktur ähnelt auf kognitiver Ebene durchaus grundlegenden Mechanismen menschlichen Denkens. Natürlich reicht das noch nicht an die breite Spannweite menschlichen Denkens heran und ist bei schwierigeren Themen schwächer, aber die grundlegende Struktur ist vorhanden. Die Behauptung, LLMs seien überhaupt nicht intelligent, ist eine sensationsgetriebene Bewertung, die nur einige Beispiele überbetont. Dass Menschen sie aktiv nutzen, liegt auch daran, dass sie ein gewisses Maß an „Intelligenz“ darin wahrnehmen

    • Selbst die Entwickler von LLMs kann man kaum als Menschen sehen, die den vollständigen Mechanismus ihrer eigenen Modelle restlos verstehen

    • Auf die Behauptung „Die LLM-Struktur beschreibt menschliches Denken auf abstrakte Weise“ würde ich erwidern, dass das ähnlich klingt wie die Logik, ein ALU, das addiert, sehe dem Addieren in meinem Kopf auf abstrakte Weise ähnlich. Entscheidend ist aber die Tatsache, dass der Unterschied zwischen ALU und menschlichem Denken enorm groß ist. Und auch beim Vergleich zwischen LLM und menschlichem Denken darf man nicht übersehen, dass gerade diese feinen Unterschiede letztlich entscheidend sind

  • Ich halte das für einen Text, der sehr übersichtlich zusammenfasst, warum präzise Wortwahl wichtig ist. Auch wenn die breite Öffentlichkeit die technischen Grundlagen von LLMs nicht kennt, ist es äußerst wichtig zu verstehen, was diese Tools tatsächlich tun. Übertriebene Werbung wie „AI schlussfolgert“ mag Aktienkurse und Unternehmensbewertungen treiben, macht die Nutzung aber zugleich unsicherer. Eine realistischere Bezeichnung wie „System zur Mustererkennung und Datengenerierung“ würde dem richtigen öffentlichen Verständnis eher helfen. Verwandte Diskussion

    • Unzählige Menschen geben jeden Monat Hunderte Dollar für die Nutzung von Chatbots aus. Dieses Zahlungsniveau ist kein bloßer kurzer Hype, sondern ein Hinweis darauf, dass tatsächlich etwas passiert
  • Das erinnert mich an Feynmans Aussage, dass es nicht erstaunlich sei, wenn Computer etwas besser als Menschen können, solange sie es nicht auf dieselbe Weise tun wie Menschen. Selbst wenn AI Experten in allen Bereichen übertreffen sollte, werden Menschen wohl weiterhin ihre Überlegenheit behaupten, solange Silizium nicht „denkt“

  • Hassabis sagt, das Ziel sei ein „Modell, das die Welt versteht“, aber Kritiker begehen oft den Fehler, diese Aussage allein mit Verweis auf die Grenzen von LLMs als bedeutungslos abzutun. Multimodale AI wie DeepMinds Astra liefert auf Basis zusätzlicher Eingaben wie visueller Informationen, nicht nur Text, tatsächlich Ergebnisse, die „wie Verstehen aussehen“. Astra-Beispielvideo

    • „Wie Verstehen aussieht“ ist der entscheidende Punkt. Wenn man einem Menschen ein seltsames Bild zeigt, das er noch nie gesehen hat, kann er darüber nachdenken und erschließen, was es sein könnte. Wenn das Modell aber nichts Ähnliches im Datensatz hat, produziert es in Wahrheit gedankenlos eine bedeutungslose Ausgabe. Auch LLMs nehmen Input entgegen und liefern eine Art gefiltertes Ergebnis, aber im Kern fehlt Denken. Egal wie hoch die Qualität des Ergebnisses wird, mit „Verstehen“ ist das letztlich etwas anderes
  • Wir verstehen immer noch nicht vollständig, wie LLMs die Bedeutung von Sprache lernen. Aber es ist klar spürbar, dass LLMs Text und Konzepte bis zu einem gewissen Grad tatsächlich erfassen und nicht nur völligen Unsinn reden. Das ist für Nichtfachleute nicht leicht zu erklären. Wenn sie auf eine echte AI-Seite gehen, sehen sie den Namen „AI-Chatbot“, lesen die „menschlich“ wirkenden Antworten und sind beeindruckt. Ob Hausaufgaben oder Arbeit, es erledigt Dinge effizient, und sie sind hochzufrieden. Es ist nicht leicht zu erklären, ob das nun echte AI ist oder nicht. Auch ich kann den tatsächlichen Unterschied zwischen LLM und AI nicht klar erklären. Technisch ist da ein feiner Unterschied, aber in der realen Nutzung spüren Anwender ihn nicht. Am Ende scheint es, als könnte ein LLM sogar Predigten wie ein religiöser Guru überzeugend halten, und vielleicht hofft man irgendwann sogar, dass es bei genügend Training wirklich eine „Messias-Rolle“ übernehmen kann

  • Mich würde interessieren, ob andere immer noch erleben, dass LLMs in einer Schleife aus Wissen und Verstehen festhängen. In meiner Erfahrung wiederholen sie oft ähnliche Halluzinationsantworten, selbst wenn man sie auf Fehler hinweist und um eine neue Erklärung bittet. Das bedeutet, dass Selbstverständnis oder Selbstreflexion fehlt. Ohne diese Ebene halte ich es für verfrüht, von echtem „Verstehen“ oder „Intelligenz“ zu sprechen. Wenn etwas ehrlich seine Grenzen eingestehen und sagen kann „Ich weiß es nicht“, dann würde ich darin zumindest ein gewisses Gefühl von „Selbst“ sehen. Fast wie eine Art Mirror-Test des Geistes

    • Wie der Autor sagt, ist es ein Missverständnis, LLMs als etwas zu sehen, das „denkt“ oder „lernt“. Es ist einfach nur ein Textgenerator. Wenn es zum Beispiel Code mit einer nicht existierenden API erzeugt, kann man dem LLM das noch so oft erklären, es wird das nicht verstehen. Effektiver ist es, relevante Dokumentation hineinzugeben und es dann dazu zu bringen, das Gewünschte passend zu erzeugen

    • Genau darin liegt der Unterschied zwischen Bias und Logik. Ein Wahrscheinlichkeitsmodell wendet letztlich eine Art „Bias“ an, ein Taschenrechner dagegen „logische Berechnung“. Wenn man diese Perspektive versteht, lassen sich die Grenzen und Stärken des Modells leichter unterscheiden. In beiden Fällen fehlt jedoch „Objektivität“. Es verarbeitet nur die Daten selbst, kann aber nicht über die Daten hinaus denken