- Dieser Text ist ein Manifest eines Hassers, das über bloße Kritik an AI hinausgeht, und zeigt die ablehnende Haltung des Autors, der AI als eine unverschämte Technologie bezeichnet und zurückweist
- Der Autor erwähnt, dass die üblichen Kritiken an AI — Umweltschäden, Verstärkung von Vorurteilen, Ausbeutung von Arbeit, Urheberrechtsverletzungen, Überwachung und Belästigung — bereits ausführlich diskutiert worden seien
- Im Mittelpunkt des Textes steht die Behauptung, dass die Ziele von AI-Unternehmen selbst unmoralisch sind; kritisiert wird der Versuch, Kunst und menschliche Tätigkeiten zu ersetzen und neues „versklavtes Leben“ zu erschaffen
- Der Autor zitiert Miyazakis Aussage, um die Position zu bekräftigen, dass AI eine „Beleidigung des Lebens“ sei, und weist darauf hin, dass die großen Visionen von AI-Gründern (z. B. Dyson Sphere) haltlose Lügen seien
- Letztlich sei AI eine Technologie, die das menschliche Leben auszehrt, und ihre Zurückweisung sei ein Ausdruck von Menschlichkeit
- Wahre Menschlichkeit entstehe aus Verstehen, Denken, Empathie, künstlerischem Schaffen sowie menschlichem Mangel und Gefühlen, zu denen AI nicht fähig ist
Entschlossene Hass-Erklärung gegenüber AI
- Der Autor bezeichnet sich nicht als bloßen Kritiker, sondern als „Hasser“
- Das bedeute eine unhöfliche und entschlossene Zurückweisung von AI und sei ein Ausdruck von Ehrlichkeit, nämlich trotz sozialen Drucks nicht zuzustimmen
- Auch die häufig verwendeten „Ausnahmeklauseln“ zur Verteidigung von AI (irgendwann wird es nützlich sein, für bestimmte Zwecke ist es okay usw.) weist er zurück
- Er spottet über die gesellschaftliche Stimmung, in der alle so tun, als würden sie AI zumindest ein Stück weit akzeptieren, weil reiche und angesehene Menschen ihr gegenüber positiv eingestellt sind
- Mit der Erklärung „Ich bin ein AI-Hasser“ gibt er ehrlicher Abneigung den Vorrang vor Höflichkeit
Bereits vorgebrachte Kritiken an AI
- Der Autor listet die breit diskutierten bestehenden Probleme rund um AI auf
- Umweltschäden: der Energieverbrauch großer Rechenzentren
- Verstärkung von Vorurteilen und Diskriminierung: AI reproduziert gesellschaftliche und rassistische Vorurteile
- Kognitive Schäden: geschwächte Urteilskraft von Ärzten, Förderung von Suizid usw.
- Probleme mit Zustimmung und Urheberrecht: Datennutzung ohne Einwilligung, Aneignung kreativer Werke
- Überwachung, Betrug und Belästigung: verstärkte digitale Überwachung, botgestützter Betrug, Ausweitung von Online-Belästigung
- Ausbeutung von Arbeit und Entlassungen: schlecht bezahlte Datenlabeling-Arbeit, Entlassungen unter dem Vorwand der Automatisierung
- Mangel an Intelligenz: bloße Wahrscheinlichkeitsrechnung ist kein echtes Schlussfolgern
- Illusion von Produktivität: tatsächlich macht es Menschen langsamer
- Politischer Charakter: AI sei konservativ und im Wesen eine faschistische Technologie
- Da diese Probleme bereits hinreichend diskutiert worden seien, betont der Autor, dass es keiner weiteren „rationalen Debatte“ bedürfe
Grundsätzliche Kritik an den Zielen von AI-Unternehmen
- Der Kern des AI-Hasses liege darin, dass die von AI-Unternehmen verfolgten Ziele selbst falsch sind
- Gründer werden als eine Gruppe beschrieben, die den Wunsch habe, „die Kunst abzuschaffen“ und „neues Leben zu erschaffen, um es zu versklaven“
- Der Traum von AI sei es, perfekte Sklavenmaschinen zu bauen, die das menschliche Leben auszehren
- Unter Berufung auf Miyazakis Aussage („AI ist in ihrer bloßen Existenz eine Beleidigung des Lebens“) wird AI als „Beleidigung des Lebens“ bezeichnet
- Im Gegensatz dazu sei die von Sam Altman erwähnte Dyson-Sphere-Vision eine haltlose Lüge
- Das Problem bei den AI-Machern sei nicht, dass sie scheitern, sondern dass ihr Begehren und ihre Ziele selbst eine Beleidigung der Menschheit sind
- Ihr Ziel sei es, Kunst überflüssig zu machen und eine „neue Form des Lebens“ lediglich zu einem untergeordneten Wesen zu machen
Bedrohung für das menschliche Leben
- AI wird nicht bloß als technisches Problem beschrieben, sondern als ein Werkzeug, das menschliches Leben und Erleben aushöhlt
- Sie übernimmt Lesen, Schreiben und Denken und schwächt die Bedeutung menschlicher Beziehungen und Entscheidungen
- Sie fördert Unwissenheit und Isolation und degradiert den Menschen zu einem Wesen, das in einem „algorithmischen Uterus“ von Maschinen abhängt
- Selbst Nutzer, die AI „zum Spaß“ oder „aus Bequemlichkeit“ verwenden, versuchten sich zwar zu rechtfertigen, wirkten aber letztlich so, als würden sie am Verschwinden der Menschlichkeit mitwirken
Fazit: Das Wesen der Menschlichkeit
- Der Verfasser sei durch die Dinge, die AI niemals tun kann — Sprache lesen und verstehen, denken und Einsichten gewinnen, andere lieben, Kunst schaffen, mit körperlichem Mangel und Gefühlen leben — zu einem „Hasser“ geworden
- Weil AI zu einem solchen Fühlen und Verstehen nicht fähig ist, wird betont, dass nur der Mensch ein wahrer Kritiker (hater) sein kann
- Daher sei AI eine Technologie, die zerstört und zurückgewiesen werden müsse, und diejenigen, die sie erschaffen, seien „leere Menschen, die Unwissenheit und Ausbeutung preisen“
- Abschließend feiert der Autor seine eigene Menschlichkeit
18 Kommentare
Ich stimme voll und ganz zu, aber statt der Bezeichnung AI-„Hasser“ wäre vielleicht AI-„Verweigerer“ passender. Die im Wort „Hass“ enthaltene Bedeutung und Konnotation sind nicht gut, und Hass erzeugt schließlich immer wieder Hass.
Es steht ihm frei, es zu hassen, aber auch der Autor lebt im Zeitalter der KI. Vermutlich wurde auch dieser Text des Autors bereits in die Big Data von KI-Systemen aufgenommen.
Wo begann diese übersteigerte Selbstwahrnehmung, dass der Mensch etwas Besonderes sei?
„Da diese Probleme bereits ausführlich diskutiert wurden, betont der Autor, dass keine weitere ‚rationale Debatte‘ nötig sei“
Es wird nach wie vor über viele Punkte diskutiert, und ich halte das für nichts weiter als eine unproduktive Positionsbekundung, die lediglich eine persönliche Behauptung bzw. Meinung darstellt.
„Unter Berufung auf Miyazakis Aussage („AI ist in ihrer bloßen Existenz eine Beleidigung des Lebens“) wird AI als ‚Beleidigung des Lebens‘ definiert“
Hayao Miyazakis Meinung ist keine Haltung zur AI-Industrie oder zur AI-Technologie insgesamt und passt daher überhaupt nicht in den Gesamtkontext dieses Textes.
Tja
Wahlloses Crawling ist eindeutig falsch, aber ich denke, dass die heutigen LLMs nur die Teile der menschlichen Arbeit ersetzen, die eher repetitiver Arbeit nahekommen.
Verunstaltet nicht die Seele.
Thou shalt not disfigure the soul.
Erschafft keine Maschine nach dem Ebenbild des menschlichen Geistes.
Thou shalt not make a machine in the likeness of a human mind.
Bei anderem fällt es mir schwer, groß zuzustimmen, aber ist nicht gerade einer der Punkte, die bereits ausreichend diskutiert wurden und bei denen es keiner weiteren rationalen Debatte mehr bedarf, nur schwer zu widerlegen...?
Lässt sich ausgerechnet das nicht nur schwer entkräften?
So sehr AI auch nur ein Werkzeug sein mag – wenn dieses Werkzeug auf unethische Weise geschaffen wurde, halte ich es für völlig nachvollziehbar, es abzulehnen.
Manche mögen das für einen überzogenen, weit hergeholten Vergleich halten, aber
„ein Allheilmittel, das durch Menschenversuche vollendet wurde, die Hunderte Millionen Opfer hervorgebracht haben“ und „ein Sprachgenerierungsmodell, das durch unbefugtes Sammeln von Daten vollendet wurde, das Hunderte Millionen Geschädigte hervorgebracht hat“ unterscheiden sich meiner Meinung nach nicht grundlegend.
Zumal Ersteres immerhin zig Millionen Menschen geopfert hätte, um die Gesundheit von Milliarden Menschen lebenslang zu sichern, wohingegen Letzteres...
Es scheint wohl einfach eine unumstößliche Wahrheit zu sein, dass einem auf einer Party, auf der mit Geld um sich geworfen wird, sofort vorgeworfen wird, warum man die Stimmung ruiniert, wenn man versucht, ein vernünftiges Gespräch zu führen.
Das ist wirklich bedauerlich. Ich hoffe, der Verfasser findet seinen Frieden. Nun ja ... es ist nur ein Produkt. Weder eine Ethnie noch ein Geschlecht. Man kann es also durchaus hassen. Wenn man so eine Erklärung abgibt, wirkt es fast zwangsläufig so, als würde man sagen: Ihr solltet das auch tun. Und wenn man dann noch zusammennimmt, dass es an Überzeugungskraft fehlt, ergibt sich daraus eine schmerzliche Szene. Es ist eben auch eine Zeit, in der so etwas passiert.
Der Leser listet bereits vielfach vorgebrachte, weitreichende Probleme des Menschen auf
Da diese Probleme bereits ausführlich diskutiert worden seien, betont der Autor, dass es keiner weiteren „rationalen Debatte“ bedürfe.
Auf HN dachte ich noch: Werden solche Beiträge nicht langsam langweilig~~, aber als ich den Text öffnete, war er schon als
flaggedmarkiert.Langsam ist es wohl an der Zeit, nicht jedes Mal dieselbe Leier zu sehen.
Es ist doch nur ein Werkzeug.
Wenn es in den 90ern gewesen wäre, hätte ich wohl gesagt: Ich bin ein Excel-Hasser, es beeinträchtigt die menschliche Fähigkeit, Diagramme auf kariertem Papier zu zeichnen.
Wenn es Kritik an AI gibt, kommen irgendwie immer Stichworte wie Excel oder Messer auf. Ich finde, das sind Vergleiche, die ihre Rolle oder Funktion übermäßig verkleinern.
Wenn überhaupt, dann eher mit Atomwaffen.
Scheint zu stimmen. Das ist eine bemitleidenswerte Person. Sie sagt, sie hasse Werkzeuge; ich denke, das kann schon sein. Man könnte auch Messer hassen, weil sie Werkzeuge sind, mit denen man töten kann, und sie für unmenschliche Werkzeuge halten.
Hacker-News-Meinungen
Schön, diese Perspektive vertreten zu sehen. Ich persönlich stimme ihr zwar nicht zu, aber viele meiner Freunde vertreten diese Position, und ich finde, dass solche Ansichten respektiert werden sollten, auch wenn viele ihnen nicht zustimmen.
Ein Freund hat mir ein berühmtes IBM-Zitat in dieser Form abgewandelt geschickt:
"Computer können niemals böswillig oder [leidenschaftlich†] sein. Deshalb sollten Computer niemals Kunst erschaffen."
Das Wort "Hass" liegt näher an einem Gefühl, und viele Menschen, mich eingeschlossen, neigen dazu, emotionalen Argumenten mit logischen Gegenargumenten begegnen zu wollen.
Aber Gefühle sind real und menschlich. Menschen haben starke Gefühle gegenüber KI, und ich denke, wir brauchen Gespräche, die diese Tatsache anerkennen und respektieren.
† durch ein milderes Wort als im Original ersetzt
Picassos "Guernica" entstand aus seinem Hass auf den Krieg und auf die Auslöschung von Menschlichkeit.
Kein Computer kann die sinnlose Unmenschlichkeit des Krieges nachempfinden und deshalb ein solches Werk schaffen; Computer werden am Ende auf ewig nur nachahmen können.
Ich nutze KI selbst aktiv, verstehe aber die Kritik durchaus.
Als Softwareentwickler spüre ich den Produktivitätsgewinn ganz klar.
Selbst 10 Stunden Electro-Swing und andere von KI erzeugte Musik finde ich qualitativ sehr hochwertig.
Musikbeispiel: YouTube-Link
Das ist unterhaltsam und sehenswert, aber selbst wenn die Musik aus einem wirklich sorgfältig ausgearbeiteten Prompt entstanden ist, fühlt es sich anders an, sobald man weiß: "Das wurde einfach von KI erzeugt."
Solche kreativen Versuche haben durchaus Bedeutung, aber ehrlich gesagt fände ich es besser, wenn KI stattdessen mein Zimmer putzen würde.
Ich spiele immer noch selbst Musik, komme aber nicht an das Niveau heran, das KI in wenigen Minuten erzeugt.
Auch dieses eine Beispiel hat ziemlich viel Zeit gekostet, aber zum Glück ist das Ergebnis cool geworden.
Dann stellt sich eben die Frage, was all diese überversorgten Künstler künftig tun sollen.
Ich finde es noch unangenehmer, dass der ursprünglich etwas schärfere Ausdruck durch eine weichere Formulierung ersetzt wurde.
Ich frage mich, ob ein erheblicher Teil der starken Abneigung gegen KI bei den Führungskräften beginnt, die diesen Bereich dominieren.
Hass kann ein Gefühl sein, aber ihm können auch rationale Gründe zugrunde liegen.
Zum Beispiel ist Konkurrenz zwischen Menschen schon hart genug, und jetzt sollen wir auch noch mit Maschinen konkurrieren, die Menschen ersetzen. Das ist kein natürlicher Zustand, sondern eine gesellschaftliche Entscheidung.
Mir geht es genauso.
Schon wenn ich sehe, dass 99 % aller Produkt-Landingpages heute "AI" in den Vordergrund stellen, verliere ich eher das Interesse.
Eher würde mich ein Produkt mit dem Spruch "No AI bullshit" anziehen.
Natürlich ist das nur mein persönlicher Geschmack, und für Menschen ohne technischen Hintergrund ist KI in Wahrheit immer noch ein riesiges Thema und ein positiver Trend.
Wenn auf beliebige Produkte wahllos "AI!!1!" geklebt wird, ist das für mich ein Signal, dass dort am Ende Vertriebler und Business-Leute das Sagen haben, die von der Praxis keine Ahnung haben.
So sehen viele Firmen aus.
Solche Firmen werden meine tatsächlichen technischen Bedürfnisse am Ende nie verstehen und mir daher nicht helfen.
Wenn sich das zufällig einmal mit meinem Bedarf überschneidet, dann ist das wirklich nur Zufall.
Für mich ist die Erwähnung oder Anwendung von KI ein Signal dafür, dass dem Hersteller Qualität egal ist oder dass er nicht verstanden hat, dass KI an sich nichts Besonderes mehr ist.
Es fühlt sich an wie Plastik.
Marketing scheint keine Grenzen zu kennen.
Am Ende wirkt alles wie bloße Trickserei, die auf Emotionen abzielt.
Ob "No AI bullshit" oder "AI Inside" — ich sehe beides mit derselben Skepsis.
Unternehmen ziehen jeden Trick ab, solange sie damit Geld verdienen können.
Der KI-Hype unter Nichtfachleuten bläht die Branchenblase noch weiter auf.
Die KI-Debatte gibt mir inzwischen dasselbe Gefühl wie viele andere komplexe Themen heute.
Es ist leichter, extreme Positionen einzunehmen als differenzierte, deshalb werden ständig nur oberflächliche oder fragmentarische Artikel produziert, während tiefgehende Diskussionen kaum stattfinden.
Das scheint mir eine Krankheit der Gegenwart zu sein.
Ironischerweise könnte KI dieses Problem sogar noch verschärfen.
Meine Position ist etwas differenzierter.
In bestimmten Bereichen, etwa Speech-to-Text oder bei der Trennung von Audiospuren und Instrumenten, ist KI wirklich gut, aber insgesamt, vor allem bei Dingen wie LLMs, wirkt vieles extrem übertrieben.
Es ist kaum mehr als Google-Suche.
Ich denke, wir befinden uns gerade in einer KI-Blase.
Wenn diese Blase platzt, bleibt nur das praktisch Nützliche übrig und der Rest verschwindet.
Dann wartet man eben auf die nächste Blase.
In letzter Zeit fühlt es sich so an, als habe sich das Entwicklungstempo bei KI verlangsamt.
Früher hieß es noch: "Sie schreibt Code, besteht Prüfungen, erledigt kleine Aufgaben richtig gut."
Jetzt, nach einem bis anderthalb Jahren, ist es nur noch auf dem Niveau von "ein bisschen besser geworden".
Deshalb glaube ich, dass das Brauchbare bleiben und das Nutzlose verschwinden wird.
KI wird jetzt nicht mehr verschwinden; selbst wenn sie nicht besser wird, hat sie eine Existenzberechtigung, solange sie nützlich ist.
Die Nebenwirkungen (Externalitäten) sind real, und manches davon lässt sich beseitigen, manches abmildern.
Ich mag die Nebenwirkungen von KI nicht, aber die Technik selbst gefällt mir.
Ich möchte meine eigene, hochentwickelte, effiziente und private KI nutzen.
Wenn das gut gelöst wird, lassen sich viele Nebenwirkungen ebenfalls stark abmildern.
Vielleicht wird das eines Tages möglich sein.
Es ist erstaunlich, wie KI-Fans immer wieder gewaltsam zwischen ihre Argumente schieben, dass etwas "nützlich" sei.
Dass jede Technologie Vor- und Nachteile hat, bedeutet noch lange nicht, dass jede Technologie zwangsläufig auch Vorteile haben muss.
Bei GenAI scheint man besonders gut darin zu sein, solche leeren Behauptungen zu formulieren; man sollte echte praktische Anwendungsfälle nennen und erklären.
Ich würde gern wissen, worauf die Behauptung beruht, dass "KI bleiben wird".
Nutzt hier etwa noch jemand Groupon?
Es erinnert daran, dass auch Nützliches jederzeit verschwinden kann.
Wenn GenAI keinen Gewinn abwirft und irgendwann wie jetzt als nutzlos gilt, kann es genauso gut einfach verschwinden.
Wenn KI nur willkürliche Ergebnisse liefert, ist sie bedeutungslos; ich halte das für ihre Grenze.
"AI is an insult to life itself" – Hayao Miyazaki
Dieses Zitat werde ich jetzt auch benutzen.
Es wäre gut, den Kontext dieser Aussage zu prüfen.
Sie stammt aus einem Interview von 2016 und hat mit ChatGPT überhaupt nichts zu tun.
Miyazaki sagte das schockiert, nachdem er ein groteskes KI-Kunstexperiment gesehen hatte, in dem sich eine humanoide Figur bizarr bewegte und dabei ihren Kopf wie einen Arm benutzte.
Es ist natürlich lustiger, den Satz ohne den Videokontext zu zitieren, aber das war der Zusammenhang.
Soweit ich weiß, bezog sich diese Aussage auch nicht auf allgemeine KI-Fragen, sondern auf Ablehnung gegenüber einem bestimmten prozeduralen Animations-Experiment, das Studierende zeigten und das Bewegungen von Menschen mit Behinderung darstellte.
Möglicherweise kannte Miyazaki auch persönlich jemanden, der mit solchen Schwierigkeiten lebte.
Daher wurde die Aussage im Kontext wohl überinterpretiert.
Das tatsächlich zitierte Statement stand in einem anderen Kontext.
YouTube: Video mit Kontext
Aus der Sicht eines Künstlers, der die Welt mit den Augen eines Kindes einfängt, lässt sich ein solches KI-Experiment selbst als zutiefst schrecklich lesen.
Das ist ein falsches Zitat, also etwas "von Menschen Gemachtes".
Reddit: Erklärung zum Fehlzitat
Soweit ich weiß, hat er sich nie allgemein in dieser Form über KI insgesamt geäußert.
Das damalige experimentelle KI-Werk wirkte einfach zu unheimlich und stieß ihn deshalb ab; andererseits wäre es auch nicht überraschend, wenn Miyazaki KI tatsächlich nicht mögen würde.
Der Stimmungswandel auf Hacker News gegenüber GenAI ist interessant.
Konkrete Daten habe ich nicht, aber 2022 bis 2023 war die Grundstimmung wohl so, dass die meisten GenAI zwar faszinierend fanden, aber keine starke emotionale Bindung dazu hatten.
Schon damals gab es allerdings ziemlich viele skeptische Stimmen zur Technologie.
In letzter Zeit gibt es mehr Beiträge, die diese Technik fast evangelistisch vorantreiben und Dinge sagen wie: "LLMs haben mein Leben verändert."
Aber inzwischen tauchen auch wieder skeptische Posts auf, daher scheint sich die Stimmung leicht zurückzudrehen.
Persönlich vermisse ich einfach die Zeit, in der es wie früher hauptsächlich um nischige Hacker-Technikthemen ging.
Andererseits bin ich selbst durch den Titel dieses Beitrags hereingekommen, also kann ich niemand anderem die Schuld geben.
Für mich ähnelt der ganze Prozess eher dem früheren Krypto-Boom.
Wenn viel Kapital hineinströmt, tauchen immer wieder Menschen auf, die voller Überzeugung sagen: "Diesmal funktioniert es wirklich."
Ich kann der Formulierung "faszinierende Technologie" nicht zustimmen.
Als GitHub Copilot zum Beispiel erstmals auftauchte, gab es wegen der Lizenzfragen enorme Gegenreaktionen, und es wurde sogar über Boykotte gegen Microsoft gesprochen.
Mit der Zeit wird jede Technologie dann aber doch als weder so gut noch so schlecht wahrgenommen wie am Anfang.
Auch bei Mediengenerierung habe ich das seltsame Phänomen beobachtet, dass Leute, die anfangs wütend waren, inzwischen ganz selbstverständlich die KI-Funktionen von Photoshop nutzen.
Der eigentliche Einreichungsbeitrag interessiert mich nicht besonders, aber die Stimmung unter den HN-Nutzern interessiert mich immer.
Meinem Eindruck nach gab es über viele Jahre hinweg mehr negative Stimmen, und auch jetzt scheint sich diese Tendenz weiter zu verstärken.
Das Phänomen der "LLM-Evangelisten".
Die heutige KI-Branche fühlt sich exakt an wie die NFT-/Krypto-Blase vor ein paar Jahren.
Tatsächlich verkaufen viele der Leute, die früher NFTs verkauft haben, heute auf dieselbe Weise KI.
Unabhängig vom tatsächlichen Nutzen der Technologie wirkt die gesamte KI-Branche deshalb stark betrügerisch und nach Kredithai-Mentalität.
Schon 2022 wurden Diskussionen über "stochastic parrots" und Debatten über die "Singularität" lebhaft geführt.
Ich erinnere mich an diese Stimmung, als GPT-4 gerade herauskam.
Ich empfinde Unbehagen daran, dass Kritiker noch einmal die bekannten Punkte aufzählen — Umweltschäden, Voreingenommenheit, kognitive Schäden, Unterstützung bei Suizid sowie Fragen von Einwilligung und Urheberrecht.
Wurde nicht bereits von Google gezeigt, dass die Umweltschäden keinen großen Effekt haben?
Bei Bias und rassistischen Outputs weiß ich selbst nicht so viel; ich stelle solche Fragen einfach nicht ...
Was kognitive Schäden und Suizid betrifft, wird das in der Branche doch bereits fortlaufend diskutiert.
Es wirkt eher so, als würde aktiv darauf reagiert statt es zu ignorieren; so zu tun, als würde sich niemand darum kümmern, finde ich daher nicht ganz fair.
Einwilligung und Urheberrecht halte ich unter diesen Punkten für das überzeugendste Argument.
Auch dass KI meine
robots.txtignoriert und Texte abschöpft, gehört dazu, ebenso der Konflikt mit der Vorstellung vom Internet als öffentlichem Gut.Alles andere hängt letztlich von Emotionen und Erwartungen ab, also davon, wie jeder Einzelne es empfindet.
Als HPC-Administrator (High Performance Computing):
Schon ein CPU-Cluster mit 7 Racks verbraucht allein für das Computing 700 KW.
Einschließlich Kühlung ist es deutlich mehr, bei GPUs noch stärker.
Auch das Kühlwasser läuft etwa so, dass es mit 20 Grad hinausgeht und mit 40 Grad zurückkommt; am Ende muss diese Wärme also kontinuierlich an die Umwelt abgegeben werden.
Und das ist ein wirklich kleines System.
Wenn man bedenkt, dass dafür praktisch schon Kraftwerksniveau nötig ist und im großen Maßstab 24/7 Wärme in die Umwelt geblasen wird, erscheint mir die Behauptung fragwürdig, es gebe keinen Umweltschaden.
Für Wissenschaft oder temporäre Nutzung hält das Stromnetz oder die Umwelt das vielleicht noch aus.
Aber eine dauerhafte Nutzung wie beim KI-Training ist eine völlig andere Last und keineswegs harmlos.
Auch im Hinblick auf kognitive Schäden gibt es Studien, wonach sich bei übermäßigem KI-Gebrauch neuronale Netzwerke im Gehirn verändern und bestimmte Bereiche träger werden.
Heute war schon wieder ein Fall auf der Startseite, in dem es um den Tod eines Jungen im Zusammenhang mit ChatGPT ging.
Einwilligung und Urheberrecht sind tatsächlich ernsthafte Probleme.
Auch mein Blog ist klar lizenziert — kommerzielle Nutzung und Bearbeitung sind verboten —, aber KI-Unternehmen kopieren die Texte, verändern sie und verkaufen sie.
Es gibt keine Einwilligung und niemand fragt nach.
Bei GPL- und Open-Source-Code ist es dasselbe: Der Quellcode wird genutzt und in kostenpflichtige Dienste verwandelt; wenn ein kleines Unternehmen so etwas täte, hätte es nur Nachteile davon.
Wer kein KI-Unternehmen ist, wäre bei einem solchen Ausmaß an Verstößen längst aus dem Markt gedrängt worden.
Einwilligung und Urheberrecht sind eindeutige Probleme, auch wenn die Branche etwas anderes behauptet.
(Zu der Grundlage für Googles Behauptung, es gebe keinen Umweltschaden:)
Ehrlich gesagt wirkt das eher wie ein Selbstfreispruch nach dem Muster: "Wir haben es untersucht, und es ist alles in Ordnung."
"Ich stelle nicht viele Fragen zu Rasse."
Bei LLMs muss man nicht ausdrücklich nach Rasse fragen, damit sich Bias oder Diskriminierung zeigen.
Wenn man Googles jüngste Arbeit liest, steht dort, dass nur "Energieverbrauch von Inferenz und Serving bei Verwendung von KI-Prompts" dokumentiert wurde und die Bewertung des Trainings auf später verschoben wurde.
Link zur Arbeit
Googles Aussage bedeutet, dass kleine KI-Modelle, wenn sie in Google-Suche und Ähnliches eingebettet sind, deutlich weniger Strom verbrauchen.
Das ist etwas völlig anderes als das Training großer SOA-Modelle.
Auch ohne explizite Fragen können sich implizite Vorurteile jederzeit in den Outputs zeigen.
Wichtig ist nicht, dass die Branche das vollständig ignoriert hätte, sondern dass Kritiker seit langem immer wieder genau darauf hingewiesen haben.
Auch beim Urheberrecht liegt das Problem darin, dass es bei Privatpersonen vielleicht stillschweigend durchgeht, aber wenn Großunternehmen es kommerziell in großem Stil und schlampig betreiben, ist der Schaden für Künstler enorm.
Wenn man LLMs aus echter Neugier etwas fragt, reagieren sie manchmal eher belehrend im Stil von: "Du willst doch bloß rassistisch sein, oder?"
Ich muss dabei an den Fall denken, in dem auch ein Google-Ingenieur sagte, die KI sei voreingenommen.
Solche Diskussionen laufen immer wieder darauf hinaus, dass "Kunst" angeblich zwingend folgende Elemente braucht:
Dennoch zählen Menschen auch menschliche Werke mit kaum vorhandenen Anteilen davon weiterhin zur Kunst.
Umgekehrt werden bei KI-Werken deutlich strengere Maßstäbe angelegt, selbst wenn sie diese Kriterien weitgehend erfüllen.
Ich bin weder für noch gegen KI-generierte Kunst.
Im Kern ist schon die Definition von Kunst selbst unscharf, deshalb halte ich diese Debatte nicht für besonders produktiv.
Menschen sind hochentwickelte biologische Maschinen, und es ist praktischer, die Realität anzunehmen, dass solche Menschen nun etwas anderes geschaffen haben, das ebenfalls nachahmbar ist.
Ich neige ebenfalls dazu, eher Leuten wie Hinton und anderen Informatikern zu glauben.
Diese Wortklauberei scheint auf das Falsche fokussiert zu sein, während das eigentlich Wichtige übersehen wird.
Das revolutionäre Wesen von AI/AGI ist womöglich nur die Spitze des Eisbergs, die wir bislang wahrnehmen.
Manchmal muss man bei menschlich geprägten Werken genau diese Menschlichkeit annehmen.
Aber man sollte sich nicht von der pseudo-menschlichen Show durchschnittlicher Maschinenoutputs täuschen lassen.
Nach meinem Eindruck sind es eher Jüngere, die regelrecht in KI aufgehen.
Irgendwann wird sich der Trend schon drehen.
Tatsächlich kenne ich junge Leute, die behaupten, KI habe null Nachteile.
Ich hasse KI an sich nicht.
Was ich nicht mag, ist die Kultur der Menschen, die sie anbeten.
War das nicht bei jeder Technologie anfangs so?
Auch vor 50 Jahren gab es Leute, die meinten, das Internet sei nichts Besonderes.
Das überrascht mich nicht besonders.
Für ganz normale Teenager kann KI wie ein Gott wirken.
Man muss lästige Aufgaben nicht mehr selbst erledigen und verfällt am Ende einfach der Bequemlichkeit.
Ich bin mir nicht sicher, ob das wirklich nur ein Phänomen der jungen Generation ist.
Vielleicht liegt es eher daran, dass ältere Generationen schon viele Technikblasen erlebt haben.
Gerade Programmierer haben auch früher schon mehrfach Wellen erlebt wie "Ab jetzt 10x Produktivität!" oder "Programmierer verschwinden!"
Wenn man ein- oder zweimal darauf hereinfällt, ist das eine Sache, aber nach mehreren Wiederholungen schwindet das Vertrauen.
Ich bin zwar nicht jung, aber wenn ich sehe, dass KI endlich in der Realität ankommt, fühlt es sich für mich an, als würde ein 180 Jahre alter Traum wahr.
Wenn man sich Zitate von Ada Lovelace ansieht, hat sie schon 1842 die Vorstellung formuliert, dass Maschinen auch Musik komponieren könnten.
Als Kind war ich begeistert von KI, wie sie in Science-Fiction der 1960er ständig vorkam, und jetzt wird sie real.
Das Problem ist, dass gierige Menschen diese Technologie derzeit in der Hand haben und sie so einsetzen, dass sie der Gesellschaft insgesamt schadet.
Die eigentliche Ursache liegt in unserem System selbst, nicht in der KI-Technologie an sich.
Solche Leute missbrauchen jede neue Technologie, sobald sie auftaucht.
Entscheidend ist weniger das Alter als die Erfahrung.
Dieser Text hat mich sehr beeindruckt, weil er Gedanken ausspricht, die ich selbst nicht in Worte fassen konnte.
> Wahre Menschlichkeit entspringt einem Verständnis, Denken, Mitgefühl, künstlerischer Schöpfung sowie menschlichen Unzulänglichkeiten und Emotionen, zu denen KI nicht fähig ist.
Kann KI das wirklich nicht? Ich glaube schon, dass sie das könnte, lol
Ich erinnere mich nicht an die Quelle, aber mir fällt gerade eine Geschichte ein: Als Sam Altman zu Bill Gates ging, um GPT-4 vorzuführen, ließ er es einen emotionalen Brief schreiben, und es soll ihn besser verfasst haben als jeder andere, der dort anwesend war lol