- Große Sprachmodelle und maschinelles Lernen gestalten die gesellschaftlichen Strukturen neu und verändern das gesamte menschliche Leben, so wie das Auto die Städte verändert hat
- Bereits heute dringen von KI erzeugte Falschinformationen und automatisierte Inhalte tief in alltägliche Bereiche wie Suche, E-Mail und Kundenservice ein
- Es braucht einen Verzicht auf KI-Werkzeuge und die Wiederherstellung menschenzentrierten Denkens; wir sollten selbst schreiben und in menschlicher Sprache denken
- Einzelne können die Geschwindigkeit der technologischen Ausbreitung durch konkrete Maßnahmen bremsen, etwa durch Ablehnung von KI-Abhängigkeit, Gewerkschaftsgründungen und politische Forderungen nach Regulierung
- Solche Entscheidungen können zu einer Abmilderung rechtlicher und gesellschaftlicher Nebenwirkungen sowie zu ethischem Seelenfrieden führen; und falls es eine Fehlentscheidung war, kann man später wieder von vorn beginnen
Die Wahl nach dem Beginn des Zeitalters der Künstlichen Intelligenz
- Die Auswirkungen der Entwicklung von großen Sprachmodellen (LLM) und maschinellem Lernen (ML) auf die gesamte Gesellschaft werden mit dem historischen Wandel durch das Auto verglichen
- So wie das Auto Stadtstruktur, Verkehr, Umwelt und soziale Beziehungen grundlegend verändert hat, könnte auch Künstliche Intelligenz das menschliche Leben und industrielle Strukturen neu ordnen
- Im Fokus steht nicht die Geschwindigkeit oder Bequemlichkeit der Technik, sondern wie sich die Form der Städte und das menschliche Leben verändern werden
- Bereits jetzt sind KI-basierte Falschinformationen und automatisierte Inhalte tief in den Alltag eingedrungen
- In Suchergebnissen, im Kundenservice, in E-Mails und auf Websites verbreiten sich von LLMs erzeugte ungenaue oder falsche Informationen
- Der steigende Stromverbrauch von Rechenzentren führt zu höheren Gebühren und ökologischer Belastung
- Auch die Auslagerung persönlicher Arbeit, Kunst und menschlicher Beziehungen an KI nimmt zu
- Die Notwendigkeit, den Einsatz von KI-Werkzeugen zu beenden, wird betont
- ML-Unterstützung schwächt die menschliche Lernfähigkeit und theoretische Denkkraft und lässt James C. Scotts „metis“ (verkörpertes praktisches Wissen) verloren gehen
- Man sollte selbst schreiben, Probleme eigenständig lösen und das Denken durch Gespräche mit anderen Menschen aufrechterhalten
- Es wird empfohlen, den Konsum von KI-erzeugten Inhalten zu minimieren und gezielt von Menschen geschaffene Inhalte zu lesen
- Es werden praktische Maßnahmen für Einzelne und die Gesellschaft vorgeschlagen
- Es wird dazu aufgerufen, in der eigenen Sprache zu schreiben und sich nicht auf KI-Erzeugnisse zu verlassen
- Vorgeschlagen werden Widerstand gegen erzwungene KI-Einführung am Arbeitsplatz, Gewerkschaftsgründungen und politische Forderungen nach Regulierung
- Genannt werden auch konkrete Schritte wie mehr Verantwortung von KI-Unternehmen für CO2- und digitale Emissionen, Widerstand gegen Steuervergünstigungen für Rechenzentren und die Erwägung einer Kündigung aus ethischen Gründen
- Auch wenn dieser Widerstand die Entwicklung von KI nicht vollständig stoppen kann, kann er sie doch verlangsamen
- Dadurch gewinnen Technik, Industrie und Staat Zeit zur Anpassung und können rechtliche und gesellschaftliche Nebenwirkungen abmildern
- Es entsteht Spielraum, um auf Probleme wie KI-generiertes Material zur Ausbeutung von Kindern (CSAM), Betrug und Sicherheitslücken zu reagieren
- Über ethische Entscheidungen lässt sich innerer Seelenfrieden gewinnen; abgeschlossen wird mit der Überlegung, dass man es „später einfach noch einmal bauen kann“, falls sich die Entscheidung als falsch erweist
Und die Versuchung bleibt trotzdem
- Abscheu gegenüber KI und zugleich praktische Versuchung bestehen nebeneinander
- Als Beispiel wird die mögliche Nutzung von LLM-generiertem Code erwähnt, um farbwechselnde Beleuchtung zu steuern
- In begrenzten Situationen mit geringem Sicherheitsrisiko und direkt überprüfbaren Ergebnissen wird der praktische Nutzen von KI anerkannt
- Zugleich endet der Text mit der Frage „Was könnte schon schaden?“ und macht damit die Grenzen der KI-Nutzung und den eigenen inneren Widerspruch sichtbar
Schreibprozess
- Dieser Text wurde manuell in Vim geschrieben, mit Pandoc gesetzt und zweimal auf Papier korrigiert
- Ein Entwurf wurde mit Freunden geteilt, um Feedback einzuholen; alle Fehler und Ansichten liegen in der Verantwortung des Autors selbst
- Es wird betont, dass der gesamte Schreib- und Redaktionsprozess ohne Hilfe von KI und von menschlicher Hand erfolgte
1 Kommentare
Hacker-News-Kommentare
Ich habe das Gefühl, dass Lesen, Denken und Schreiben als Kernfähigkeiten zunehmend in den Einflussbereich großer Sprachmodelle geraten
Während des größten Teils der Menschheitsgeschichte waren diese Fähigkeiten wertvolle Kompetenzen, die sozialen Aufstieg ermöglichten
Historisch gesehen waren sie vor 1800 für Bauern jedoch kaum nützlich
Erst nach dem Zweiten Weltkrieg begann die Zahl der Jobs für „kluge Leute“ die Nachfrage zu übersteigen, und das war das goldene Zeitalter der sozialen Mobilität
Davor waren körperliche Stärke sowie Ehrlichkeit, Abstammung und Geburtsreihenfolge wichtiger
Wenn ein Zeitalter kommt, in dem AI das Denken übernimmt, könnten solche Werte wieder ins Zentrum rücken
Es gibt keinen Grund, frühere Erstgeburtsprivilegien oder Sexismus als „Kernwerte“ zurückzuholen
Dass „Intelligenz“ einmal knapp und wertvoll war, war keine Anomalie, sondern ein Ergebnis menschlicher Entwicklung
Wir sind keine Gefangenen der Geschichte und müssen nicht zu einer Herrschaft weniger Besitzer von Datacentern oder Betriebssystemen zurückkehren
Selbst ein kluger Bauer konnte dank solcher Fähigkeiten einen effizienteren Hof führen
Selbst Modelle mit Billionen Parametern können nicht einmal links und rechts zuverlässig unterscheiden
Das menschliche Denken ist nicht vorbei; genauso wenig wie die Dampfmaschine das Zeitalter des Pferdes vollständig beendet hat
Auch nach Beginn der Landwirtschaft waren Planung und Ressourcenmanagement immer wichtig
Aber die Vorstellung, die 1800er seien der Normalzustand der Menschheit gewesen, ist seltsam
Gesellschaftlichen Wandel mit der Existenz „reicher Nerds“ zu erklären, ist ebenfalls ein Sprung
Kyles Textreihe ist wirklich lesenswert
Besonders eindrucksvoll ist der Vergleich zwischen der Einführung des Automobils und der Verbreitung von AI
Nur weil eine Technologie nützlich ist, hat sie nicht automatisch nur positive Auswirkungen auf die Gesellschaft
Ich denke, LLMs sollte man nur in begrenzten Umgebungen einsetzen, wenn sich die Risiken kontrollieren lassen
In den 1920er Jahren hätte man nicht einfach sagen sollen „Fahrt keine Autos“, sondern negative Folgen voraussehen und sie politisch abmildern
Expertinnen und Experten, die die Grenzen der Technologie verstehen, sollten verantwortungsvoll eingreifen
Das ähnelt dem Versuch, Smartphones in Schulen zu verbieten, um freiwillige menschliche Interaktion wiederherzustellen
Statt die Technologie zu blockieren, sollte man Menschen ausbilden
Fortschritte bei AI könnten auch auf physikalische Simulationen, Protein-Faltung und Ähnliches angewendet werden
Ich habe das Gefühl, dass diese Technologie perfekt auf die 0,001 % Elite zugeschnitten ist
Für sie sind Bevölkerungsrückgang und gesellschaftliche Kontrolle eher von Vorteil
Wenn man keine Verantwortung gegenüber künftigen Generationen empfindet, muss man nur an das eigene Überleben denken; wenn man sie empfindet, braucht es eine globale Revolution
Von einem Ersatz des Menschen zu sprechen ist übertrieben, und Automatisierung wird eher neue Arbeitsplätze schaffen
Wenn CEOs von Arbeitsersatz reden, ist das nur ein Vorwand, um Entlassungen zu rechtfertigen
Das Problem ist, dass zu viele Menschen AI lieben
Gerade Menschen mit sicheren Jobs sollten zuerst handeln
Das erinnert mich an das Ende von Neal Stephensons In the Beginning Was the Command Line
Eine Welt, in der das Leben wie ein Betriebssystem als Voreinstellung ausgeliefert wird und die Menschen nur noch auf den Button „LIVE“ drücken
Wenn man Unzufriedenheit äußert, bekommt man nur zu hören: „Mit dem nächsten Update wird es besser“
Am Ende wird ein echter Ingenieur wohl sagen: „Das Leben ist von Natur aus komplex, und Entscheidungen muss man selbst treffen“
Hier eine Zusammenstellung der wichtigsten Texte dieser Reihe
Wegen des HN-Prinzips, Wiederholungen zu vermeiden, werden Serienbeiträge normalerweise niedriger gewichtet, aber dieses Mal war es eine Ausnahme
Eine Serie über die Restaurierung antiker Maschinen könnte zum Beispiel in jedem Teil ein völlig anderes Thema behandeln
Die Zukunft mit Gewissheit vorherzusagen ist nur eine Methode, Angst zu beruhigen
Niemand weiß, wohin sich AI entwickelt
Ob es wie beim Automobil wird oder einen völlig anderen Weg nimmt, weiß niemand
Deshalb sind Aussagen wie „Anthropic-Ingenieure sollten sofort kündigen“ ein vorschnelles Urteil
Wenn ich an meine Studienzeit zurückdenke, dann haben mich Muskelgedächtnis und theoretische Tiefe, die ich durch Versuch und Irrtum aufgebaut habe, zu dem gemacht, was ich heute bin
Wäre ich heute Student, fände ich es vermutlich schwer, der Versuchung von LLMs zu widerstehen
Zwischen Deadlines, Prüfungen und Zeit mit Freunden würde ich am Ende wohl doch AI nutzen
Klimaverschlechterung, wirtschaftliche Ungleichheit, Misstrauen gegenüber Institutionen und Arbeitsplatzunsicherheit durch AI kommen zusammen
Wenn meine Tochter über ein Studienfach nachdenkt, kann ich ihr keinen Rat mit wirklicher Überzeugung geben
In dem Moment, in dem AI das übernimmt, verschwindet dieses erfahrungsbasierte Lernen
Nur mit dem Kontext, den man sich durch das Aushalten von Schwierigkeiten erarbeitet, kann man auch AI-Antworten wirklich verstehen
Tausende Stunden manueller Arbeit haben ein intuitives Gefühl für Code geschaffen
Für die neue Generation wird es schwer, das einfach durch AI zu ersetzen
Es entstehen Anreize, bei denen gerade diejenigen im Wettbewerb zurückfallen, die tief lernen wollen
Dass sich die gesellschaftliche Struktur verändern wird, ist offensichtlich, aber sich nicht zu beteiligen ist praktisch schwer
Wenn man AI nicht nutzt, fällt man zurück, und HR verlangt Erfahrung
Wer würde freiwillig eine Entscheidung treffen, die ihm selbst schadet?
Wir könnten schon durch einen einzigen technologischen Durchbruch AGI erreichen
Wenn zum Beispiel Supraleiter bei Raumtemperatur entdeckt würden, wären Chips mit THz-Geschwindigkeit und sofort aufladbare Batterien möglich
AI befindet sich gerade in einer Phase wie Computer in den 1980ern, kurz vor der Explosion
In den letzten sechs Monaten bin auch ich völlig optimistisch geworden
Wenn sich die Technologie weiterentwickelt, wird kein einziger sicherer Beruf übrig bleiben
Wenn man solche Chips schon mit gekühlten Supraleitern hätte bauen können, wäre das längst geschehen
Der Autor sagt, er werde keine LLMs verwenden, aber das kann er nur, weil er die Fähigkeiten dafür hat
Die meisten Menschen können das nicht
Schon jetzt gibt es viele Entwickler, die nicht einmal Tests schreiben, und für sie ist AI ein Mittel zum Überleben
Es gibt keine Zeit mehr, die Grundlagen neu zu lernen und gleichzeitig noch dem LLM-Trend hinterherzulaufen
Am Ende wird eine Zeit kommen, in der es mehr „Hexen“ als echte Ingenieure gibt
Auch die neue Generation von Entwicklern wird lernen, leistungsfähige Software zu bauen, um im Wettbewerb zu bestehen
Ob mit AI programmiert oder nicht: Wenn das Ergebnis gut ist, dann ist das Können
Die Menschheit hat schon immer apokalyptischen Pessimismus gepflegt und sich am Ende doch gut angepasst