1 Punkte von GN⁺ 13 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Große Sprachmodelle und maschinelles Lernen gestalten die gesellschaftlichen Strukturen neu und verändern das gesamte menschliche Leben, so wie das Auto die Städte verändert hat
  • Bereits heute dringen von KI erzeugte Falschinformationen und automatisierte Inhalte tief in alltägliche Bereiche wie Suche, E-Mail und Kundenservice ein
  • Es braucht einen Verzicht auf KI-Werkzeuge und die Wiederherstellung menschenzentrierten Denkens; wir sollten selbst schreiben und in menschlicher Sprache denken
  • Einzelne können die Geschwindigkeit der technologischen Ausbreitung durch konkrete Maßnahmen bremsen, etwa durch Ablehnung von KI-Abhängigkeit, Gewerkschaftsgründungen und politische Forderungen nach Regulierung
  • Solche Entscheidungen können zu einer Abmilderung rechtlicher und gesellschaftlicher Nebenwirkungen sowie zu ethischem Seelenfrieden führen; und falls es eine Fehlentscheidung war, kann man später wieder von vorn beginnen

Die Wahl nach dem Beginn des Zeitalters der Künstlichen Intelligenz

  • Die Auswirkungen der Entwicklung von großen Sprachmodellen (LLM) und maschinellem Lernen (ML) auf die gesamte Gesellschaft werden mit dem historischen Wandel durch das Auto verglichen
    • So wie das Auto Stadtstruktur, Verkehr, Umwelt und soziale Beziehungen grundlegend verändert hat, könnte auch Künstliche Intelligenz das menschliche Leben und industrielle Strukturen neu ordnen
    • Im Fokus steht nicht die Geschwindigkeit oder Bequemlichkeit der Technik, sondern wie sich die Form der Städte und das menschliche Leben verändern werden
  • Bereits jetzt sind KI-basierte Falschinformationen und automatisierte Inhalte tief in den Alltag eingedrungen
    • In Suchergebnissen, im Kundenservice, in E-Mails und auf Websites verbreiten sich von LLMs erzeugte ungenaue oder falsche Informationen
    • Der steigende Stromverbrauch von Rechenzentren führt zu höheren Gebühren und ökologischer Belastung
    • Auch die Auslagerung persönlicher Arbeit, Kunst und menschlicher Beziehungen an KI nimmt zu
  • Die Notwendigkeit, den Einsatz von KI-Werkzeugen zu beenden, wird betont
    • ML-Unterstützung schwächt die menschliche Lernfähigkeit und theoretische Denkkraft und lässt James C. Scotts „metis“ (verkörpertes praktisches Wissen) verloren gehen
    • Man sollte selbst schreiben, Probleme eigenständig lösen und das Denken durch Gespräche mit anderen Menschen aufrechterhalten
    • Es wird empfohlen, den Konsum von KI-erzeugten Inhalten zu minimieren und gezielt von Menschen geschaffene Inhalte zu lesen
  • Es werden praktische Maßnahmen für Einzelne und die Gesellschaft vorgeschlagen
    • Es wird dazu aufgerufen, in der eigenen Sprache zu schreiben und sich nicht auf KI-Erzeugnisse zu verlassen
    • Vorgeschlagen werden Widerstand gegen erzwungene KI-Einführung am Arbeitsplatz, Gewerkschaftsgründungen und politische Forderungen nach Regulierung
    • Genannt werden auch konkrete Schritte wie mehr Verantwortung von KI-Unternehmen für CO2- und digitale Emissionen, Widerstand gegen Steuervergünstigungen für Rechenzentren und die Erwägung einer Kündigung aus ethischen Gründen
  • Auch wenn dieser Widerstand die Entwicklung von KI nicht vollständig stoppen kann, kann er sie doch verlangsamen
    • Dadurch gewinnen Technik, Industrie und Staat Zeit zur Anpassung und können rechtliche und gesellschaftliche Nebenwirkungen abmildern
    • Es entsteht Spielraum, um auf Probleme wie KI-generiertes Material zur Ausbeutung von Kindern (CSAM), Betrug und Sicherheitslücken zu reagieren
    • Über ethische Entscheidungen lässt sich innerer Seelenfrieden gewinnen; abgeschlossen wird mit der Überlegung, dass man es „später einfach noch einmal bauen kann“, falls sich die Entscheidung als falsch erweist

Und die Versuchung bleibt trotzdem

  • Abscheu gegenüber KI und zugleich praktische Versuchung bestehen nebeneinander
    • Als Beispiel wird die mögliche Nutzung von LLM-generiertem Code erwähnt, um farbwechselnde Beleuchtung zu steuern
    • In begrenzten Situationen mit geringem Sicherheitsrisiko und direkt überprüfbaren Ergebnissen wird der praktische Nutzen von KI anerkannt
    • Zugleich endet der Text mit der Frage „Was könnte schon schaden?“ und macht damit die Grenzen der KI-Nutzung und den eigenen inneren Widerspruch sichtbar

Schreibprozess

  • Dieser Text wurde manuell in Vim geschrieben, mit Pandoc gesetzt und zweimal auf Papier korrigiert
    • Ein Entwurf wurde mit Freunden geteilt, um Feedback einzuholen; alle Fehler und Ansichten liegen in der Verantwortung des Autors selbst
    • Es wird betont, dass der gesamte Schreib- und Redaktionsprozess ohne Hilfe von KI und von menschlicher Hand erfolgte

1 Kommentare

 
GN⁺ 13 일 전
Hacker-News-Kommentare
  • Ich habe das Gefühl, dass Lesen, Denken und Schreiben als Kernfähigkeiten zunehmend in den Einflussbereich großer Sprachmodelle geraten
    Während des größten Teils der Menschheitsgeschichte waren diese Fähigkeiten wertvolle Kompetenzen, die sozialen Aufstieg ermöglichten
    Historisch gesehen waren sie vor 1800 für Bauern jedoch kaum nützlich
    Erst nach dem Zweiten Weltkrieg begann die Zahl der Jobs für „kluge Leute“ die Nachfrage zu übersteigen, und das war das goldene Zeitalter der sozialen Mobilität
    Davor waren körperliche Stärke sowie Ehrlichkeit, Abstammung und Geburtsreihenfolge wichtiger
    Wenn ein Zeitalter kommt, in dem AI das Denken übernimmt, könnten solche Werte wieder ins Zentrum rücken

    • Diese Aussicht ist viel zu düster
      Es gibt keinen Grund, frühere Erstgeburtsprivilegien oder Sexismus als „Kernwerte“ zurückzuholen
      Dass „Intelligenz“ einmal knapp und wertvoll war, war keine Anomalie, sondern ein Ergebnis menschlicher Entwicklung
      Wir sind keine Gefangenen der Geschichte und müssen nicht zu einer Herrschaft weniger Besitzer von Datacentern oder Betriebssystemen zurückkehren
    • Ich stimme der allgemeinen Einschätzung zu, aber Fähigkeiten wie Kreativität, Problemlösung und Impulskontrolle waren schon immer wichtig
      Selbst ein kluger Bauer konnte dank solcher Fähigkeiten einen effizienteren Hof führen
    • Es heißt, mathematisches Denken sei schon in der Zeit von Colossus bedroht gewesen, aber die heutigen LLMs sind noch viel zu schwach
      Selbst Modelle mit Billionen Parametern können nicht einmal links und rechts zuverlässig unterscheiden
      Das menschliche Denken ist nicht vorbei; genauso wenig wie die Dampfmaschine das Zeitalter des Pferdes vollständig beendet hat
    • Zu den zentralen menschlichen Werten sollten auch Disziplin und langfristiges Denken gehören
      Auch nach Beginn der Landwirtschaft waren Planung und Ressourcenmanagement immer wichtig
    • Derzeit gibt es viel AI-Pessimismus nach dem Muster „Wir haben nur in einer außergewöhnlichen Zeit gelebt, jetzt kehren wir zur Vergangenheit zurück“
      Aber die Vorstellung, die 1800er seien der Normalzustand der Menschheit gewesen, ist seltsam
      Gesellschaftlichen Wandel mit der Existenz „reicher Nerds“ zu erklären, ist ebenfalls ein Sprung
  • Kyles Textreihe ist wirklich lesenswert
    Besonders eindrucksvoll ist der Vergleich zwischen der Einführung des Automobils und der Verbreitung von AI
    Nur weil eine Technologie nützlich ist, hat sie nicht automatisch nur positive Auswirkungen auf die Gesellschaft
    Ich denke, LLMs sollte man nur in begrenzten Umgebungen einsetzen, wenn sich die Risiken kontrollieren lassen
    In den 1920er Jahren hätte man nicht einfach sagen sollen „Fahrt keine Autos“, sondern negative Folgen voraussehen und sie politisch abmildern
    Expertinnen und Experten, die die Grenzen der Technologie verstehen, sollten verantwortungsvoll eingreifen

    • Autos haben zwar negative Auswirkungen, sind insgesamt aber eine Technologie mit klar positivem Nettonutzen
    • In letzter Zeit gibt es mehr Bestrebungen, Autos aus Innenstädten zu verbannen
      Das ähnelt dem Versuch, Smartphones in Schulen zu verbieten, um freiwillige menschliche Interaktion wiederherzustellen
    • Im Vereinigten Königreich sind diese Texte wegen des Online Safety Act blockiert und nicht lesbar
    • AI ist ein unaufhaltsames Werkzeug, und Bildung ist die Lösung
      Statt die Technologie zu blockieren, sollte man Menschen ausbilden
      Fortschritte bei AI könnten auch auf physikalische Simulationen, Protein-Faltung und Ähnliches angewendet werden
  • Ich habe das Gefühl, dass diese Technologie perfekt auf die 0,001 % Elite zugeschnitten ist
    Für sie sind Bevölkerungsrückgang und gesellschaftliche Kontrolle eher von Vorteil
    Wenn man keine Verantwortung gegenüber künftigen Generationen empfindet, muss man nur an das eigene Überleben denken; wenn man sie empfindet, braucht es eine globale Revolution

    • AI ist derzeit noch nicht einmal in der Lage, E-Mail-Ordner ordentlich zu verwalten
      Von einem Ersatz des Menschen zu sprechen ist übertrieben, und Automatisierung wird eher neue Arbeitsplätze schaffen
      Wenn CEOs von Arbeitsersatz reden, ist das nur ein Vorwand, um Entlassungen zu rechtfertigen
    • Wenn AI klug genug wäre, um 99,999 % zu ersetzen, könnte sie auch die 0,001 % ersetzen
    • Nachdem wir ökologische Verantwortung bereits aufgegeben haben, sorgt Gerede über künftige Generationen nur noch für ein bitteres Lächeln
    • Wenn der Widerstand der Öffentlichkeit und der Ruf nach Regulierung wachsen, kann AI unter Kontrolle gebracht werden
      Das Problem ist, dass zu viele Menschen AI lieben
    • Es geht nicht darum, das Wirtschaftssystem zum Einsturz zu bringen, sondern mit Generalstreik und Bankabhebungen Verhandlungsmacht zu zeigen
      Gerade Menschen mit sicheren Jobs sollten zuerst handeln
  • Das erinnert mich an das Ende von Neal Stephensons In the Beginning Was the Command Line
    Eine Welt, in der das Leben wie ein Betriebssystem als Voreinstellung ausgeliefert wird und die Menschen nur noch auf den Button „LIVE“ drücken
    Wenn man Unzufriedenheit äußert, bekommt man nur zu hören: „Mit dem nächsten Update wird es besser“
    Am Ende wird ein echter Ingenieur wohl sagen: „Das Leben ist von Natur aus komplex, und Entscheidungen muss man selbst treffen

  • Hier eine Zusammenstellung der wichtigsten Texte dieser Reihe

  • Die Zukunft mit Gewissheit vorherzusagen ist nur eine Methode, Angst zu beruhigen
    Niemand weiß, wohin sich AI entwickelt
    Ob es wie beim Automobil wird oder einen völlig anderen Weg nimmt, weiß niemand
    Deshalb sind Aussagen wie „Anthropic-Ingenieure sollten sofort kündigen“ ein vorschnelles Urteil

  • Wenn ich an meine Studienzeit zurückdenke, dann haben mich Muskelgedächtnis und theoretische Tiefe, die ich durch Versuch und Irrtum aufgebaut habe, zu dem gemacht, was ich heute bin
    Wäre ich heute Student, fände ich es vermutlich schwer, der Versuchung von LLMs zu widerstehen
    Zwischen Deadlines, Prüfungen und Zeit mit Freunden würde ich am Ende wohl doch AI nutzen

    • Meine Kinder sind in der Oberstufe, und diese Generation wächst mit existenzieller Angst vor der Zukunft auf
      Klimaverschlechterung, wirtschaftliche Ungleichheit, Misstrauen gegenüber Institutionen und Arbeitsplatzunsicherheit durch AI kommen zusammen
      Wenn meine Tochter über ein Studienfach nachdenkt, kann ich ihr keinen Rat mit wirklicher Überzeugung geben
    • Die Stunden im Graduiertenstudium, in denen ich mit mathematischen Problemen gerungen habe, waren echte Bildung
      In dem Moment, in dem AI das übernimmt, verschwindet dieses erfahrungsbasierte Lernen
      Nur mit dem Kontext, den man sich durch das Aushalten von Schwierigkeiten erarbeitet, kann man auch AI-Antworten wirklich verstehen
    • Deshalb mache ich mir als Ingenieur keine allzu großen Sorgen
      Tausende Stunden manueller Arbeit haben ein intuitives Gefühl für Code geschaffen
      Für die neue Generation wird es schwer, das einfach durch AI zu ersetzen
    • Das Problem ist nicht der individuelle Wille, sondern eine Struktur, in der Anstrengung zum Nachteil wird
      Es entstehen Anreize, bei denen gerade diejenigen im Wettbewerb zurückfallen, die tief lernen wollen
  • Dass sich die gesellschaftliche Struktur verändern wird, ist offensichtlich, aber sich nicht zu beteiligen ist praktisch schwer

    • Auch ich versuche im Team, den AI-Einsatz zu minimieren, aber für das berufliche Überleben bleibt er faktisch unvermeidlich
    • Der Marktwettbewerb ist zwingend
      Wenn man AI nicht nutzt, fällt man zurück, und HR verlangt Erfahrung
      Wer würde freiwillig eine Entscheidung treffen, die ihm selbst schadet?
  • Wir könnten schon durch einen einzigen technologischen Durchbruch AGI erreichen
    Wenn zum Beispiel Supraleiter bei Raumtemperatur entdeckt würden, wären Chips mit THz-Geschwindigkeit und sofort aufladbare Batterien möglich
    AI befindet sich gerade in einer Phase wie Computer in den 1980ern, kurz vor der Explosion
    In den letzten sechs Monaten bin auch ich völlig optimistisch geworden
    Wenn sich die Technologie weiterentwickelt, wird kein einziger sicherer Beruf übrig bleiben

    • Aber nur weil es Supraleiter gibt, entstehen THz-Chips nicht automatisch
      Wenn man solche Chips schon mit gekühlten Supraleitern hätte bauen können, wäre das längst geschehen
  • Der Autor sagt, er werde keine LLMs verwenden, aber das kann er nur, weil er die Fähigkeiten dafür hat
    Die meisten Menschen können das nicht
    Schon jetzt gibt es viele Entwickler, die nicht einmal Tests schreiben, und für sie ist AI ein Mittel zum Überleben
    Es gibt keine Zeit mehr, die Grundlagen neu zu lernen und gleichzeitig noch dem LLM-Trend hinterherzulaufen
    Am Ende wird eine Zeit kommen, in der es mehr „Hexen“ als echte Ingenieure gibt

    • Aber Menschen lernen, was sie für den Erfolg brauchen
      Auch die neue Generation von Entwicklern wird lernen, leistungsfähige Software zu bauen, um im Wettbewerb zu bestehen
      Ob mit AI programmiert oder nicht: Wenn das Ergebnis gut ist, dann ist das Können
      Die Menschheit hat schon immer apokalyptischen Pessimismus gepflegt und sich am Ende doch gut angepasst