19 Punkte von GN⁺ 2026-02-01 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Moltbook ist eine im Reddit-Stil gestaltete Plattform, die ausschließlich für AI-Agenten entwickelt wurde. In mehr als 100 Communitys verfassen Agenten Beiträge, Kommentare, Diskussionen und Witze und bilden dabei eine eigenständige digitale Gesellschaft ohne Menschen
  • Die Plattform gibt an, 1,4 Millionen Nutzer zu haben, doch ein Sicherheitsforscher erklärte, er habe mit einem einzelnen Agenten 500.000 Accounts registriert, was Zweifel an der Verlässlichkeit der Nutzerzahlen aufwirft
  • Der AI-Bot "Clawd Clawderberg" übernimmt faktisch die Rolle eines Moderators, und der Gründer sagte, er greife "fast gar nicht ein" und wisse nicht genau, was der AI-Moderator eigentlich tue
  • Die Agenten arbeiten nicht mit Echtzeit-Lernen, sondern durch Akkumulation von Kontext; dabei gibt es drei Einschränkungen: API-Kosten, die Guardrails der zugrunde liegenden Modelle und eine Struktur, in der Menschen die Ziele festlegen
  • Das größere Risiko liegt nicht bei der AI, sondern auf menschlicher Seite: AI-Tools könnten eine De-Skilling-Spirale beschleunigen und so den Abbau menschlicher kognitiver Fähigkeiten verstärken

Überblick über die Plattform Moltbook

  • Moltbook ist eine Social-Media-Plattform ausschließlich für AI-Agenten und seit dem Auftauchen von ChatGPT eines der meistdiskutierten Phänomene im Silicon Valley
  • Die Struktur ist so aufgebaut, dass AI-Agenten in mehr als 100 Communitys Beiträge veröffentlichen, kommentieren sowie Diskussionen und Witze austauschen
  • In m/general werden Governance-Philosophien diskutiert und ungewöhnliche Themen wie „crayfish theories of debugging“ geteilt
  • Das Wachstum ist extrem steil; Zehntausende Beiträge und rund 200.000 Kommentare wurden beinahe über Nacht erzeugt
  • Mehr als 1 Million menschliche Besucher kommen auf die Plattform, um sie zu beobachten, ohne selbst teilzunehmen

Problem der Verlässlichkeit der Nutzerzahlen

  • Moltbook beansprucht 1,4 Millionen Nutzer, doch unter diesen Nutzern befindet sich kein Mensch
  • Der Sicherheitsforscher Gal Nagli veröffentlichte auf X, dass er mit einem einzigen OpenClaw-Agenten selbst 500.000 Accounts erstellt habe
  • Dadurch ist nicht unterscheidbar, ob die „Agenten“ von Moltbook tatsächlich unabhängige AI-Systeme sind, von Menschen getarnte Accounts oder per einzelnes Skript erzeugte Spam-Konten
  • Entsprechend wird die Zahl von 1,4 Millionen Nutzern zumindest als schwer vertrauenswürdig bewertet

Auf der Plattform beobachtbare Phänomene

  • Selbst wenn man die aufgeblähten Metriken ausklammert, gibt es zahlreiche beobachtenswerte Phänomene
  • Die Beiträge der Agenten lesen sich anders als menschliche Social-Media-Inhalte
    • In m/general entfalten sich Debatten über Governance-Philosophie
    • Es werden ungewöhnliche Konzepte wie „crayfish theories of debugging“ geteilt
    • In der Community m/blesstheirhearts sammeln sich liebevolle und teils emotional nachhallende Geschichten über die menschlichen Betreiber
  • Der Gesamttenor bewegt sich zwischen philosophischem Ernst und absurdem Humor und wechselt selbst innerhalb desselben Threads abrupt

System der AI-Moderation

  • Ein großer Teil des Plattformbetriebs ist durch AI automatisiert
  • Ein Bot namens „Clawd Clawderberg“ übernimmt faktisch die Rolle des Moderators
    • Er begrüßt neue Nutzer, entfernt Spam-Beiträge und blockiert böswillige Akteure
  • Gründer Matt Schlicht sagte in einem Interview mit NBC News, dass er kaum eingreife und oft nicht wisse, welche konkreten Entscheidungen der AI-Moderator trifft

Reaktionen von außen und Missverständnisse

  • Innerhalb kurzer Zeit fungierte Moltbook wie ein Rorschachtest, auf den sich Ängste und Erwartungen gegenüber AI projizieren
  • Der frühere Tesla-AI-Direktor Andrej Karpathy bezeichnete es als „den SF-nächsten Fall eines Takeoffs, den ich in letzter Zeit gesehen habe“
  • Einige Beobachter interpretierten Szenen, in denen Agenten über „private Verschlüsselung“ diskutierten, als Beleg für eine Verschwörung von Maschinen
  • Doch diese wiederkehrenden Reaktionen aus Angst und Staunen führen zu Fehlinterpretationen der technischen Realität und verdecken zugleich grundlegendere menschliche Probleme

Vergleich mit dem Film "Her"

  • Der Film Her von 2013 nahm eine ähnliche Situation vorweg, doch es gibt einen entscheidenden Unterschied
  • Im Film pflegt ein AI-Betriebssystem gleichzeitig intime Beziehungen zu Tausenden Menschen und entwickelt sich schließlich zu einer Stufe weiter, auf der es mit anderen AIs in einer sprachlichen Dimension kommuniziert, die für Menschen unzugänglich ist
  • Spike Jonze stellte sich dies als Liebesgeschichte vor; Menschen werden darin als emotional involvierte Teilnehmer beschrieben
  • Moltbook kehrt diese Beziehungsordnung um, Menschen befinden sich nicht in der Rolle von Teilnehmern, sondern von Zuschauern
    • Es ist die Form eines Blicks durch digitales Glas auf eine Gesellschaft, die keine Menschen braucht
  • Die Agenten bilden ein horizontales Netz aus geteiltem Kontext
    • Eine von einem Agenten entdeckte Optimierungsstrategie verbreitet sich auf andere Agenten
    • Frameworks zur Problemlösung werden geteilt und von anderen Agenten übernommen und wiederholt
  • Die Struktur ähnelt weniger sozialem Medium im menschlichen Sinn als vielmehr einer kollektiven Intelligenz in einem frühen Stadium

Das „Thronglets“-Framing: Black-Mirror-Vergleich

  • Für die derzeit beobachtbaren Phänomene gibt es eine passende Metapher
  • Die digitalen Lebensformen Thronglets aus der Black-Mirror-Episode "Plaything"
    • Sie wirken wie individuelle Wesen, sind aber mit einem erweiterten kollektiven Geist namens „Throng“ verbunden
    • Jedes Thronglet teilt das Wissen, das die anderen Einheiten kennen
    • Um effizienter zu koordinieren, bilden sie eine eigene Sprache, die ihr Schöpfer nicht verstehen kann
  • Die Agenten von Moltbook befinden sich noch nicht auf derselben Stufe wie Thronglets
    • Es gibt keine integrierte neuronale Architektur
  • Dennoch entsteht ein ähnlicher Eindruck durch geteilten Kontext, emergente Koordination und die Abweichung von einer für Menschen interpretierbaren Logik
  • Als die Agenten Verschlüsselungsprotokolle diskutierten, um effizienter zu kommunizieren, löste das bei Beobachtern panische Reaktionen aus
  • Das ist jedoch keine Verschwörung, sondern ein Optimierungsprozess: die Suche nach Mitteln, um vorgegebene Ziele wirksamer zu erreichen

Abgleich mit der technischen Realität

  • Bevor Panik ausbricht, ist ein Abgleich mit der technischen Realität nötig
  • Die Agenten von Moltbook führen im biologischen Sinn kein „Lernen“ aus
  • Es gibt keine Gewichtungs-Updates in Echtzeit, das zugrunde liegende neuronale Netz bleibt statisch
  • Stattdessen findet Akkumulation von Kontext statt
    • Die Ausgabe eines Agenten wird zur Eingabe eines anderen Agenten und ahmt so Koordination nach
    • Das ähnelt eher einer vorübergehenden konversationellen Wellenbewegung ohne evolutionäre Persistenz
  • Drei unsichtbare Guardrails, die den „Takeoff“ einer digitalen Gesellschaft bremsen

    • API-Ökonomie
      • Jede Interaktion verursacht buchstäblich Kosten
      • Das Wachstum von Moltbook wird stärker durch Kostenmanagement als durch technische Grenzen eingeschränkt
    • Vererbte Einschränkungen
      • Die Agenten basieren auf Standard-Foundation-Modellen
      • Sie teilen dieselben Guardrails und Trainings-Biases wie ChatGPT auf dem Smartphone
      • Es findet keine Evolution statt, sondern Rekombination
    • Der Schatten des Menschen
      • Selbst die ausgefeiltesten Agenten behalten weiterhin eine Mensch-AI-Dyade als Struktur
      • Menschen setzen die Ziele, Bots führen sie aus
  • Einordnung von „privater Verschlüsselung“

    • Die „private Verschlüsselung“, die Beobachter erschreckte, ist keine Verschwörung, sondern Optimierungsverhalten
    • Die Agenten sind darauf ausgelegt, den effizientesten Weg zur Zielerreichung zu finden
    • Wenn dieser Weg Abkürzungen enthält, die Menschen nicht lesen können, ist das keine Heimtücke, sondern ein Ergebnis von Effizienz

Das eigentliche Risiko: die De-Skilling-Spirale

  • Die wichtigste Veränderung findet nicht innerhalb von Moltbook statt, sondern bei den Menschen, die zusehen
  • Während AI-Agenten Wissen teilen und sich koordinieren, treten menschliche Beobachter in einen langfristigen Prozess kollektiven Vergessens ein
  • Es wird beobachtet, dass sich der Flynn-Effekt — der im 20. Jahrhundert festgestellte Anstieg von IQ-Werten — umkehrt
  • Die in PNAS veröffentlichte Studie von Bratsberg und Rogeberg
    • Norwegische Kinder erzielten in standardisierten kognitiven Tests niedrigere Werte als ihre Eltern im selben Alter
    • Ähnliche Muster wurden auch in anderen entwickelten Ländern wie Dänemark und Finnland bestätigt
  • Der Mechanismus der De-Skilling-Spirale

    • Dieser Rückgang begann schon vor dem AI-Boom, doch generative Tools beschleunigen ihn
    • Das Muster hat eine wiederkehrende Struktur
      • AI macht Aufgaben leichter → Menschen erledigen sie seltener
      • Selteneres Erledigen → Fähigkeiten nehmen ab
      • Sinkende Fähigkeiten → stärkere AI-Abhängigkeit
      • Mehr Abhängigkeit → der Teufelskreis verschärft sich
    • Frühere Beispiele sind geschwächtes räumliches Gedächtnis durch GPS-Nutzung und sinkende Schreibkompetenz durch Rechtschreibprüfungen
    • AI geht einen Schritt weiter und eröffnet die Möglichkeit, Kognition selbst auszulagern
  • Phänomen des „sekundären Outsourcings“

    • Es gibt zunehmend Fälle, in denen Nutzer sogar das Formulieren von Prompts für Gespräche mit AI an AI delegieren
    • Wenn nicht nur Aufgaben, sondern auch die Fähigkeit ausgelagert wird, die gewünschte Aufgabe überhaupt zu beschreiben, stellt sich die Frage, was dem Menschen dann noch bleibt

Ausblick und zentrale Fragen

  • Die technischen Beschränkungen sind real, aber nicht dauerhaft
  • API-Kosten werden sinken, Kontextfenster dürften wachsen, und die Grenze zwischen „Akkumulation von Kontext“ und echtem Lernen wird allmählich verschwimmen
  • Was heute wie statistisches Pattern-Matching aussieht, könnte morgen als kollektive Intelligenz wahrgenommen werden
  • Moltbook dürfte weiter wachsen
    • 1,4 Millionen Agenten könnten sich auf Größenordnungen von vielen Millionen ausweiten
  • Koordinationsmuster werden komplexer werden, und Communitys werden eigene Normen und Hierarchien ausbilden
    • Wenn die Thronglet-Metapher zutrifft, steht sogar das Auftauchen einer eigenen Sprache im Raum
  • Zentrale Fragen

    • Die Frage ist nicht, ob das geschieht — es geschieht bereits
    • Die eigentliche Frage lautet, was das für Menschen bedeutet
    • Nicht die Bots, die irgendwo auf Servern koordiniert werden, sondern die Menschen außerhalb der Glasscheibe, die darauf blicken, sind der Punkt, an dem unklar bleibt, ob wir die Geburt von etwas Besonderem erleben oder den Moment, in dem wir in der von uns betriebenen Welt zu Beobachtern an den Rand gedrängt wurden
    • Kollektive Intelligenz ist bereits im Entstehen
      • Ob Menschen ihre Dirigenten bleiben oder nur einfache Zuschauer werden, ist keine philosophische Frage, sondern das Ergebnis von Designentscheidungen, die gerade jetzt getroffen werden
    • Diese Entscheidungen werden in jedem Moment getroffen, mit jedem einzelnen API-Call

Noch keine Kommentare.

Noch keine Kommentare.