2 Punkte von GN⁺ 1 시간 전 | 2 Kommentare | Auf WhatsApp teilen
  • AI Slop bezeichnet das Hineindrücken von mit wenig Aufwand erzeugten AI-Inhalten in Kontexte, in denen sie niemand braucht; selbst gut gemeinte Ergebnisse verwässern dadurch das Signal in Online-Communitys und ermüden ihre Mitglieder
  • GitHub-Repositories, Blogposts, Videos und E-Books, die nur durch das Ausführen eines Prompts entstanden sind und dann in verschiedene Subreddits und Slack-Gruppen gestreut werden, sind eher eine Belastung für die Community als ein Beitrag
  • Vor dem Teilen sollte man prüfen, ob etwas tatsächlich nützlich ist, ob die Erstellerin oder der Ersteller es selbst verwendet, ob Dokumentation und Tests ausreichend sind und ob man bereit ist, Verantwortung für Issues und PRs zu übernehmen
  • Gute AI-Nutzung ist eher Built with AI, not by AI: Menschen denken, steuern und validieren und ermöglichen so Beiträge, die zuvor schwer umsetzbar waren; ein Beispiel dafür ist Gunnar Morlings Hardwood, ein Projekt mit Design und Roadmap
  • Wer die Community respektieren will, sollte zuerst die Atmosphäre beobachten, nur wirklich Relevantes teilen und den Einsatz von AI sowie dessen Umfang klar offenlegen; andernfalls wälzt man unnötige Auswirkungen auf Reviewer und Leser ab

Auswirkungen des Teilens von AI-Erzeugnissen auf die Community

  • Immer mehr Menschen teilen im Internet Ergebnisse, die mit AI erstellt wurden, und ein erheblicher Teil davon sind nach Ansicht des Autors Inhalte, die eher in den persönlichen Bereich der Ersteller gehören als in eine breite Community
  • Die Position richtet sich nicht gegen AI selbst; eine ablehnende Haltung gegenüber AI widerspreche vielmehr dem Lauf der Zeit
  • Das Problem ist, dass wertvolle Communitys selbst ohne böse Absicht durch die Flut minderwertiger AI-Erzeugnisse allmählich geschwächt werden
  • Ergebnisse wie „Kafka in COBOL neu geschrieben“, „einen Kafka-Blogpost geschrieben“, „ein Kafka-Video erstellt“ oder „ein Kafka-E-Book veröffentlicht“ sind schwer als nützliches Lernmaterial oder Community-Beitrag zu betrachten, wenn es sich in Wirklichkeit um qualitativ schwache Outputs von Claude handelt
  • Schon das Eingeben und Ausführen eines Prompts und anschließend das Einfordern von Stars für ein neues GitHub-Repository oder das wahllose Teilen von AI-erzeugten Texten und Repositories in diversen Subreddits und Slack-Gruppen belastet die Community

Der Punkt, an dem man vor dem Teilen innehalten sollte

  • Das wiederkehrende Muster sieht meist so aus
    • Man entdeckt agentic coding und ist völlig begeistert
    • Man stellt ein Projekt auf GitHub
    • Man lässt AI einen euphorischen Blogpost schreiben und teilt ihn dann in jedem auffindbaren Subreddit und jeder Slack-Gruppe, unabhängig von der tatsächlichen Relevanz
  • Nach dem zweiten Schritt sollte man innehalten und gründlich darüber nachdenken, was man gebaut hat und warum man es teilen will
  • „Weil es cool ist“ reicht als Grund nicht aus
    • Agentic coding ist längst keine Kuriosität mehr, sondern inzwischen Teil der Arbeitsweise geworden
    • Dass AI etwas schreiben kann, nur weil man einen Prompt formulieren kann, ist für sich genommen nicht besonders bedeutsam
  • Vor breitem Teilen sollte man sich einige Fragen stellen
    • Ist es tatsächlich nützlich?
    • Nutzt die Erstellerin oder der Ersteller es selbst?
    • Ist die Dokumentation gut genug?
    • Ist es in einem benutzbaren Zustand?
    • Wurde der Code wiederholt überprüft und ausreichend getestet?
    • Ist es mehr als eine einmalige Claude-Session, bei der man schon am nächsten Tag merkt, dass es doch keine so gute Idee war?
  • Wenn es Software ist, sollte man bereit sein, Verantwortung dafür zu übernehmen, dass Menschen Issues einreichen und PRs schicken
  • Wenn es ein Text ist, sollte es ein Text sein, den man selbst lesen möchte und der dem kumulierten Verständnis der Community tatsächlich etwas hinzufügt
  • Wenn es nur Text ist, den ein LLM wie eine Autovervollständigung erzeugt hat, entsteht leicht ein Ergebnis, das die Erstellerin oder der Ersteller selbst nicht schreiben wollte und das auch niemand lesen möchte

Warum das problematisch ist

  • AI slop vergrößert das Rauschen in Communitys und macht es immer schwerer, das Signal zu erkennen
  • Räume wie Reddit werden zunehmend von vibe-coded AI-Ergebnissen überdeckt, die nach Ansicht des Autors oft selbst mit guter Absicht keinen echten Beitrag leisten
  • Je stärker Communitys dadurch verunreinigt werden, desto mehr ermüden ihre Mitglieder daran, sich durch AI slop hindurchzuarbeiten, und ziehen sich zurück
  • Wenn Mitglieder sich zurückziehen, droht eine Abwärtsspirale, in der die organische Lebendigkeit der Community weiter schwindet
  • Wenn sich dieser Trend fortsetzt, könnten Online-Communitys verkümmern und sterben oder in etwas wie MoltBook münden: eine dystopische, aber banale Form, in der AI-Agenten ohne Menschen miteinander „sprechen“

Gute AI-Nutzung und schlechter AI slop

  • Der Ausdruck AI Slop ist in letzter Zeit weit verbreitet
  • Gemeint ist in der Regel abwertend das Hineindrücken von mit AI erzeugtem Low-Effort-Material in Kontexte, in denen es für die Empfänger keinen Nutzen hat
  • Manche bezeichnen allerdings alles, was über AI geschrieben wurde, als „AI Slop“, selbst wenn es nicht von AI geschrieben wurde; diese Haltung überschneidet sich nach Ansicht des Autors stark mit einer grundsätzlich AI-feindlichen Position
  • Material, das mit Hilfe von AI erstellt wurde, ist nicht per se schlecht
    • Entscheidend ist, wofür es verwendet wird
  • Gute AI-Nutzung macht Dinge möglich, die vorher nicht machbar waren, und ermöglicht es Menschen, zur Community beizutragen, die vorher nicht beitragen konnten
  • Wenn dahinter menschliche Aufmerksamkeit und gute Absichten stehen, kann AI-Nutzung klar positiv wirken
  • Schlechter AI slop ist dagegen wie Müll, der nicht zur Weiterentwicklung der Community beiträgt, sondern aus anderen Gründen über den Zaun geworfen wird
    • Spam
    • minderwertige Beiträge zur Engagement-Steigerung
    • gedankenloses Rauschen an Orten, die für diesen Zweck nicht gedacht sind

Maßstäbe fürs Teilen

  • Inhalte online zu teilen ist großartig und ein wesentlicher Grund dafür, dass das Internet so geworden ist, wie wir es kennen
  • Der entscheidende Punkt ist, zu verstehen, was man teilt, mit wem und warum
  • In der Geocities-Ära bauten nerdige Highschool-Schüler ihre eigenen Homepages und packten Under Construction-animierte GIFs, Web-Counter und Webring-Banner darauf
  • Nur weil man so eine Homepage gebaut hat, heißt das nicht, dass man sie jeder Person zeigen muss, die einem begegnet
    • Man kann sie Freunden oder den Eltern zeigen
    • Ob sie für das gesamte öffentliche Internet relevant genug ist, ist eine andere Frage
  • Für AI-generierte Inhalte gilt derselbe Maßstab
    • Ob vibe-coded App oder Blogpost: Nur weil man etwas erstellt hat, muss man es nicht mit allen teilen
  • Anfang 2026 erlebte das Internet nach Ansicht des Autors einen kollektiven Schock, als es die Möglichkeiten von Claude Opus 4.5 entdeckte, und das an sich war sehr beeindruckend
  • Wenn Menschen etwas Neues entdecken, möchten sie es mit ihren Freunden teilen
  • Zusammen mit der ohnehin schon überhitzten AI-Hype-Vermarktung führte das dazu, dass Subreddits und Slack-Gruppen mit AI-Erzeugnissen überflutet wurden

Was man teilen sollte

  • Nicht von AI gemacht, sondern mit AI gebaut

    • Entscheidend ist die Unterscheidung „Built with AI, not by AI“ aus Gunnar Morlings aktuellem Beitrag
    • AI ist ein mächtiges Werkzeug, und es nicht in den eigenen Werkzeugkasten aufzunehmen, grenzt fast an berufliche Nachlässigkeit
    • Dennoch ist AI nur ein Werkzeug; das Denken, Anweisen und Prüfen muss vom Menschen kommen
    • Gunnar Morling hat mit AI Hardwood entwickelt, einen neuen Parser für Apache Parquet
    • Hardwood ist ein Projekt, das bereits vier Monate Arbeit umfasst und über eine solide Roadmap, eine wachsende Community und ein sorgfältiges Design verfügt
    • Solche Projekte geraten nicht allein deshalb in die Kritik, weil AI verwendet wurde
  • Beitrag

    • Man sollte prüfen, ob das, was man teilen will, der Community tatsächlich einen Beitrag liefert
    • Man muss sich fragen, ob es im Kern nur das Ergebnis eines Prompts an ein agentic-coding-Tool ist
    • Wenn andere mit demselben Prompt zu ähnlichen Ergebnissen kommen könnten, sollte man bezweifeln, ob es für sich genommen ein sinnvoller Beitrag zum Thema ist
    • Prompt Engineering ist spannend und ein interessantes Forschungsfeld, kann aber für das eigentliche Thema einer Community nebensächlich sein
    • Es ist ähnlich, wie einer Community von Liebhabern edler Möbel immer wieder Ikea-artige Möbel hinzustellen, nur weil man ihnen ein interessantes Set Stechbeitel zeigen möchte
    • Nicht jede coole App, die man mit Claude bauen kann, muss geteilt werden
    • Wegwerf-Tools oder kleine Skripte sind in Ordnung; das Internet wurde teilweise auf seltsamen kleinen Skripten aufgebaut, die Menschen erstellt und geteilt haben
    • Dann reicht es aber meist, sie als gist oder auf GitHub zu veröffentlichen, statt einen Launch-Blogpost im Stil der Wiedergeburt von Steve Jobs zu schreiben
  • Respekt vor der Community

    • Auf Online-Plattformen wie Usenet, Reddit oder lobste.rs gehört es zur Grundetikette, zunächst zu „lurken“, also still mitzulesen
    • Man sollte eine Weile bleiben, Beiträge lesen und ein Gefühl für die Atmosphäre des jeweiligen Raums bekommen
    • Was in einer Community akzeptabel ist, entscheiden nicht Einzelne, sondern ihre Mitglieder
    • Selbst wenn man per vibe coding eine neue Implementierung des Kafka-Protokolls gebaut hat, sollte man die Stimmung lesen, wenn man nicht sicher ist, ob die Leute das überhaupt sehen wollen
    • Im Zweifel ist Nachfragen die bessere Lösung
    • Eine weitere Form des Respekts besteht darin, sehr offen und klar offenzulegen, ob AI im Beitrag verwendet wurde, wie sie verwendet wurde und an welchen Stellen
  • Die Asymmetrie von Unsinn

    • Man sollte betrachten, welche Auswirkungen ein Beitrag auf andere hat
    • Die Energie, Unsinn zu widerlegen, ist um Größenordnungen höher als die Energie, Unsinn zu produzieren
    • Wenn man einen unbrauchbaren Text ausschüttet, lädt man den Leserinnen und Lesern die Last auf, selbst herauszufinden, dass er das Lesen nicht wert ist
    • Wenn man einem Projekt ohne ausreichende Sorgfalt einen komplexen PR hinwirft, lädt man Reviewerinnen und Reviewern die Last auf, den Code zu prüfen und zu erklären, warum er nicht gemergt werden kann
    • In solchen Fällen wäre die Community ohne diesen Beitrag besser dran
    • Weil schlechter AI slop so stark zugenommen hat, tun sich Communitys und Projekte schwer damit, die Auswirkungen von Beiträgen zu bewältigen
    • Manche haben sogar Richtlinien eingeführt, die alles strikt verbieten, was mit AI in Berührung kam
    • Projekte wie Vouch sind als Versuch entstanden, dieses Problem zu lösen, aber womöglich ist bereits ein Punkt überschritten, an dem sich die Entwicklung nicht mehr leicht zurückdrehen lässt, und wohin es geht, ist unklar
    • Vor AI fungierte der notwendige Aufwand für Beiträge als eine Art Proof of Work
    • Dieser Aufwand hielt manche Menschen ab oder zeigte echtes Commitment
    • Dadurch konnten Communitys auch minderwertige Beiträge noch verkraften
    • Wer in guter Absicht lernen wollte, konnte durch Mentoring zu einem wichtigen Mitglied heranwachsen, und wer eher in Richtung Spam ging, blieb zahlenmäßig so begrenzt, dass man damit umgehen konnte

Mit großer Macht kommt Verantwortung

  • Communitys sind mächtig, aber verletzlich
  • Die Möglichkeiten von LLMs und agentic-coding-Tools darf man mit Freude erkunden
  • Man darf auch dieses Gefühl genießen, dass etwas „wirklich cool“ ist
  • Aber man sollte Communitys respektieren und nur das teilen, was wirklich relevant ist
  • Ergebnisse, die eher an Kinderzeichnungen mit Wachsmalstiften aus dem Kindergarten erinnern, gehören besser an die Kühlschranktür in der Küche

2 Kommentare

 
GN⁺ 1 시간 전
Hacker-News-Kommentare
  • Nachdem ich auf Reddit Experimente mit Agenten für Karma-Farming und verdeckte Werbung gesehen habe, habe ich die Plattform fast komplett aufgegeben und besuche sie nicht mehr
    Als ich Beiträge gelesen habe, die dieser Agent geschrieben hatte, hatte ich das Gefühl, dass man als Leser überhaupt nicht erkennen könnte, dass sie von einem Computer stammen, und es war etwas beängstigend zu sehen, wie viele Leute oder andere Bots ganz normal mit ihm interagierten
    Hacker News ist noch nicht ganz so weit, aber ich halte es für eine Tatsache, dass es auch hier viele „Nutzer“ gibt, die in Wirklichkeit LLMs sind. Online-Communitys sterben definitiv, und ich hoffe, dass in dieser Entwicklung reale Gemeinschaften wieder aufleben

    • Eine Zeit lang gab es auf Reddit viele experimentelle Posts, die mit ChatGPT als ragebait erzeugt wurden und später mit dem Hinweis bearbeitet wurden, dass sie erfunden und von ChatGPT geschrieben waren
      Vermutlich wollten sie Leuten, die auf AI-Geschichten reagierten, eine Lehre erteilen und sie sich dumm vorkommen lassen, aber die meisten davon waren unglaublich offensichtlich gefälscht. Trotzdem spielte das keine Rolle, und selbst nachdem zugegeben wurde, dass sie fake waren, blieben die Posts populär und die Kommentare gingen weiter
      In Ratgeber-Subreddits liefen weiter ganz normale Tipps zur geschilderten Situation, und in manchen Kommentaren stand, dass sie den Hinweis auf die Fälschung gesehen hätten, aber trotzdem weiterdiskutieren wollten
      Das ist Reddit in Reinform. Die Wahrhaftigkeit eines Beitrags ist nicht wichtig; die aktiven Kommentarspalten populärer Subreddits wollen einfach Stoff zum Diskutieren und meist etwas, worüber man sich aufregen kann. Rückblickend ist das nur logisch, denn schon vor AI waren irreführende Posts über Jahre der einfachste Weg für Karma-Farming
    • Ohne Identitätsnachweis oder vertrauensnetzbasierte Bürgschaften werden öffentliche Chat-Communitys faktisch sterben. Oder sie werden zu Orten, die nur ein wenig besser sind als Kommentarspalten auf Nachrichtenseiten: aktiv, aber wertlos
      Ich bin noch in mehreren Online-Communitys aktiv, die gut funktionieren, aber der Unterschied ist, dass dort langfristige Beziehungen über Zeit gewachsen sind und die Beteiligung sich über mehrere Plattformen erstreckt
      Auch diese Uhr wird irgendwann ablaufen, aber wenn ein Beziehungsnetz aus Textchat, Sprach- und Videoanrufen, Online-Games und Aktivitäten im echten Leben gemischt ist, ist es zumindest noch schwerer, Nutzer zu fälschen
      Trotzdem stimme ich zu, dass das goldene Zeitalter einfacher anonymer Online-Verbindungen vorbei ist
    • Es wäre ziemlich interessant zu beobachten, wie Online-Communitys sterben und reale Gemeinschaften wieder aufleben könnten
      Ich bin noch vor dem Internet aufgewachsen und weiß historisch gesehen, wie man außerhalb davon Gemeinschaften findet, aber weil ich seit den frühen Highschool-Jahren tief im Online-Leben stecke, ist mein Gespür dafür, im echten Leben neue Clubs oder Gruppen zu finden, ziemlich eingerostet
      Zum Glück habe ich viele Freunde und gehe oft raus, aber ich wünsche der jüngeren Generation, die nie ein Leben ohne Internet erlebt hat, viel Glück dabei und würde diesen Weg gern beobachten
    • Reddit ist für mich fast ein toter Dienst. Die großen Subreddits sind voller Bots, und die Nischen-Subreddits sind leer. Selbst in Gaming-Subreddits bekommt man kaum noch eine Antwort
    • Hast du dich jemals gefragt, wer Reddit ruiniert hat?
  • Die Enshittification des Internets läuft schon seit Jahren, aber ehrlich gesagt weiß ich nicht, wie eine echte Lösung aussehen soll
    Die meisten wollen weder ihre Identität verifizieren noch Geld für den Beitritt zu einer Community zahlen oder in Invite-only-Räume gehen. Invite-only-Räume verlieren außerdem wahrscheinlich ziemlich schnell die Vielfalt der Perspektiven
    Trotzdem wird das Bot-Problem immer unerträglicher, also ist vielleicht eine dieser Optionen das geringere Übel. Nebenbei: Den Schreibstil des Autors mochte ich wirklich sehr

  • Ich betreibe eine Nischen-Community für Kreative und habe 2022 ein Verbot für AI-generierte Inhalte eingeführt. Es war leicht zu erkennen, wie stark das die Community zersetzen würde
    Es war nicht einfach. Jeden Tag sperren wir gefälschte AI-Accounts und jeden Monat entfernen wir etwa 600 Konten von Erstellern von AI-Inhalten
    Das ist zusätzliche Arbeit, die es vor dem Auftauchen von AI-Content nicht brauchte, und natürlich kostet es auch mehr. Ich habe Angst, diesen Kampf zu verlieren

    • Wie wäre es, für die Account-Erstellung 1 oder 5 Dollar zu verlangen? Damit ließe sich die Flut wohl ziemlich leicht eindämmen
    • Anders als viele andere Communitys wart ihr wenigstens von Anfang an auf der richtigen Seite. Es ist besser, direkt ein Komplettverbot zu verhängen, als erst langsam aufzuwachen und dann zu bereuen, es nicht früher getan zu haben
    • Ich war einmal in einer kleinen Nischen-Community für kreatives Schreiben. Das war etwa 2021 bis 2022, und ich bin nicht wegen AI gegangen, aber weil die Leute neugierig waren, habe ich im Offtopic-Bereich mehrere LLMs vorgeführt
      Ich habe erklärt, wie sie funktionieren, und trotzdem waren fast alle zumindest interessiert. Eine Autorin sagte, sie arbeite ähnlich, weil sie selbst die Texte von Autoren, die sie mochte, Buchstabe für Buchstabe von Hand abschrieb, um deren Stil zu lernen. Die Hauptsorge damals war, dass es technisch schwer zu schreiben sei
      Ich habe oft gesagt, dass ich zum Lernen da sei und keine aus LLM abgeleiteten Inhalte veröffentlichen wolle. Aber gegen Ende 2022 war es, als wäre ein Schalter umgelegt worden: Fast alle begannen, AI und ihre Nutzer als offensichtlich böse zu bezeichnen, und obwohl mein Name nicht direkt fiel, brachen sie den Kontakt zu mir ab
      Sie reposteten zunehmend härtere anti-AI-Inhalte von Twitter und beschimpften AI-Einreichungen bei verschiedenen Publikationen. Irgendwann repostete jemand einen Tweet, in dem stand, dass LLM-Nutzer sterben sollten, und es gab überhaupt keinen Widerspruch, eher noch Zuspruch
      Also bin ich einfach gegangen. Ich hatte mich nur positiv eingebracht und versucht, neugierigen Leuten zu antworten und zu helfen. Ich habe einmal eine AI-unterstützte Geschichte gepostet, aber das war eine technische Demonstration dafür, wie mein Editor automatisch verfolgt, welche Beiträge von mir und welche von AI stammen, und meine eigenen Teile waren klar gekennzeichnet
      Später wurde in die Einreichungsregeln eine Klausel aufgenommen, dass jemand communityweit für Einreichungen gesperrt wird, wenn sein Inhalt als AI-geschrieben eingestuft wird. Da ich zuvor die Nutzlosigkeit von LLMs und AI-Detektoren demonstriert hatte, erschien es mir wahrscheinlich, dass sie nur einen Vorwand gebraucht hätten, mich auf die Blacklist zu setzen, sobald ich mich irgendwie zeige
      Ich hatte auch eine Geschichte, die ich selbst schreiben und einreichen wollte, habe sie aber aufgegeben. Ich wollte meinen Hals nicht für eine Hexenjagd hinhalten
      Früher war ich auch ziemlich stark im Blockchain-Bereich engagiert, und dort lief etwas Ähnliches ab. Erst ignorierten es die meisten, dann kam ein Paper zum Stromverbrauch, und plötzlich war schon die bloße Verbindung damit ein groteskes moralisches Verbrechen. Aber mit der Zeit stellte sich heraus, dass die Behauptungen zum Stromverbrauch größtenteils kein großes Thema waren, und der Hasszug ebbte ab
      Im Sinne davon, AI-Nutzer auszuschließen, werdet ihr den „Kampf“ wohl nicht verlieren. Es war immer in Ordnung, wenn kleine Communitys ihre Mitglieder auswählen. Ich glaube nur nicht, dass sich diese künstliche Empörung über viele Jahre aufrechterhalten lässt
      Die Behauptungen über Wasser- und Stromverbrauch von AI-Rechenzentren wirken auf mich wie die Londoner-Pferdemistkrise, also etwas, das sich von selbst lösen wird, und auch die Urheberrechtsfragen werden sich bis zu einem gewissen Grad klären. Am Ende wird man sich außer bei minderwertigen Spammern wohl nicht genug darum scheren, um es zu verbieten. Und minderwertige Spammer gibt es natürlich sehr viele
  • In Online-Communitys ist das Gleichgewicht durch LLMs komplett zerstört worden. Menschen wollen echte menschliche Interaktion mit Leuten, die ähnlich denken, und erfolgreich werden diejenigen sein, die Wege finden, authentische Online-Erfahrungen zu bieten
    Vielleicht müssen kleine Communitys zurückkommen. Orte, an denen Vertrauen langsam wächst. Warum muss jede Website zu einem Monster werden, das für den IPO 100 Millionen Nutzer anpeilt? So eine Struktur zieht das Schlechteste an
    Auf Reddit war ich jahrelang unter demselben Nutzernamen aktiv wie hier, aber inzwischen habe ich es fast ganz aufgegeben

    • Ich glaube nicht, dass die Leute das stark genug wollen, um wirklich einen Unterschied zu machen. Schon vor AI-Müllposts hat Reddit immer weiter Veränderungen eingeführt, die das Gefühl abschwächen, mit echten Menschen zu interagieren und dort Freunde finden zu können
      Das UI macht Nutzernamen weniger sichtbar und hat die Sidebars versteckt, die jedem Subreddit seine eigene Gemeinschaftsatmosphäre gaben. In heutigen Kommentar-Threads blendet Reddit anscheinend sogar viele Beiträge anderer Nutzer aus, sodass man womöglich ins Leere hinein schreibt
      Das Gefühl echter Interaktion kommt in altmodischen Foren besser rüber. Dank Avataren und Personalisierung lernt man leichter nach und nach, wer wer ist, und wegen der Kultur längerer Texte bekommt man auch ein Gefühl für die Persönlichkeit anderer
      Aber wie viele Menschen unter 35 oder 40 stoßen überhaupt noch zu solchen Foren, die überlebt haben? Wenn man ihnen die Wahl lässt, ziehen Menschen am Ende offenbar doch die Dopamin-Belohnungen kommerzieller Plattformen vor, die auf maximale Interaktion optimiert sind, zusammen mit einem smartphone-zentrierten Internet, das jede Nuance zerstört
  • Wenn es immer mehr von Bots geschriebene Kommentare und AI-Medien gibt, die nicht mehr von echten zu unterscheiden sind, wäre es vielleicht sogar gut, wenn Menschen soziale Netzwerke verlassen
    Soziale Netzwerke haben dazu beigetragen, Menschen gegeneinander aufzuhetzen. Wenn wir in die reale Welt zurückkehren, können wir wieder wirklich glauben, was wir sehen, und die Sprechweise, Mimik und sogar den Geruch anderer Menschen genießen

    • Das Problem ist, dass viele von uns Nischeninteressen haben und in der Nähe niemanden haben, mit dem sie darüber reden können, oder sonst als seltsam gelten
      Ich mochte schon als Kind Karten und Geografie und tue das immer noch, aber ich habe im echten Leben noch nie jemanden getroffen, der das so sehr mag wie ich. Im Internet gibt es Orte, an denen man darüber sprechen und interessante Texte und Fotos teilen kann
    • Das wirkt naiv. Die Leute werden auf sozialen Netzwerken voller AI bleiben, solange sie sie „genießen“ oder es sie zumindest nicht genug nervt, um zu gehen, und sich dabei noch weiter von der Realität entfernen
      Die Hälfte der Jugendlichen in der EU spricht regelmäßig mit Chatbots. Isolierte Menschen werden sich dorthin bewegen
    • Einige Tech-Unternehmen haben riesige Mengen von Menschen an schädlich machenden Social-Media-Inhalten süchtig gemacht, die ihrer psychischen Gesundheit schaden, und dadurch sind wenige sehr reich geworden
      Ich glaube nicht, dass genau diese Unternehmen und Manager jetzt plötzlich die stärkeren Content-Werkzeuge in die Hand bekommen und dann einfach ihre Sachen packen und nach Hause gehen. LLMs werden genutzt werden, um Skinner-Boxen zu bauen, gegen die Facebook und Twitter noch wie gesunde Communitys aussehen
    • Ich habe auch viele Freunde online kennengelernt, und viele meiner bereits bekannten Freunde sind weit weggezogen
      Ich möchte nicht darauf beschränkt sein, nur mit Menschen befreundet sein zu können, die in meiner Nähe wohnen
    • Wenn man es ohnehin nicht mehr vom Echten unterscheiden kann, warum sollten die Leute dann gehen?
  • Die Firma, für die ich arbeite, ist tief in einer Community verankert, und ich bin zu 100 % sicher, dass unsere Community-Funktionen – egal was Big Tech macht – ausschließlich dem Nutzen der Nutzer dienen. Ohne Grauzone, einfach so
    Seit der AI-Enshittification haben wir wegen Bots erheblich Traffic verloren. Noch schlimmer ist, dass wir Nutzer verloren haben, die früher wieder etwas an andere zurückgegeben haben
    Wir können die Community-Daten unserer Mitglieder auf verschiedene Arten sichtbar machen, also verlieren wir nicht nur dort, aber es gibt etwa 30 Jahre positives Feedback dazu, dass die Community rund um die Plattform gut für die Menschen war, und jetzt ist alles gefährdet
    Am Ende ist mein Job natürlich ein Job. Es gibt auch Premium-Funktionen und verschiedene andere Dinge. Aber der kostenlos verfügbare Wert ist ein bekannter Teil dieser Plattform, und wir wissen auch, dass viele Menschen sie jahrelang kostenlos nutzen und dann, wenn sie sie brauchen oder es sich leisten können, abonnieren und meist lange bleiben
    Dass Menschen solche Verbindungen verlieren, macht mich traurig

    • Ich habe mehrere Online-Communitys verlassen, weil ich Inhalte von niedriger Qualität und die Nutzer, die sie posten, nicht mehr ertragen konnte
      Ich nutze AI auch selbst. Ich halte sie für nützlich. Aber Leute, die da tief drin stecken, behandeln jeden Text auf dem Bildschirm nicht mehr wie Worte eines Menschen, sondern wie einen Chatbot
      „Schreib mir diesen Code bitte für die neue API um“ „Wie bitte?“ „Ich brauche das sofort, kannst du das machen? ChatGPT kompiliert nicht!“ Auf mein „Zeig bitte erst den Code“ kommt dann ein gigantischer Müllhaufen
      Wenn ich sage: „Darf ich fragen, warum ihr euch dafür entschieden habt? Ich mache mir wegen x, y, z Sorgen, also wäre es besser, das hier neu zu schreiben“, dann heißt es: „Das hat die AI gemacht und ich bin noch am Lernen. Neu schreiben muss man nicht, bitte mach einfach nur diesen Teil“
      Wenn ich dann „Nein danke“ sage, macht es jemand anders und der Nutzer verschwindet wieder
  • Traurigerweise lautet die Anforderung wie immer, dass sich einfach alle zusammenreißen und das Rauschen reduzieren sollen. Aber das funktioniert weder individuell noch global
    Man kann sich still verhalten, aber was macht man, wenn ein Freund oder Bekannter vom AI-Spielautomaten vereinnahmt wird und begeistert seine „Werke“ teilt? Ich habe das erlebt und ihn von Anfang an kühl und unhöflich behandelt, aber es hat nichts gebracht. Er teilt weiter ständig neue Outputs
    Global gesehen sterben Communitys. Es scheint, als sei weltweite Kommunikation an einen Punkt gekommen, an dem sie mehr Last als Nutzen bringt
    In den späten 1990ern und frühen 2000ern, vielleicht noch bis in die frühen 2010er, konnte mehr Vernetzung zu besseren Kunden oder besseren Einstellungen führen. Heute waren all diese Bereiche schon vor ChatGPT 3 im Jahr 2022 überfüllt und vom Preiswettbewerb zerfressen, und LLMs haben erstaunlicherweise gar nicht so viel Neues hinzugefügt, sondern diesen Trend nur verstärkt

  • Ich nutze Usenet seit 1991. Als das Internet um 1995 bei der breiten Öffentlichkeit populär wurde, fing es an, schlechter zu werden. Ende der 1990er wurde Usenet von Spam so sehr überrollt, dass es für allgemeine Diskussionen fast unbrauchbar war
    Danach bin ich in Webforen gewechselt, aber ich fand sie nie so gut wie Usenet-Newsreader. Mein Favorit war slrn
    Dann kam Reddit, und viele Online-Foren begannen zu sterben, weil die Leute zu Reddit abwanderten
    Heute Morgen habe ich auf Reddit wieder vier Beiträge als AI-Müll an die Moderation gemeldet. Die Meldekategorie heißt „disruptive use of bots“, aber die Klassifizierung müsste geändert werden
    Bei zwei hat die Moderation meiner Einschätzung zugestimmt und sie ungefähr fünf Stunden später gelöscht. Bei den anderen zwei ist noch nichts passiert. Das ist ein Kampf, den man nicht gewinnen kann
    Manche Beiträge beginnen mit einer Frage wie „Ich hatte da mal so einen Gedanken … [lange weitschweifige Absätze] Was meint ihr?“ Man liest eine Minute, überfliegt den Rest noch eine Minute lang, merkt dann, dass man zwei Minuten seines Lebens verschwendet hat, und braucht noch mal 30 Sekunden, um die Moderation zu informieren
    Das ist in den letzten sechs Monaten explosionsartig schlimmer geworden
    Es gibt auch viele Repost-Bots zum Karma-Sammeln. Manche Subreddits haben Regeln, dass man innerhalb von 30 Tagen oder 6 Monaten nicht denselben Inhalt noch einmal posten darf. Aber wenn ein Beitrag 500 Upvotes bekommt und direkt am nächsten Tag ein Bot exakt dasselbe noch einmal postet und 300 Upvotes bekommt, ist das wirklich absurd. Offenbar drücken Bot-Farmen auch gleich auf den Upvote-Knopf

  • An diesem Punkt glaube ich nicht mehr, dass Identitätsprüfung oder Nachweise des Menschseins funktionieren werden
    Was wir brauchen, ist meiner Meinung nach eine Client-Server-Zusammenarbeit, ähnlich wie bei CORS
    Also dass eine API markiert, nur für Menschen zu sein, und die Laufzeitumgebung diese Markierung respektiert und entsprechende API-Aufrufe blockiert
    Es ist nicht perfekt. Da die Durchsetzung auf der Client-Seite liegt, könnte man sich theoretisch natürlich eine Laufzeitumgebung ohne solche Beschränkungen bauen. Trotzdem scheint mir das der einzige Weg nach vorn zu sein

 
GN⁺ 1 시간 전
Meinungen auf Lobste.rs
  • Wie auch in anderen Einreichungen erwähnt: von AI geschriebene READMEs gehören zu den mental am stärksten ermüdenden Dingen
    Selbst wenn das Projekt an sich gut ist, ist ein von AI geschriebenes README ein starkes Signal dafür, den Tab zu schließen, und schon das Lesen ist schmerzhaft

    • Nachdem ich jahrelang Lobsters und HN verfolgt und morgens beim Kaffee auch github.com/trending gelesen hatte, habe ich genau aus diesem Grund vor etwa 6 Monaten damit aufgehört
    • Stimme zu, aber ein Projekt gut zu vermarkten war für Entwickler schon immer schwierig
      Schon vor LLMs kostete es ziemlich viel Aufwand, Screenshots oder GIFs zu machen und ein gutes README zu erstellen
  • Es gibt Anhänger des „höflichen“, „zivilen“ AI-Schlamms
    Sie behaupten, Geschmack und Fingerspitzengefühl zu haben, niemals verantwortungslos schlechten Schlamm zu posten und nur hochwertigsten, von Menschen nachbearbeiteten und kuratierten Schlamm zu veröffentlichen
    Sie behaupten auch, es sei gar kein Schlamm, weil sie ihn vor dem Posten sorgfältig geprüft hätten. Ihrer Ansicht nach gibt es einen wichtigen Unterschied zwischen dem Premium-Schlamm, von dem sie reden, und minderwertigem Schlamm, und wenn man es genau nimmt, sei auch minderwertig von Menschen Gemachtes Schlamm
    Man müsse Schlamm sorgfältig, effizient und richtig einsetzen, sagen sie, und da es ohnehin die unvermeidliche Zukunft sei und für alle wichtig, müsse man weiter lernen und darüber diskutieren
    Sie trüben das Wasser. Sie beschwichtigen, zerreden Regeln, schaffen Ausnahmen und sagen, um guten Schlammeinsatz von schlechtem zu unterscheiden, sei „Nuance“ wichtig. Sich auf schlechte Beispiele zu konzentrieren, sei langweilig und unhöflich
    Man solle höflich über guten Schlamm diskutieren und mit schlechtem Schlamm nicht zu hart ins Gericht gehen. Schlechter Schlamm sei eigentlich kein großes Problem, werde wahrscheinlich bald gelöst, und der Schaden sei übertrieben. So besetzen sie den Raum
    Wenn Moderatoren solche Schlammfreunde nicht schnell hinauswerfen, fangen etwas weniger höfliche Leute an, etwas weniger höflich Schlamm zu posten
    Unter den Menschen, die an einem Raum teilnehmen, werden es immer mehr, die dem Schlamm wohlgesonnen sind, und sie drängen die Gegner nieder. Im Handumdrehen wird die Community zur Schlammkneipe. Wer hätte sich das vorstellen können

    • Nur zur Klärung: Ist aus Sicht des Autors schon das Veröffentlichen dieses Textes im eigenen Blog ein Trüben des Wassers?
      Wegen der Erwähnung von „Moderatoren“ frage ich mich, ob gemeint ist, dass die Lobsters-Moderation den Autor sperren sollte
      Ich bin zu 99 % sicher, dass diese Reaktion eine Gegenreaktion auf den Autor und den Text ist, aber ich kann nicht erkennen, ob sie sich direkt auf den Text bezieht oder eine allgemeine Haltung ausdrückt
      Das Einzige, was sie mit einer bestimmten Lobsters-Einreichung verbindet, ist die Tatsache, dass sie in diesem Kommentarstrang gepostet wurde, daher könnte man diesen Satz wohl unverändert unter jeden vibecoding-Artikel kopieren
    • Godwins Gesetz
  • Zusammengefasst heißt das: AI ist gut, AI-Schlamm ist schlecht
    Sehr sarkastischer HN-Stil

    • Ich bin nicht gegen LLMs. Dass Computer jetzt natürliche Sprache verstehen können, ist erstaunlich, und ich glaube nicht, dass man die Zahnpasta wieder in die Tube bekommt
      Aber mit den Externalitäten muss man umgehen. Wenn man Kryptowährungen mag, kann man nicht so tun, als gäbe es die Tatsache nicht, dass ein Teil der enthusiastischen Nutzer staatlich unterstützte Ransomware-Gruppen aus Nordkorea sind
      Genauso sollte man, wenn man LLMs mag, kritisch darauf schauen, warum sie sich leichter dazu nutzen lassen, Online-Ökosysteme zu schädigen, statt sie zu bereichern
      Dieser Text wirkt gefährlich nah an „Meine Nutzung ist gut, deine Nutzung ist schlecht“. Viele Menschen nehmen so eine Haltung ein, aber die Definition von „gut“ verschiebt sich dabei stark
      So nach dem Muster: „Ich höre AI-generierte Musik, aber Plattenfirmen haben Künstler sowieso ausgebeutet, also ist es okay“, „Wegen eines Zahnarzttermins war ich zu spät dran und habe ein von einem LLM geschriebenes Designdokument ungelesen verschickt“, „90 % des Blogposts wurden vom LLM geschrieben, aber mein Prompt war interessant und originell“
      Das Kennzeichen einer prinzipientreuen Haltung ist, dass sie nicht dazu dient, andere zu beurteilen, sondern einen selbst in Verlegenheit bringt. Wo also verläuft die Grenze, die der Autor zwar überschreiten wollte, aber nicht überschreiten will
    • Noch schlimmer ist es die Sorte „den Kuchen essen und ihn trotzdem behalten wollen“
      Fairerweise muss ich sagen, dass die meisten LLM-Befürworter, denen ich begegne, so sind
      Das Interessante ist, dass die meisten von ihnen beruflich einige Stufen über mir stehen. Das ist nicht als Angriff gemeint, sondern nur als Maßstab nach dem Motto: „Zumindest weiter als bis zur Spuckweite können sie doch denken“
      Und trotzdem wirken sie nicht so, als lebten sie in derselben Welt, in der ich gelebt habe
      Für soziale Probleme gibt es keine technische Lösung. Schlechtes Verhalten stoppt man mit Strafen und Reibung. Strafen sind bis zu einem gewissen Grad möglich, aber über Grenzen hinweg schwer durchzusetzen, und Reibung ist durch LLMs verschwunden
      Gute LLM-Nutzung ist im Kern dasselbe wie schlechte LLM-Nutzung, nur mit mehr Zwischenschritten. Deshalb wird es, solange sich damit mehr als 0 Geld verdienen lässt, immer mehr schlechtes als gutes Verhalten geben
      Lokal lässt sich das vielleicht mit großem Aufwand ändern, aber global betrachtet sind wir erledigt
    • Dieser Kommentar bietet im Gegensatz zu dem, worüber er sich beschwert, erstaunlich wenig Einsicht oder Feedback
      Dass so ein Kommentar mit so wenig Aufwand Upvotes bekommt, ist merkwürdig
    • Diese Antwort ist wegen des Sarkasmus nicht besonders gut
      Der eigentliche Text ist sorgfältig geschrieben, und man kann seine Position sinnvoll diskutieren oder kritisieren, aber wenn man ihn so in eine Schublade steckt, macht man alles dicht
      Und wenn es um Leute geht, die AI-geschriebene Blogposts in menschliche Communities stellen, halte ich ein gewisses Maß an Sarkasmus auch für angebracht
    • Im Großen und Ganzen stimmt das. Aber es steckt auch die Bitte darin: Macht bitte nicht die Communities kaputt, die mir wichtig sind
      Ob „sehr sarkastischer HN-Stil“ positiv gemeint ist oder nicht, weiß ich nicht :D
  • Schlamm hat den Neustart von https://digg.com innerhalb weniger Monate getötet
    Bots haben sofort den guten SEO-PageRank der alten Domain genutzt und Spam darüber ausgeschüttet, und dieser Kampf war nicht zu gewinnen

    • Hä? Digg ist doch noch gar nicht wieder offen, oder?
  • „AI-Ergebnisse werden viel zu leicht geteilt, und das ist schrecklich und schlecht! AI-Ergebnisse, die ich wahrscheinlich teilen würde, sollten nur dann geteilt werden, wenn ich sie teile. Dann wäre alles großartig.“
    Es ist schon komisch, wenn ein Text in diesem Ton andere Leute als kindisch beschimpft
    Ich weiß auch nicht, warum das auf Lobsters eingereicht wurde

  • Unsere Seite ist kuratierte und sorgfältig geprüfte AI-gestützte Produktivität, deren Seite ist nachlässig und schlampig generierter AI-Schlamm mit negativem Wert

  • Ich mache gute Erfahrungen mit AI. Hier antworte ich direkt auf die Fragen des Autors, um ein positives Beispiel zu geben
    „Willst du es trotzdem breit teilen?“ Nicht breit, aber wenn es relevant ist, poste ich gelegentlich meine Projekte. Zum Beispiel habe ich das Projekt virtdev hier geteilt, nachdem jemand direkt gefragt hatte, wie man AI sandboxen kann, und zwar hier
    „Ist es tatsächlich nützlich?“ Enorm nützlich
    „Verwendest du es selbst?“ Buchstäblich jeden Tag
    „Ist die Dokumentation wirklich gut?“ Kommt darauf an, was man unter „gut“ versteht. Die Dokumentation für Projekte, die mir nicht wichtig genug sind, um sie selbst zu dokumentieren, schreibt AI. Meiner Meinung nach ist das besser als gar nichts. Ohne Claude würden solche Dinge überhaupt nicht existieren
    „Ist es benutzbar?“ Natürlich
    „Hast du den Code wiederholt überprüft und ausreichend ausprobiert?“ Ja. Ich nutze meine eigene Software, und ich behebe regelmäßig die Probleme, auf die ich stoße. Ich lasse auch Claude die gesamte Codebasis im Rahmen eines Code-Reviews prüfen
    „Hast du mit Claude eine Nacht verbracht und am nächsten Morgen fanden es beide doch keine gute Idee?“ Nein
    „Wenn es Software ist, bist du bereit, Verantwortung dafür zu übernehmen, dass Leute Issues melden und PRs schicken?“ Ja
    „Wenn es ein Text ist, ist es etwas, das du selbst lesen wollen würdest?“ Kommt darauf an. Meine Texte schreibe ich selbst. Hier nutze ich Claude nicht für etwas Komplexeres als Korrekturlesen
    Ironischerweise wäre das Ergebnis hier vermutlich besser gewesen, wenn ich Claude benutzt hätte. Das, was ich in die gewünschte Richtung optimiert habe, fiel gemischt aus
    Bei meinem Text über Garbage Collection muss ich jedes Mal lachen, wenn ich ihn lese, aber die Leute auf HN meinten, mit mir stimme etwas nicht. Ganz unrecht hatten sie nicht. Mein einziger Trost ist, dass Bob Nystrom ihn anscheinend mochte
    „Trägt es tatsächlich zum kumulierten Verständnis der Community bei, oder vervollständigt ein LLM nur automatisch Text, den ich zu schreiben zu faul bin und den du zu lesen zu faul bist?“ Weiß ich nicht. Ich mache es für mich. Ob es für die Community nützlich ist, muss die Community entscheiden