1 Punkte von GN⁺ 6 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Ähnlich wie die Erschöpfung, die zum Aufhören mit Facebook geführt hat, wächst inzwischen auch eine starke Abneigung gegen AI insgesamt
  • Inzwischen ist der Zustand fast so weit, dass man sich wünscht, sämtliche AI-bezogenen Elemente bereits auf Browser-Ebene zu blockieren

1 Kommentare

 
GN⁺ 6 일 전
Hacker-News-Kommentare
  • corvus-cornix: Wenn ich mir heute Stellenausschreibungen für Engineering ansehe, bin ich einfach nur erschöpft.
    Früher stand der einzigartige Mehrwert für Kund:innen im Vordergrund, heute stellen fast alle Firmen AI ins Zentrum ihres Employer Brandings.
    Es wirkt wie das Ergebnis von Claude, pack mal etwas AI in diesen HR-/Marketingtext. Kaum sehe ich das, schalte ich schon ab.
    Die Tools sind nützlich und ich nutze sie auch, aber Unternehmen sollten sich wirklich etwas beruhigen.
    AI scheint eher bestehende Engpässe in Organisationen zu verschärfen. Bevor man die Technik aggressiv pusht, sollte man erst die organisatorischen Probleme beheben und vorsichtiger vorgehen.
    Ich frage mich auch, ob sich das zur Dotcom-Blase ähnlich angefühlt hat.

    • acdha: Das gab es damals auch, und die Stimmung, in der Aktien aus völlig absurden Gründen stiegen, war definitiv ähnlich.
      Firmen wie Allbirds hätten gut in diese Zeit gepasst.
      In mancher Hinsicht wirkt AI allerdings noch schlimmer. Vieles, was in der Dotcom-Zeit verkauft wurde, war miserabel umgesetzt und nicht nachhaltig bepreist, aber immerhin waren es Dinge, die Menschen tatsächlich kaufen wollten.
      Zum Beispiel war die Annahme von Kozmo.com, dass Leute es gut finden würden, wenn ihnen Dinge direkt nach Hause oder ins Büro geliefert werden, an sich nicht falsch.
      Ich hatte auch Meetings mit pets.com, und die waren so aufgebläht, dass ein ganzer Raum mit Leuten gefüllt war, die offen sagten, sie würden nur Zeit absitzen, bis sie beim IPO ihre Stock Options zu Geld machen könnten.
      Trotzdem kaufen heute viele Leute Tierfutter, Spielzeug und Medikamente online.
      Heute dagegen wird AI oft in Bereiche hineingezwängt, in denen normale Menschen sie weder wollen noch genug Nutzen daraus ziehen, um dafür zu bezahlen.
      Besonders gravierend ist, dass das Zuverlässigkeitsproblem nicht gelöst ist. Selbst wenn AI langweilige Arbeitsdokumente zusammenfasst: Wenn ich das Original danach noch einmal gründlich lesen muss, um Fehler und Auslassungen zu finden, und auch die Antworten auf kritische Mängel prüfen muss, sinkt meine Zahlungsbereitschaft erheblich.
      Auch die Begeisterung für die gesellschaftlichen Auswirkungen ist auf seltsame Weise anders. Das Web machte früher Dinge möglich, die vorher nicht gingen. Viele AI-Tools und -Services scheinen dagegen eher darauf ausgerichtet zu sein, dass das Management sagen kann: Wir können die Hälfte der Abteilung entlassen und die übrigen Leute noch mehr arbeiten lassen.
      Es gibt schon coole Dinge, aber anders als in der Dotcom-Zeit liegt heute spürbar die Angst darunter, wie Unternehmen überhaupt noch funktionieren sollen, wenn Entprofessionalisierung und sichere Beschäftigung wegbrechen.
    • jlaternman: Das gab es damals auch, und wenn ich jetzt darüber nachdenke, war es wirklich genau dasselbe Gefühl.
      Es fühlte sich an, als würde man zu einem unbekannten Ziel aufbrechen, ohne zu wissen, wohin es geht, aber mit großer Aufregung — und als würde man das Ziel erst während des Flugs festlegen.
    • drob518: Das gab es damals auch, und es ist exakt dasselbe Bubble-Gefühl.
      Eine Blase ist es, wenn alle anfangen, sich dumm zu verhalten, und dann wilde Erklärungen liefern, warum etwas Sinn ergeben soll, obwohl es offensichtlich keinen ergibt.
      1999 drehte sich alles um das Internet, egal ob es Sinn ergab oder nicht, und überall hieß es, wer die Internetrevolution verpasst, sei bald bankrott.
      Bei AI ist es jetzt genauso.
      Das Internet war tatsächlich wichtig, und manche Firmen wurden auch wirklich verdrängt, aber die meisten eben nicht.
      Bei AI wird es am Ende wohl ähnlich laufen.
  • ofjcihen: Für mich ist es einfach furchtbar langweilig geworden.
    Die Idee Die Maschine erledigt die schwierigen Dinge für dich inspiriert mich überhaupt nicht.
    Ich mag es, den Kopf anzustrengen und Dinge wirklich tief zu verstehen.
    Klar kann man sagen, dass man auch die Arbeit des Managements von AI tief verstehen kann, aber das macht es für mich nicht interessant.

    • journeyman3538: Das scheint mir eher eine Frage des persönlichen Geschmacks zu sein.
      Jetzt kann man Zeit für wertvollere Dinge verwenden und frühere Aufgaben oder Interessen statt als funktionale Arbeit wieder als Kunst betreiben, weil man Freude daran hat.
    • theshrike79: Das ist etwas übertrieben.
      Bei schwierigen Aufgaben ist AI immer noch ziemlich schlecht; wirklich gut ist sie bei der Automatisierung langweiliger Wiederholungsarbeit.
      Wenn man zum Beispiel einen Connector für Service X gebaut hat und Y und Z ein ähnliches Auth-Schema benutzen, sich aber in Details unterscheiden, hat man früher locker eine Woche damit verbracht, die Dokus der einzelnen Services zu durchforsten und den Code von X per Copy-paste manuell umzubauen.
      Heute gebe ich einem Agenten einfach projects/service-x-api를 보고 Service Y용으로 projects/service-y-api를 만들어라 und gehe kurz vom Platz weg, und wenn ich zurückkomme, habe ich ein Ergebnis, das zu 90–100 % funktioniert.
      Er liest sogar selbst die offizielle Dokumentation und sucht Blogposts heraus, um undokumentierte Änderungen zu berücksichtigen, die im Januar den offiziellen Flow kaputtgemacht haben.
      In der Zeit konnte ich mich um Dinge kümmern, die tatsächlich Wirkung haben, anderen beim Lernen helfen und interne Richtlinien schreiben.
    • paul7986: Noch mehr hasse ich dieses Man muss nur gut prompten.
      Es wird so verkauft, als könne man Top-40-Songs, Business-E-Mails, Schulaufgaben, Logos, Websites, Apps und Werbetafeln ganz ohne Talent erstellen.
      AI wirkt wie ein Werkzeug, das menschliche Ergebnisse nachahmt und stiehlt, damit sich eine kleine Minderheit bereichern kann, während die Mehrheit das nicht einmal verhindern kann.
  • phyzix5761: Vielleicht kontrovers, aber ich finde es viel besser, zwei Stunden selbst an einem Problem zu sitzen und den Ansatz sowie das Design wirklich bis zum Ende durchzudenken, als LLMs in 30 Minuten Code schreiben zu lassen.
    Es macht einfach mehr Spaß.
    Ich nutze LLMs für schnelle, fokussierte Recherche, die auf meine Bedürfnisse zugeschnitten ist, aber das eigentliche Bauen möchte ich weiterhin mit meinen eigenen Händen tun.

  • thelastgallon: Auch hier auf der Seite gibt es inzwischen viel zu viel AI-Gerede.
    Früher war das deutlich vielfältiger.

    • otterley: Einen guten Punkt gibt es aber:
      Wenigstens gibt es jetzt weniger Crypto.
    • chromacity: Noch nerviger ist, dass AI-bezogene Beiträge oft ausgerechnet von AI geschrieben sind.
      Dass Leute, die von LLMs begeistert sind, sie auch für ihre Blogs nutzen, kann ich noch nachvollziehen.
      Aber dass selbst Anti-AI-Kolumnen oft LLM-generiert sind, ist das Absurde daran.
      Das wirkt entweder wie zynische Klickjagd oder wie extreme Heuchelei.
    • shantnutiwari: /r/programming auf Reddit hatte AI-Beiträge eine Zeit lang verboten, und ehrlich gesagt wurde es dadurch viel interessanter.
      Vielleicht sollte man eher so etwas wie AI Tuesdays machen, also AI-Posts nur dienstags erlauben.
  • merryocha: Ich habe neulich gesehen, dass in der uBlock-Origin-Filterliste für annoyances neue EasyList-Filter für AI Widget und Chat Widget hinzugekommen sind.
    Ich weiß nicht, wann sie ergänzt wurden, aber bei mir waren sie standardmäßig nicht aktiviert.
    Wenn man sie einschaltet, verschwindet definitiv eine Menge unnötiger Ballast.

    • themafia: Wenn ich ein Chrome-Update installiert habe, schoss die Netzwerkauslastung plötzlich nach oben, und sobald ich Chrome schloss, war es sofort vorbei.
      Im Task-Manager war kein Prozess zu sehen, der den Download verantwortete, und als ich mit Firefox danach suchte, stellte sich heraus, dass nach der Chrome-Installation separat on-device AI models heruntergeladen werden.
      Über eine Mobilfunkverbindung ist das wirklich nervig.
  • maplethorpe: Wenn Leute sagen, AI habe ihnen den Spaß am Coden zurückgegeben, klingt das für mich fast schon ironisch.
    Sie schreibt auch noch deine E-Mails, macht deine Einkaufsliste, sagt dir, wie du deinen Tag strukturieren sollst, und jetzt entscheidet AI, was AI als Nächstes tun soll.
    Ich muss mich nicht mehr davor fürchten, Entscheidungen zu treffen, denn AI trifft sie für mich.

    • kibibu: Sam und Dario waren im Schrank und haben AI gebaut, und ich habe eine davon gesehen, und diese AI hat mich angeschaut.
    • derwiki: Wenn Claude ausfällt, vergesse ich schon, wie man Treppen hochgeht, und weil ich es dann nicht nachschlagen kann, bleibt mir nur, darauf zu warten, dass jemand kommt und mich abholt — so ein Witz drängt sich da geradezu auf.
  • aarjaneiro: Schritt 1 scheint zu sein, blockchain zu entfernen, und Schritt 2, AI einzufügen.

    • cortesoft: Es ist schon interessant, dass Crypto-Mining-Firmen gut dafür positioniert sind, auf AI zu pivotieren.
      Beides sind letztlich Geschäfte, in denen man große GPU-Cluster baut und Strom in Geld verwandelt.
    • themafia: Es ist offenbar kein Problem, wenn man zu viel Geld auf den jeweils angesagten Technologietrend geworfen hat.
      Man muss nur sagen, dass man pivotiert hat, und HN damit zuspammen.
    • sph: Ehrlich gesagt war selbst blockchain nicht so schlimm.
      Im Moment gibt es wirklich keinen Ort, an dem man dem entkommt.
  • keithnz: Ist das nicht einfach ein Social-Media-Content-Problem?
    Dann schau es dir eben nicht an.
    Ich persönlich finde AI großartig und versuche, nach Möglichkeit fast alles AI-unterstützt zu nutzen.
    Nicht nur beim Coden und in der Softwareentwicklung, sondern auch zuletzt nach meiner Schilddrüsenentfernung beim Ordnen von Gesundheitsinformationen war das extrem hilfreich. Es hat mir viele Dinge gegeben, die Ärzt:innen mir nicht gesagt hatten, und bei Symptomen nach der OP auch auf Fehler der Ärzt:innen hingewiesen.
    Deshalb dokumentiere und verwalte ich medizinische Themen inzwischen selbst in .md-Dateien.
    Auch beim Einkaufen nutze ich inzwischen häufiger AI-Ergebnisse als Google, und für alle möglichen kleinen Problemlösungen ist es enorm nützlich.
    Tatsächlich ist auch die Verifikation ziemlich gut, aber fact checking muss man wiederum selbst fact checken.
    Sogar für Marktanalyse oder Philosophie ist es überraschend brauchbar, also nutze ich es am Ende fast überall.

    • amoe_: Bei Philosophie habe ich eher die genau gegenteilige Erfahrung gemacht.
      Wenn man philosophische Fragen stellt, zeigen mehrere Chatbots ihre irrationalste Seite und produzieren besonders viel Unsinn.
    • geraneum: Mich würde interessieren, ob du mit einem Beispiel zeigen kannst, wie du zwischen Insanely useful und really good and useful unterscheidest.
  • bambax: Das Problem ist, dass Menschen, wenn sie Arbeit an AI delegieren, dabei nichts lernen.
    Nicht nur im Sinne allgemeiner Selbstentwicklung, sondern ganz konkret im Sinn von Was genau wurde hier eigentlich erstellt?.
    Früher war es so: Wenn dir jemand eine Präsentation oder eine Excel-Datei zeigte, konnte der Inhalt völliger Unsinn sein, aber zumindest wusste diese Person besser als du, was darin stand.
    Das war selbstverständlich, weil sie es selbst erstellt hatte.
    Heute kommt es vor, dass Leute Ergebnisse präsentieren, die sie selbst nicht verstehen, und sie in dem Moment, in dem sie sie dir zeigen, zum ersten Mal gleichzeitig mit dir lesen.
    Das ist ziemlich fremd und unerquicklich.

    • fchicken: Ich kenne jemanden im Tech Support, dessen Arroganz größer ist als seine Kompetenz.
      Ich fragte ihn, was CRC errors sind, und er sagte, ich solle einfach AI fragen, und gab mir dann folgende Antwort:

      CRC (Cyclic Redundancy Check) errors on Wi-Fi indicate that data frames were corrupted during transmission, often caused by high electromagnetic interference (EMI), physical layer issues, or faulty hardware. They cause packet loss, slow speeds, and intermittent connectivity. Common solutions include replacing cables, reducing interference, updating drivers, and adjusting radio power
      Auf den ersten Blick klingt das plausibel, aber wenn man genau hinschaut, definiert es nicht einmal, was ein CRC error überhaupt ist.
      Ich glaube, genau so sieht der durchschnittliche AI-Nutzer aus: Er erstellt, repariert und betreibt Dinge, ohne überhaupt zu verstehen, womit er es zu tun hat.
      Und dafür kassiert er ein sechsstelliges Gehalt.

    • 4b11b4: Ja, in vielen Bereichen sind desirable difficulties verschwunden.
      Ehrlich gesagt ist das für viele fast schon tragisch.
      Ich selbst muss ständig dagegen ankämpfen, absichtlich langsamer zu machen.
    • gitaarik: Umgekehrt kann man sagen, dass die Zeit für solche Arbeiten sinkt und man dadurch mehr Arbeit erledigen kann.
      Selbst bei gleicher Zeit kann man, wenn man AI wie einen assistant nutzt und die Ergebnisse selbst prüft, vielleicht sogar schneller lernen.
      Ich verstehe aber den Punkt, dass viele Leute genau das nicht tun und nach dem AI-Ergebnis einfach aufhören.
  • nitwit005: Ich halte das eher für ein Marketingversagen.
    Wenn alle dasselbe behaupten, gibt es überhaupt keine Differenzierung mehr.
    Das erinnert mich an die Zeit, als bei Bewerbungen plötzlich jede Firma von sich sagte, sie sei innovative.

  • segmondy: Wenn dich AI stört, dann löse es doch mit AI.
    Lass erst die Seite lesen und AI-bezogene Elemente blockieren, und baue dann per vibecode eine Browser-Erweiterung dafür.

  • e38383: Wenn es schon auf OS-Ebene anfängt, wird es in den nächsten 6–12 Monaten wahrscheinlich eher noch schwieriger, Dinge zu finden, die ohne AI gebaut wurden.
    Das klingt fast so, als solle man einfach noch ein bisschen durchhalten und dann ganz aufhören, Computer zu benutzen.
    Wahrscheinlich betrifft das jede glänzende neue Technik.

  • deferredgrant: Ich glaube, die Leute sind weniger von AI selbst genervt als von der Art, wie AI an Stellen hineingedrückt wird, wo sie niemand will.
    Es gibt durchaus nützliche Bereiche, aber die darübergelegte Marketing-Schicht ist inzwischen kaum noch auszuhalten.

  • slappywhite: Wenn ich auf YouTube einen Kanal mit AI-Thumbnail sehe, blockiere ich ihn sofort, und wenn nach Beginn des Videos eine AI-Stimme auftaucht, erst recht.
    Das geht allerdings nur, weil ich mein YouTube schon ziemlich stark kuratiert habe.

  • sph: Nebenbei bemerkt bin ich inzwischen noch genervter davon, dass ich von dieser Seite abhängig bin.
    Je schlechter das Verhältnis von Signal zu Rauschen wird, desto stärker wird diese Abhängigkeit, weil man immer weiter auf den gelegentlichen guten Beitrag in diesem Meer aus AI-Geschichten hofft.
    Und selbst die sind oft nicht technisch, sondern meistens nur Vergleiche dazu, was LLM 1 und 2 gesagt haben.
    Beiträge von Firmen wie Anthropic tauchen zweimal pro Woche auf, holen Hunderte Punkte und landen ganz oben auf der Startseite, und den Rest der Zeit ist alles voller Beiträge, die das testen, benchmarken oder sich darüber beschweren.
    In ruhigeren Phasen wird man dann mit Meinungsblogs überschüttet, in denen jemand irgendetwas mit AI ausprobiert hat.
    Ich bin sicher, dass inzwischen sogar die AI-freundlichsten Leute hier finden, dass etwas mehr Vielfalt nötig wäre.
    Am traurigsten ist, dass ich ausgerechnet zu Reddit gegangen bin, um meiner Medienernährung wieder etwas mehr Farbe zu geben.

    • spzb: Nicht zu vergessen die zahllosen Show HN: Mit LLM schnell irgendwas zusammengebaut-Posts, die jeden Tag auftauchen.
  • morgengold: Wenn Social Media mit AI-Matsch bombardiert wird, könnte das dazu führen, dass Menschen solche Plattformen ganz aufgeben.

    • Shocka1: LinkedIn war schon vorher nicht besonders gut, aber inzwischen ist es wirklich schlimm.
      98 % der Posts sehen aus, als wären sie von einem LLM erzeugt, und bei den seltenen Software-Engineering-Stellenanzeigen gibt es nach 30 Minuten schon mehr als 100 Bewerber.
  • sys_64738: Da drängt sich direkt der Witz auf, dass es bestimmt auch dafür eine AI gibt, die hilft.
    Ich glaube aber, die eigentliche Sorge sollten die skunkworks AI projects innerhalb der Unternehmen sein.
    Das, was gerade öffentlich unterwegs ist, ist nur die primitive Anfangsphase, mit der man erst mal das Wasser testet.

  • Sibexico: Ich beschäftige mich seit den frühen 2000ern mit AI, und damals hat es mehr Spaß gemacht, weil die Entwickler-Community für künstliche neuronale Netze sehr klein war.
    Heute ist AI viel zu weit verbreitet, und selbst Leute mit fragwürdigem intellektuellen Niveau produzieren massenhaft slop, sodass das ganze Internet wie ein riesiger Mülleimer wirkt.

    • alex1138: Noch ärgerlicher wäre es, wenn OpenAI auf Betrug aufgebaut wäre.
      Egal ob die aktuelle Entwicklung nur eine Blase ist oder etwas wirklich Bedeutendes: Dann würde alles auf einem von Anfang an schlechten Fundament stehen.
    • theshrike79: Ich halte das für eine Eisbergstruktur.
      In AI und Sprachmodellen insgesamt steckt sehr viel mehr, aber die Öffentlichkeit sieht nur den kleinen Teil an der Oberfläche.
      Der obere Teil sind Leute, die ganz offen AI-Art-Matsch posten oder einfach ChatGPT-Screenshots zu echten Fragen weiterreichen.
  • preetigagarwal: AI-Müdigkeit ist real.
    Das Problem ist, dass die meisten AI-Produkte nur ein wrapper sind, die auf bestehende Tools eine Chat-Oberfläche setzen und das dann AI nennen.
    Wirklich relevant bleiben Produkte, die Dinge ermöglichen, die früher unmöglich oder viel zu unrealistisch gewesen wären.
    Nur schneller oder billiger zu sein reicht nicht, und die Hürde dafür liegt höher, als die meisten Builder glauben.

  • dingaling: Bei uns in der Firma wurde Kagi Search blockiert.
    Der Grund: Es gibt dort einen AI assistant, und zugelassen sind nur freigegebene AI-Anbieter.
    Wirklich, AI macht alles kaputt.

    • fallbackboy: Das ist ziemlich unfair.
      Andere Suchmaschinen haben auch alle AI-Integrationen, und Kagi macht das im Vergleich sogar geschmackvoll und nur dann, wenn die Nutzer es wollen.
  • thomasjudge: Es ist eher spät, dass dieses Thema erst jetzt aufkommt.

  • Perenti: Ich wünschte, es würde einfach so funktionieren, wie es auf der Verpackung steht.
    Es kostet zu viel Zeit, Übertreibung und Realität voneinander zu trennen.

  • an0malous: Wenn wir später darauf zurückblicken, werden wir diese Zeit wahrscheinlich als The Great Enshittification in Erinnerung behalten.
    Allen gehen die Ideen aus, aber der Kapitalismus verlangt Wachstum, also wird einfach alles schlechter.
    Massiv produzierte mittelmäßige AI-Inhalte könnten dem digitalen Zeitalter ein Ende setzen und uns am Ende alle wieder nach draußen treiben.

    • georgehotz: Das Problem ist weniger, dass es keine neuen Ideen gäbe, sondern eher, dass sie nicht die Rendite liefern, die VCs wollen.
      Renditen in der Größenordnung, die Investor:innen erwarten, liefern praktisch nur Ponzi-Schemata.
    • sph: Mich würde interessieren, ob du nach der Erfindung der digitalen Bullshit-Maschine überhaupt noch einen Fluchtweg innerhalb des Internets siehst.
  • himata4113: Bei facebook / meta ist das meiner Meinung nach besonders schlimm.
    Oben in der camera roll gibt es statt der aktiven Kamera einen eigenen Bereich für ai images, und ich habe das Gefühl, dass dieser Trend aus Zucks Obsession mit virtuellen Avataren hervorgegangen ist.
    Im VR-Bereich sieht man dieselbe Tendenz.

  • Jamesbeam: Wenn man beruflich mit dem Internet zu tun hat, muss einen das wirklich depressiv machen.
    Früher war es ein Wissenshub und kreativer Raum zwischen Menschen, heute ist es ein Ort, an dem alle irgendetwas verkaufen wollen und man diese Verkaufsbotschaften nicht einmal überspringen kann.
    Ich finde, es wurde endgültig seltsam, als internetverbundene Haushaltsgeräte vollständig in die Wohnung eingedrungen sind. Wenn mein Kühlschrank keine Milch hat, kann ich das mit meinen eigenen Augen sehen; ich brauche keine Benachrichtigung mit blinkendem Kreis, die mir sagt: Bitte kurz aufpassen, hier sind fünf Milchvorschläge von Bezos.
    Deshalb habe ich in der Nähe des Bahnhofs meines Viertels günstige 3D-gedruckte wasserdichte Kästen wie eine Wand installiert und in das mittlere Fach handgeschriebene Briefe und leere Blätter gelegt, damit Menschen nützliches Wissen für die lokale Gemeinschaft aufschreiben können.
    Die Regeln sind einfach: Keine AI-Erzeugnisse, keine Ausdrucke von Websites. Alles, was nicht handgeschrieben ist oder Werbung enthält, darf von jeder vorbeikommenden Person entfernt und weggeworfen werden.
    Alles andere bleibt genau eine Woche dort und wird dann durch Neues ersetzt. Wenn alle Fächer voll sind, erweitere ich das Ganze, und was nach einer Woche noch leer ist, kommt weg.
    Bisher habe ich 600 Blatt Papier verbraucht, und die Leute bringen inzwischen auch eigene handgezeichnete oder bunt gestaltete Seiten mit, sodass die Kosten tragbar bleiben. Manchmal nehme ich auch etwas Papier vom Kopierer im Rathaus mit.
    Ich gehe jede Woche hin, sammele die Briefe ein, ordne sie in Ordnern und schaffe Platz für Neues.
    Da ist alles dabei: praktische Tipps, Rezepte mit lokalen Zutaten, Kunst, sogar Gedichte. Und es ist ziemlich beeindruckend zu sehen, wie viele Leute außerhalb des Internets Zeit auf diese Weise für ihre lokale Gemeinschaft aufbringen.
    Wenn die Nachrichten schlecht sind und der Stress hoch ist, gehe ich mit einem Kaffee dorthin und beruhige mich dabei, den Menschen beim Lesen und Reden zuzusehen.
    Inzwischen reicht der Platz an der Wand schon nicht mehr, und ich muss wohl weitere Orte finden.
    Ich glaube nicht mehr daran, wertvolles Wissen im Internet zu teilen, weil AI-Crawler es absaugen und in Modelle stecken, ohne die ursprünglichen Urheber dafür zu würdigen.
    Deshalb denke ich, dass die Welt durch den breiten Einsatz von generative AI im Internet eher kleiner werden wird.
    Menschen, deren Lebensunterhalt von ihrer Online-Präsenz abhängt, werden es wahrscheinlich schwerer haben, und lokale Wissenshubs, in denen nur menschliches Wissen und menschliche Kreativität erlaubt sind, könnten wieder zu Orten werden, an denen Menschen einander treffen und Wissen und Kultur teilen.
    Wenn AI das heutige Internet töten kann, dann ist das vielleicht sogar das Beste, was AI für die Menschheit tun kann.
    Menschen sind anpassungsfähige Wesen, und ich glaube, wir werden uns auch daran anpassen, uns von einem Internet zu entfernen, in dem menschliches Wissen und menschliche Kultur verschwinden.
    Mit etwas Glück werde ich noch erleben, ob ich damit recht habe.

    • gigatree: Das ist wirklich ein unglaublich cooles Projekt.
      Und ich glaube auch, dass AI viele Menschen wieder stärker in die reale Welt zurückdrängen wird.
      Gleichzeitig wird es andere wohl noch tiefer in die matrix hineinziehen.
  • wqtz: Wenn man die Mittel hat, könnte man auch einen virtual assistant anstellen, der Filterung und Kuratierung übernimmt.
    Wenn du selbst Leid in Kauf nimmst, nur um noch etwas Angenehmes zu finden, ist es vielleicht besser, dieses Leid an jemanden auszulagern, der genau dafür bezahlt wird.
    Ich habe tatsächlich schon assistants für etwa 5 Dollar pro Stunde beschäftigt, die allerlei Kleinkram für mich erledigt haben.
    Dazu gehörte auch, Lesestoff auszuwählen oder Skripte zu schreiben, die berufliche Bekannte in meinem Namen ansprechen.
    Das kostet im Monat vielleicht 200–300 Dollar, aber wenn man die richtige Person findet, kann man den BS überspringen.

  • rakshitpandit: AI für Produktivität unterstütze ich voll und ganz.
    Aber AI-Inhalte, die überall in Social Media auftauchen, hasse ich wirklich.
    Wenn ich auf Instagram Fotos von Menschen sehe, ist inzwischen oft nicht mehr so leicht wie in der Anfangszeit generativer AI zu erkennen, dass sie gefälscht sind; mittlerweile ist die Unterscheidung viel zu schwierig geworden.
    Das hasse ich wirklich, und ich verstehe nicht, warum Social-Media-Plattformen das nicht unterbinden.

  • unethical_ban: Ich hatte heute ein compliance training, und die Darsteller:innen und Stimmen waren komplett AI-generiert.
    Seit ich das Veröffentlichungs-Video zu den GPT-Bildern gesehen habe, glaube ich noch weniger daran, dass die Gesellschaft sich gut daran anpassen wird.
    Einen Schritt weiter gedacht landet man sofort bei AI, die Bewegungen von Menschen im öffentlichen Raum analysiert, und weil Regierungen ohnehin schon alle möglichen Daten sammeln, könnten sie bald über unendliche AI-Überwachungsagenten verfügen, die jederzeit jede Person und jedes Fahrzeug verfolgen.
    Bei Kriminalität oder Ungehorsam könnte man mit AI sofort das Verhalten der Tage davor und danach analysieren und unmittelbar Ermittlungen einleiten; vielleicht wäre sogar eine Identifizierung noch während der Tat möglich.
    Wenn irgendwann ziviler Ungehorsam nötig wird, um eine Regierung zu verändern, könnte genau so etwas dadurch unmöglich gemacht werden.
    Für mich bedeutet AI die Zerstörung persönlicher Freiheit und die Abschaffung der Fähigkeit von Bürger:innen, sich gegen Macht zu wehren.
    Ohne sie wäre es deutlich besser gewesen.

  • butz: Dieser ganze GenAI-Aufruhr hat paradoxerweise dazu geführt, dass ich von Hand geschriebenen Code noch mehr schätze.
    Ich mag es, mich tief in Dokumentation einzugraben, die Funktionsweise wirklich zu verstehen und sauber herauszufinden, warum etwas nicht funktioniert.
    Das ist sicher nicht bei allen so, aber für mich ist es so.

  • keyle: Fühle ich sehr.
    Vielleicht habe ich schon die Web-2.0-Ära verpasst, aber als Designer war ich schon damals von solchen überdrehten Trends genervt.
    Bei AI ist es jetzt ähnlich, nur stärker verstärkt und mit Auswirkungen auf viel mehr Menschen.
    Deshalb denke ich einfach an die Web-2.0-Zeit zurück und gehe davon aus, dass auch das wieder vorbeigehen wird.

  • thefz: Abgesehen von Fällen, in denen Machine Learning wirklich gut passt — wie speech to text, manche Audio-Apps, manche Bildbearbeitung oder Textzusammenfassungen — sehe ich den Nutzen anderer LLM-Anwendungen nicht so recht.
    Die Hälfte halluziniert, und die andere Hälfte muss man am Ende ohnehin zu 100 % nachprüfen, sodass ich es oft für besser halte, gleich selbst von vorn zu recherchieren.

  • spatley: Ich stimme zu, dass der AI slop in sozialen Netzwerken schrecklich ist.
    Aber AI-Tools in den Händen von Profis, die Verantwortung für ihre Ergebnisse übernehmen, werden gerade wirklich revolutionär.
    Ich gehe jetzt mit neuer Begeisterung Projekte an, die ich früher niemals begonnen hätte.
    Meine Kolleg:innen und ich nutzen Agenten, um uns wirklich schnell in neue Themen einzuarbeiten.
    Natürlich liegt AI oft daneben. Letzte Woche hat sie mir eingeredet, dass sich beim Aktualisieren eines Auth Tokens auch die Berechtigungen ändern würden, dabei sind authentication und authorization zwei verschiedene Dinge.
    Wenn man nur Bilderzeugnisse und Müllposts sieht, wirkt das natürlich abstoßend, aber ich kann mir inzwischen nur noch schwer eine Welt ohne AI vorstellen.
    Für mich persönlich ist es ganz klar eine Verbesserung.

    • maplethorpe: Ich verstehe nicht ganz, was mit mit Agenten schnell neue Themen lernen gemeint ist.
      Ich lerne gerne, aber wenn ich mir ein neues Thema aneigne, ist mein Gehirn ziemlich schnell gesättigt.
      Ich muss mehrmals weggehen und später zurückkommen, bevor sich überhaupt echtes Verständnis bildet, und das halte ich für einen normalen Prozess.
      Dieses Ringen mit der Sache schafft in meinem Kopf die Verbindungen.
      Informationen, die mir mit dem Löffel eingefüttert werden, fühlen sich für mich nicht wie Lernen an.
      Deshalb frage ich mich: Lässt du dich dann auch mit AI abfragen, um Wissen zu überprüfen, und wiederholst du das regelmäßig?
      Oder schaust du einfach noch einmal in deine Notizen und denkst dann Jetzt weiß ich es?
      Mich würde interessieren, wie du sicherstellst, dass du wirklich etwas gelernt hast.
  • PaulHoule: Ich war von all dem schon früher genervt als ihr.
    Ich war nämlich an drei Projekten beteiligt, die versucht haben, foundation models zu kommerzialisieren, bevor die Technologie überhaupt bereit dafür war.
    Und inzwischen bin ich vor allem davon genervt, dass die Leute selbst von diesem Thema genervt sind.

    • marciob: Wenn du davon schon so genervt warst, warum hast du dann überhaupt weiter daran gearbeitet?