18 Punkte von GN⁺ 2025-12-04 | 3 Kommentare | Auf WhatsApp teilen
  • Unter Ingenieuren großer Tech-Unternehmen in Seattle breitet sich eine starke Abneigung gegen KI aus
  • Innerhalb von Microsoft wächst der Unmut, da der Einsatz von KI-Tools wie Copilot 365 erzwungen wird und es KI-bezogene Entlassungen gibt
  • Teams, die nicht als KI-Projekte eingestuft werden, verlieren bei Sichtbarkeit und Vergütung, und Ingenieure verfallen in Ohnmacht und Zynismus
  • In dieser Atmosphäre löst bereits die Vorstellung eines KI-Startups oder eines persönlichen Projekts sofortige feindselige Reaktionen aus
  • Die Technikkultur Seattles steckt mehr in einer defensiven Haltung als in echter Innovation fest, was das Wachstum von Unternehmen, Ingenieuren und Gründern gleichermaßen hemmt

Das Phänomen des KI-Hasses in Seattle

  • Unter Ingenieuren in Seattle zeigt sich das Phänomen, dass schon das Wort KI selbst negative Reaktionen hervorruft
    • Als das KI-basierte Kartenprojekt Wanderfugl vorgestellt wurde, reagierten die meisten Ingenieure in Seattle sofort und kritisch
    • Wurde dasselbe Produkt in Bali, Tokio, Paris und San Francisco vorgestellt, überwogen Neugier und Interesse
  • Ein ehemaliger Microsoft-Kollege beklagte weniger das Produkt selbst als vielmehr seinen Frust über KI-Tools und das Arbeitsumfeld im Unternehmen
    • Ein zentraler Kritikpunkt ist die Ineffizienz von KI-Tools, die bei der Arbeit aufgezwungen werden, etwa Copilot 365 oder Microsoft AI
    • Die Einführung von KI führt zu Arbeitsstress und Angst vor Entlassungen

KI-Entlassungen und der Zerfall der Unternehmenskultur

  • Innerhalb von Microsoft gab es Fälle, in denen mangelnde Fähigkeit im Umgang mit KI als Entlassungsgrund genannt wurde
    • Im Fall eines PM eines Teams hieß es zur Begründung der Entlassung, er habe „Copilot 365 nicht ausreichend genutzt“
  • Früher herrschten ein „Growth Mindset“ und eine innovationsfördernde Atmosphäre, doch nach der KI-zentrierten Umstrukturierung ist dies stark geschrumpft
    • Bereichsübergreifende Kooperationsprojekte verschwinden, und nur noch KI-bezogene Arbeit gilt als sicherer und prestigeträchtiger Bereich
  • Ingenieure, die nicht zu KI-Projekten zählen, werden als „Nicht-KI-Talente“ abgestempelt
    • Gehälter und Stock Options stagnieren, Leistungsbewertungen verschlechtern sich
    • Der erzwungene Einsatz qualitativ schlechter KI-Tools wie Copilot for Word, PowerPoint, Email und Code verschärft den Frust

Psychische Erschöpfung und Zynismus unter Ingenieuren

  • Obwohl KI-Tools keine Produktivitätssteigerung gebracht haben, sind Kritik oder Verbesserungsversuche tabu
    • Sie gelten als Zuständigkeitsbereich der KI-Organisation, in den andere Abteilungen nicht eingreifen dürfen
  • Ingenieure geraten in eine selbstbeschränkende Denkweise, in der sie KI für nutzlos halten und sich selbst für ungeeignet für dieses Feld
    • Das führt zu nachlassender Innovationskraft der Unternehmen, Stillstand in der persönlichen Karriere und einer Schwächung des Startup-Ökosystems
  • Mit der Formulierung „Wenn man KI erwähnt, wird man behandelt, als würde man Asbest verteidigen“ wird diese soziale Feindseligkeit beschrieben

Amazon und das Tech-Ökosystem von Seattle

  • Mitarbeiter von Amazon sind zwar etwas besser geschützt, doch das grundlegende Problem ist dasselbe
    • Die bisherige Wahrnehmung „Amazon behandelt einen schlecht, bezahlt aber gut“ verdeckt nur die Erschöpfung und den Zynismus innerhalb der Organisation
  • Die Technikkultur Seattles hat sich von Innovation hin zu einer defensiven Haltung verschoben
    • Das Misstrauen gegenüber KI bildet einen strukturellen Teufelskreis, der schon neue Versuche als solche unterdrückt

Der Teufelskreis selbstbeschränkender Überzeugungen

  • Negative Überzeugungen über KI schaden allen drei Gruppen
    • Unternehmen: Die besten Ingenieure sehen Innovation nicht mehr als ihre Aufgabe
    • Ingenieure: Ihre Karriere stagniert inmitten von Wut und Selbstzweifeln
    • Gründer: Schon das Wort „KI“ lässt sie als bedrohliche Existenz erscheinen
  • Diese Überzeugung verfestigt sich zu einem Kreislauf aus zu wenigen Versuchen → weniger Handlungsspielraum → schlechte Produkte → verstärktes Misstrauen gegenüber KI
  • Seattle verfügt noch immer über Tech-Talente von Weltrang, doch der Glaube, wie in San Francisco „die Welt verändern zu können“, ist verschwunden

3 Kommentare

 
mhj5730 2025-12-05

MS 365 AI hat eine Qualität, die sich völlig von der Werbung unterscheidet ...

 
realg 2025-12-04

Ehrlich gesagt ist Copilot 365 wirklich ziemlich mies. Wofür soll man das überhaupt benutzen?

 
GN⁺ 2025-12-04
Hacker-News-Meinungen
  • Ich bin Ex-Googler. Es gibt viele Menschen innerhalb und außerhalb von Google, die sich wie der Kollege im verlinkten Beitrag fühlen.
    Auch ich habe diese AI-skeptische Denkweise nicht vollständig hinter mir gelassen. Ich denke, dass es nur sehr wenige Bereiche gibt, in denen LLMs wirklich effektiv sind — zum Beispiel bei Datengenerierung, die nicht exakt sein muss, aber plausibel wirken soll (Concept Art, Massenanimationen in Filmen usw.).
    Dagegen werden sie in Bereichen, in denen Lernen oder Genauigkeit wichtig sind, langfristig negative Auswirkungen haben und wohl auch in Felder hineingedrückt werden, für die sie von Anfang an ineffizient sind. Deshalb bin ich gegenüber AI-Evangelisten und der gesamten Branche übermäßig skeptisch. Ehrlich gesagt habe ich manchmal das Gefühl, ich würde am liebsten sehen, wie alle, die mit AI Geld verdienen, scheitern (wie damals bei Krypto).

    • Die meisten meiner Google-Freunde sind ebenfalls skeptisch, was das Potenzial von AI zur Verbesserung der Softwareentwicklung angeht. Ich hatte erwartet, dass sie intern zu den Ersten gehören würden, die das übernehmen, deshalb war ich überrascht.
    • Nach meiner Erfahrung gab es kaum Produktivitätsgewinne oder sogar gegenteilige Effekte. Die frühe Entwicklung wird zwar schneller, aber für Code-Review und Korrekturen geht mehr Zeit drauf. Letztlich wurde die Arbeitsmenge nur in einen anderen Korb verschoben.
    • Die aktuelle AI-Debatte wirkt wie ein ontologischer Technologiereligionskrieg, noch mehr als „Tabs vs. Spaces“. Ich mochte Hype schon immer nicht, aber beim Coden habe ich den Nutzen von AI mehrfach bestätigt gesehen. Trotzdem bekomme ich online oft das Feedback, ich wirke wie ein Prediger.
    • Ich frage mich, ob es wirklich stimmt, dass AI schlecht ist, wenn man neue Technologien lernt. Solange man den Lernprozess nicht überspringt, erscheint sie mir nützlich. Ist es nicht okay, sie einfach für ergänzende Fragen zu nutzen?
    • Ich habe mir auch einmal gewünscht, dass AI scheitert. Am Ende werden nur die wirklich wertvollen Einsatzfälle übrig bleiben. Aber ich mache mir Sorgen, dass der wirtschaftliche Schock groß sein wird, wenn diese Blase platzt. Die Reichen werden keinen Schaden nehmen, also werden am Ende die Verbraucher mit Inflation, Arbeitsplatzverlusten, sinkender Servicequalität usw. dafür bezahlen. LLMs sind kein Allheilmittel, und wie damals bei Blockchain wirkt der Wahnsinn, sie mit Gewalt überall hineinzudrücken, beängstigend.
  • Als Softwareentwickler in Seattle hasse ich zusammen mit den meisten Kollegen diese AI-Einführung als Zeitverschwendung. Es gibt ein paar AI-Evangelisten, aber in ihrem Code entdecke ich oft Fehler, die es früher nicht gab.
    Testcode dupliziert dann Framework-Funktionen oder mockt einfach die Funktion, die eigentlich getestet werden soll. Solcher Code sieht oberflächlich schick aus, kommt am Ende aber nicht durch das Review. In Teams mit schwacher Code-Review-Kultur dürfte das in der Wartung zum Albtraum werden.

    • In lockeren Review-Teams wie unserem erhöhen AI-Codeschnipsel eher die langfristigen Nacharbeitskosten. Anfangs kommen sie durch, aber wenn die Probleme später sichtbar werden, wird die Korrektur viel teurer. Das eigentliche Problem ist, AI-Code zu verwenden, ohne das Problem zu verstehen.
    • AI ist nur ein Werkzeug. Sie arbeitet nur in dem Rahmen, den man ihr erlaubt, also liegt falsche Nutzung letztlich beim Menschen.
    • Nachdem ich mehrfach subtile, aber schwerwiegende Bugs in von AI erzeugtem Code gefunden habe, prüfe ich Code, der aussieht, als wäre er von AI geschrieben, jetzt viel misstrauischer. Mein Vertrauen in die Qualität ist gesunken. Menschen, die mit AI coden, scheinen dem eigentlichen Denkprozess auszuweichen.
    • Ich glaube, auch die AI-Evangelisten verhalten sich so, weil sie in Wahrheit Angst haben. Erst wenn man außerhalb von Big Tech arbeitet, spürt man den Wert von AI richtig.
    • Das erinnert an den früheren JS/Node.js-Hype. Am Ende interessiert es niemanden mehr.
  • Die Aussage „Ingenieure probieren es nicht aus“ ist falsch. Das Problem ist schon die Sichtweise, die Welt um AI herum zu zentrieren.
    In Software gibt es Produkte mit echtem Kundennutzen und Produkte, die Investoren begeistern sollen. LLMs sind substanzieller als Blockchain, aber ihr Potenzial wird übertrieben.
    Ich möchte meine Zeit lieber in Kundennutzen investieren als in eine Show für Investoren. Ingenieure halten sich von AI fern, nicht weil sie es nicht können, sondern weil sie nicht in nutzlose Arbeit hineingezogen werden wollen.

    • Die meisten Ingenieure haben generative AI bereits ausprobiert und das Interesse verloren, weil es am Ende nur „Text rein, Text raus“ ist.
      Was AI-Anhänger über „die nächste Version verändert die Welt“ sagen, ist nur ein nicht umsetzbarer News-Zyklus.
      Letztlich sind neue AI-Produkte im Kern einfach „Text-Ein- und -Ausgabe“ und deshalb grundsätzlich nicht besonders interessant.
    • In der europäischen Beratungsbranche gibt es den Trend, zwanghaft in jedes Angebot einen AI-Punkt einzubauen. Das raubt der Arbeit den Spaß.
    • Es gibt auf der Welt einen Bereich der Überzeugung und einen Bereich der Realität. Als Ingenieur mache ich gern reale Ergebnisse, aber ich habe erkannt, dass ein erheblicher Teil der Arbeit im Bereich der Überzeugung liegt.
    • Ich frage mich, ob Seattle in der letzten Rezession härter getroffen wurde als SF. Das scheint zu diesem Widerwillen gegen die aktuelle AI-Blase beizutragen.
    • Hype und Substanz liegen auf einem Kontinuum. Ingenieure sind meist risikoavers, daher meiden sie Hype, aber sobald sie selbst darauf wetten, werden sie wie andere Investoren irrational.
  • Als ehemaliger Einwohner von Seattle habe ich ein paar Gedanken dazu.

    1. Ihre negative Haltung kam durch den Stress der Entlassungen.
    2. FAANG hat nach Überrekrutierung AI als Vorwand für Entlassungen benutzt.
    3. Das AI-Ökosystem in Seattle ist okay, aber ebenfalls ein Opfer des AI-Hypes.
    4. Die Leute hassen weniger AI selbst als vielmehr den Hype darum.
      Trotzdem sieht eure App interessant aus, deshalb habe ich mich angemeldet.
    • Manche hassen AI tatsächlich. Das liegt nicht nur an Entlassungen. Es gibt auch viele Anti-AI-Communities.
    • Ich war frühes Mitglied eines Unicorns, und als massenhaft Leute aus Big Tech eingestellt wurden, entstand eine Kultur des Mangels an Autonomie.
      Die Anordnung, AI einzuführen, ist ein Versuch, Effizienz zu erzwingen, aber in Wirklichkeit ist das eine Nebenwirkung eines Umfelds ohne Marktfeedback.
      Viele Big-Tech-Ingenieure sind wegen Lifestyle-Inflation wütend und können ihre Firma nicht verlassen.
    • Ich wünschte, die Unternehmen wären ehrlich. Wenn es wirklich mächtige AI-Technologie gibt, dann ist es die schlechteste Strategie, die eigenen Mitarbeiter zu Gegnern zu machen.
      Großzügige Abfindungen und ein empathischer Umgang mit Entlassungen wären sehr viel besser gewesen.
    • Es ist nicht nur ein Hype-Problem. Es gibt auch grundlegende Probleme wie fehlende Ethik, Umweltauswirkungen, sinkende Produktqualität und Energieverschwendung.
  • Ich arbeite nicht in Seattle, sondern im Bereich AI-Infrastruktur. In letzter Zeit ist meine AI-Müdigkeit stark geworden.
    Erstens sind die Leute um mich herum übermäßig aufgeregt über neue Modelle, Papers und Open-Source-News.
    Ich möchte mich auf zwei oder drei Dinge mit Tiefe konzentrieren, aber diese ständige brownsche Bewegung an Informationen wirkt eher wie eine Bremse.
    Zweitens ist die Stimmung anstrengend, dass es für jedes Problem eine AI-Lösung geben müsse. Bevor man LLMs benutzt, ist der Prozess des eigenen Nachdenkens und Experimentierens viel produktiver.
    Drittens gibt es den Druck, „mitzuhalten, weil sich alles schnell verändert“, aber in Wirklichkeit ändert sich an den Grundlagen kaum etwas. Flaches, breites Wissen ist nutzlos.
    Und schließlich gibt es den Druck, die Richtung der Technologie vorhersagen zu sollen. Ich glaube jedoch eher an Anpassungsfähigkeit als an strategische Vorhersagen.
    Die Modelle selbst sind großartig, ermüdend ist das menschliche Verhalten darum herum.

    • Wenn ein neues Modell erscheint, probiere ich es aus, und wenn es gut ist, setze ich es als Standard und das war’s.
      Diese seltsame Kultkultur um Modelle kann ich nicht verstehen. Es ist einfach nur ein besseres Werkzeug.
  • Während alle über AI reden, möchte ich lieber über eine Reiseplanungs-App sprechen. Es gab Tausende Versuche, aber keinen Erfolg.
    Dafür gibt es zwei Gründe.

    1. Man kommt nicht an die überlegene Datenqualität von Google Maps heran.
    2. Fehlendes Geschäftsmodell — Flüge, Unterkünfte, Touren usw. sind bereits völlig überfüllt mit Wettbewerb.
      Am Ende ist das einfach kein profitabler Markt.
    • Statt eine Reise-App zu benutzen, ist es effizienter, mit ein paar Browser-Tabs und einem Notizblock zu planen.
      Die Reibung, eine App zu installieren und zu lernen, ist größer.
    • Ich nutze Wanderlog kostenpflichtig und bin zufrieden. Google Maps ist integriert, daher gibt es auch kein Abdeckungsproblem.
    • Solche Märkte sind bereits ein von großen Plattformen gelöstes Feld. Es gibt aber noch Nischen wie Geocaching, die nicht gelöst sind.
  • AI wird den Mitarbeitern tatsächlich aufgezwungen, und dadurch gilt sie innerhalb der Branche als überbewertete Technologie.
    Es gibt keine echte Veränderung, stattdessen sind Entlassungen und verschwendete Kosten durch AI-Investitionen das Problem.
    Einige wenige Unternehmen werden überleben, aber für die meisten wird nur Schmerz bleiben.

    • Dass AI als Vorwand für Entlassungen benutzt wird, ist wirklich widerlich. Es geht schließlich um die Lebensgrundlage von Menschen.
  • Der Grund, warum Angestellte in Großkonzernen AI hassen, ist das ignorante Aufzwingen durch die Führung.
    In Seattle ist diese Müdigkeit stärker, weil dort der Anteil an Beschäftigten bei Big Tech wie Microsoft oder Amazon hoch ist.
    In SF dagegen wird das durch den Optimismus von AI-zentrierten Startups wie OpenAI, Anthropic oder Nvidia ausgeglichen.

    • In dem Startup im Raum Seattle, in dem ich arbeite, ist die Wahrnehmung von AI positiv.
      Trotzdem sammelt sich Müdigkeit an, weil Entlassungen immer wieder damit begründet werden.
      Persönlich finde ich Modelle wie Claude oder Gemini als Unterstützung beim Code-Review ziemlich nützlich.
    • Genau, das ist der Unterschied.
  • Bei der Wahl eines Produktnamens würde ich unbedingt raten: Sprecht ihn laut aus. Wenn die Aussprache holprig ist, wird die Marke schwach.

    • Ich bin in Norwegen aufgewachsen, und „wandervogel“ bedeutet eine freie Person in der Natur.
      Auf Norwegisch ausgesprochen klingt es für mich wie „wander full“, und das gefällt mir.
    • Auf der Hälfte der Landingpage steht allerdings „Wanderfull“. Es wirkt, als könnten selbst die Ersteller sich nicht auf den Namen festlegen.
    • Für Nutzer, die Englisch als Zweitsprache sprechen, kann die Aussprache anders klingen. Man muss unterschiedliche Sprachhintergründe berücksichtigen.
    • Sagt den Namen laut und lasst euer Gegenüber ihn buchstabieren. Wenn das nicht klappt, bedeutet das, dass selbst die Eingabe der URL schwierig sein wird.
    • Vermutlich wurde ein englisch klingender Name wie „Wanderfowl“ vermieden, weil „foul“ negative Assoziationen hat.
  • Auch in SF hassen viele Tech-Leute AI. Menschen außerhalb der Branche noch mehr, nur dass gerade die Leute, die ihre Zukunft auf AI setzen, besonders laut sind.

    • In dem Kommunalverwaltungsbereich, in dem ich arbeite, sind ausgerechnet Nicht-Techniker AI gegenüber eher positiv.
    • Die meisten Leute mögen AI-generierte Inhalte nicht, benutzen aber ChatGPT im Alltag.
      Als Konsument mag ich das auch nicht, aber als Arbeitswerkzeug finde ich es nützlich.
    • Die Annahme, dass „die Zukunft von AI abhängt“, ist unbegründet. Das Tempo des technischen Fortschritts ist langsam, und es gibt kein exponentielles Wachstum.
    • Die meisten meiner nichttechnischen Freunde sehen AI negativ. Eine Ausnahme sind nur Menschen, die AI-generierte Bilder posten.
    • Ja, in SF ist es ähnlich. Dort gibt es allerdings tatsächlich nützliche AI-Projekte.