Metas KI-Umstellung macht das Leben von 78.000 Beschäftigten zur Qual
- Während Meta den Übergang ins KI-Zeitalter vorantreibt, sammelt das Unternehmen ohne Zustimmung Computernutzungsdaten seiner Beschäftigten, kündigt umfangreiche Entlassungen an und löst damit intern massive Unzufriedenheit aus
- Gegen ein Programm, das Tastatureingaben, Mausbewegungen, Klicks und sogar Bildschirminhalte verfolgt, protestierten Beschäftigte scharf und bezeichneten es als Eingriff in die Privatsphäre; eine Opt-out-Möglichkeit gibt es jedoch nicht
- Während die Nutzung von KI-Tools in Leistungsbewertungen einfließt und der Token-Verbrauch über ein Dashboard verfolgt wird, steigt der Wettbewerbsdruck unter den Beschäftigten
- Die Entlassung von 10 % der Belegschaft (rund 8.000 Personen) ist für den 20. Mai angesetzt; viele Beschäftigte fragen sich nun, ob sie am Ende ihre eigene KI-Ersatzkraft trainiert haben
- Metas gleichzeitiges Vorgehen bei Mitarbeiterüberwachung, erzwungener Tool-Einführung und Massenentlassungen im Zuge der KI-Transformation ist ein Vorgeschmack auf das, was anderen Tech-Unternehmen bevorstehen könnte
Vollständige Nachverfolgung der Computernutzung von Beschäftigten
- Im vergangenen Monat teilte Meta seinen US-Beschäftigten mit, dass Tastatureingaben, Mausbewegungen, Klicks und Bildschirminhalte vollständig nachverfolgt würden
- Ziel ist die Gewinnung von Trainingsdaten, um KI-Modelle darin zu schulen, „wie Menschen Computer tatsächlich nutzen, um ihre tägliche Arbeit zu erledigen“
- Die Beschäftigten reagierten sofort mit Protest und kritisierten dies als Eingriff in die Privatsphäre sowie als unsoziale und kalte Maßnahme
- Ein Engineering-Manager fragte: „Das ist äußerst unangenehm, wie kann man sich davon abmelden?“, worauf CTO Andrew Bosworth antwortete: „Für Arbeitslaptops gibt es keine Opt-out-Option.“
- Auf diese Antwort reagierten Beschäftigte mit mehr als 100 wütenden und erstaunten Emojis
- Danach stellten Beschäftigte auch infrage, ob Meta die gesammelten Daten sicher schützen könne; Bosworth antwortete, die Daten würden „sehr streng kontrolliert“ und es gebe kein Risiko eines Abflusses
Mark Zuckerbergs KI-Strategie
- Zuckerberg setzt Metas Zukunft auf KI, integriert KI in Apps wie Facebook und Instagram und investiert Hunderte Milliarden Dollar in KI-Modelle und Rechenzentren
- Nach der Veröffentlichung von OpenAIs ChatGPT im Jahr 2022 begann er, das Unternehmen auf KI auszurichten
- Im vergangenen Sommer gründete Meta mit Investitionen in Milliardenhöhe ein „Superintelligenz“-Labor und stellte die KI-Abteilung vollständig neu auf
- Zuckerberg betont, dass Superintelligenz das Leben der Menschen verbessern werde
- In einer unternehmensweiten Fragerunde am Tag nach dem Investor Call erklärte Zuckerberg, die Datenerfassung von Beschäftigten diene „nicht der Überwachung oder Leistungskontrolle“, sondern solle der KI beibringen, „wie kluge Menschen Computer nutzen, um Arbeit zu erledigen“
- Er fügte hinzu: „KI ist wahrscheinlich einer der wettbewerbsintensivsten Bereiche der Geschichte.“
AI Transformation Weeks und Druck zur Tool-Nutzung
- Im März veranstaltete Meta für seine Beschäftigten „AI Transformation Weeks“
- Dort wurde der Umgang mit KI-Coding-Tools und KI-Agenten (digitale Assistenten, die Aufgaben eigenständig ausführen) vermittelt
- Produktdesigner wurden angewiesen, mithilfe von KI das Coden auszuprobieren, und Softwareentwickler sollten mit KI Designaufgaben testen
- Ein internes Dashboard zur Nachverfolgung des Token-Verbrauchs (eine KI-Nutzungseinheit, entsprechend etwa vier Zeichen Text) wurde eingeführt
- Einige Beschäftigte sahen darin ein Druckmittel, um Konkurrenz unter Kolleginnen und Kollegen zu fördern
- Die Zahl der KI-Agenten nahm so stark zu, dass sogar Agenten zum Auffinden anderer Agenten und Agenten zur Bewertung von Agenten entstanden
- Ob Beschäftigte KI-Tools verwenden, fließt in ihre Leistungsbewertung ein
Massenentlassungen und Verunsicherung der Beschäftigten
- Nachdem am 17. April berichtet worden war, Meta werde bald 10 % der Gesamtbelegschaft entlassen, befürchteten Beschäftigte, sie könnten ihre eigene KI-Nachfolge trainiert haben
- Zwei Tage später kündigte Meta offiziell an, in diesem Monat rund 8.000 Personen zu entlassen
- Personalchefin Janelle Gale erklärte in einer internen Nachricht, der Stellenabbau solle „andere Investitionen ausgleichen“, und fügte hinzu: „Ich weiß, dass fast ein Monat voller Unklarheit sehr belastend ist.“
- Die Entlassungen sollen am 20. Mai vollzogen werden
- Einige Beschäftigte sehen Meta nicht länger als einen Ort für eine langfristige Karriere; manche suchen bereits neue Jobs oder hoffen sogar, selbst von den Entlassungen betroffen zu sein, um Abfindungen zu erhalten
Reaktionen der Beschäftigten und interne Stimmung
- Beschäftigte reagierten, indem sie Entlassungsleitfäden und nihilistische Memes teilten
- Das Meme „It do not matter“ wurde intern verbreitet
- Bis zu den Entlassungen am 20. Mai wurden mindestens drei Countdown-Websites erstellt
- Eine davon trug in der Überschrift die Anspielung „Big Beautiful Layoff“, eine Parodie auf den Namen eines innenpolitischen Gesetzes von Präsident Trump
- Eine Mitarbeiterin aus dem Bereich User Research schrieb in einem internen Beitrag, das sei „extrem demotivierend“
- Ein Beschäftigter kritisierte Bosworth direkt mit den Worten, ihn beunruhige „Ihre Kälte gegenüber den Sorgen Ihrer eigenen Mitarbeiter“
Bedeutung für die gesamte Branche
- Die Lage bei Meta ist ein frühes Beispiel dafür, was andere Tech-Unternehmen erleben könnten, wenn sie KI in den Arbeitsplatz integrieren
- Microsoft, Block, Coinbase und andere haben zuletzt ebenfalls Entlassungen oder Programme für freiwilliges Ausscheiden angekündigt, weil sich Arbeit durch KI verändert
- Da KI-Tools bei der Codegenerierung nützlich sind, treffen die Auswirkungen besonders Softwareingenieure, die das Fundament digitaler Unternehmen bilden
- Professor Leo Boussioux von der University of Washington sagte, „KI kann alle zu besseren Codern machen, erhöht aber gleichzeitig die Intensität der täglichen Arbeit“, und bewertete die Lage mit den Worten, es gebe „noch kein Playbook für den KI-Einsatz am Arbeitsplatz“
- CFO Susan Li sagte im Investor Call, man wisse angesichts der schnellen Entwicklung der KI-Fähigkeiten nicht, wie groß das Unternehmen optimalerweise sein sollte, und deutete damit weitere Veränderungen an
1 Kommentare
Hacker-News-Kommentare
https://archive.is/JUPmz
Der Ablauf ist so: Zuck hat irgendeine Idee, die Jasager um ihn herum sagen „Genau, das wird die Welt verändern“, und danach wird daraus ein Show-Spiel des Ringküssens
Wenn man fragt: „Wie konnte man 80 Milliarden Dollar im Metaverse verbrennen?“, dann genau so
Geh nicht zu Meta. Egal, wie schnell der Recruiter antwortet oder wie cool die Arbeit aussieht. Beim Team-Matching lügen die Manager. Dass die durchschnittliche Verweildauer unter zwei Jahren liegt, hat einen Grund
Es ist eine toxische, angstbasierte Kultur. Wenn du reinkommst, denken die Leute um dich herum bereits darüber nach, dich zum Sündenbock zu machen. Die eigentliche Arbeit wird für politisch gut positionierte Leute weggeschlossen, und die Leute außen herum müssen plausibel klingende Scheinprojekte erfinden. Selbst wenn du dir Arbeit suchst, beginnt sofort das politische Gerangel darum, sie dir wegzunehmen
Führungskräfte sehen den schwachen Arbeitsmarkt und stellen sich vor, dass sie unbequeme Ingenieure nach Belieben feuern können
Gerade in den letzten Jahren kamen die Führungsetagen von Tech-Unternehmen überwiegend von einigen Elite-Universitäten, bei denen der Wohlstand der Eltern die Zulassung stark beeinflusst, daher überrascht mich die heutige extreme Geringschätzung von Arbeit nicht
Der Versuch, über Jahre ausgebildete Ingenieure wie austauschbare Handarbeiter zu behandeln, wurde immer wieder unternommen, und das Ergebnis war immer dasselbe. LLMs werden daran nichts ändern
Es scheint zu fehlen an breiteren gesellschaftlichen Normen dafür, wie man AI in Wissensarbeit einsetzt
Kürzlich hat mir bei der Arbeit jemand über Teams eine riesige Textmenge geschickt. Normalerweise ist die Person gutwillig, hat aber in fast jedem Wort einen Rechtschreibfehler und schreibt selten Nachrichten mit mehr als 20 Wörtern, und das war ganz offensichtlich ein ChatGPT-Copy-paste
Für Leute wie auf HN, die in Begriffen wie Kontextwechsel und Informationsdichte denken, ist das Problem an der Situation offensichtlich, aber mir wurde klar, dass es für die breite Masse überhaupt nicht offensichtlich ist. Die Person schien ehrlich zu glauben, es sei hilfreich, 15 Sekunden lang einen Prompt einzugeben und mich dann 30 Minuten lang AI-Gebräu entwirren zu lassen
Ein Verständnis oder Konsens darüber, was hier akzeptable Praxis ist, ist als soziale Norm noch überhaupt nicht angekommen
Weniger kompetente oder weniger nützliche Leute produzieren in weniger Zeit mehr Information, und nützlichere Leute verbringen ihre kostbare Zeit damit, sie zu interpretieren. Deshalb bin ich skeptisch, ob LLMs unterm Strich für die meisten Organisationen ein Gewinn sein können
Was jemand im Hintergrund verwendet, ist mir egal, aber ich möchte, dass das, was übermittelt wird, das Ergebnis einer eigenen gedanklichen Synthese ist
Sonst kann man, wie viele gesagt haben, auch einfach den Prompt schicken. Es ist sogar interessanter und besser zu wissen, dass ein Kollege Schwierigkeiten hat, etwas zu vermitteln
Vor AI galt bei Designdokumenten, Jira-Tickets und Pull Requests zumindest die Annahme, dass die Person dafür eine gewisse Menge eigener Zeit und Mühe investiert hat
LLMs löschen diese Annahme aus. Jetzt weiß man bei einer E-Mail, einem 12-seitigen Designdokument, einem Pull Request mit 100 oder 1000 Zeilen oder zehn Jira-Tickets nicht mehr, ob jemand Zeit investiert hat oder ob mit einem AI-Abo nur etwas Plausibles ausgespuckt wurde. Man muss es trotzdem lesen und bearbeiten, und diese Kosten sind 100-mal höher als der Aufwand des Erstellers
Für Leute, die den Arbeitsplatz als Optimierungsspiel zwischen eigenem Aufwand und dem Anschein von Wert gesehen haben, sind LLMs die perfekte Abkürzung. Mit ein paar Zeilen Anfrage kann man Dokumente erzeugen, die nach viel Arbeit aussehen
Wenn jemand 30 Minuten damit verbringt, das AI-Gebräu aus einem 15-Sekunden-Prompt zu prüfen, wird das Feedback in ChatGPT eingefügt und ein überarbeitetes Dokument zurückgeschickt. Damit macht man am Ende die Arbeit dieser Person mit
Für Teams oder Unternehmen, die den Anschein von Aktivität als Stellvertretermaß für Beitrag verwendet haben, wird das ein schwieriger Übergang. E-Mail-basierte Büroarbeiter auf der ganzen Welt haben ein Tool bekommen, das Ergebnisse erzeugt, die so aussehen, als hätten sie ihre Arbeit gemacht, und oft könnten sie sogar plausibel richtig sein. Eine Person kann unzählige Designdokumente und Jira-Tickets erstellen und im Firmen-Slack noch schlagfertige Antworten hineinkopieren, dabei real weniger arbeiten als je zuvor und trotzdem wie der aktivste und engagierteste Mitarbeiter wirken
Teams mit bereits guter Review-Kultur und Managern, die sich mehr um Output als um Metriken kümmern, werden klarkommen. Wer nur ein wenig hinschaut, erkennt den AI-Copy-paste-Mitarbeiter. Faule Manager, die Dokumente überflogen und Diagramme über Pull-Request-Zahlen oder geänderte Codezeilen gezeichnet haben, werden schockiert feststellen, dass genau die Mitarbeiter, die in ihrem Spiel ganz oben stehen, dem Team den größten Schaden zufügen
Alle wollen gern das Ergebnis ihrer Trickserei verschicken, aber niemand will es bekommen
Die meisten wissen, dass sie genau das tun. Wenn du das Gefühl hast, deine LLM-Nutzung verbergen zu müssen, bedeutet das, dass in deinem finalen Entwurf nicht genug von deiner eigenen Stimme und Arbeit steckt, und das musst du korrigieren
Ich weiß, dass das gut gemeint ist, aber es ist schwer, sich nicht so zu fühlen, als hielte man mich für ein Kind oder einen Idioten. Früher gab es einen Konsens, dass es unhöflich ist, für jemanden zu googeln, und letmegooglethatforyou.com war ein gutes Beispiel dafür; ich verstehe nicht, warum AI-Zusammenfassungen und AI-Gebräu nicht auf dieselbe Weise verstanden werden
Es wird auf Metas Entlassungen verwiesen, aber einen größeren Einfluss auf die Moral der Mitarbeiter als AI haben wahrscheinlich Massenentlassungen
Meine Hypothese zu Entlassungen in Tech-Unternehmen ist folgende: In den letzten etwa zehn Jahren sind fluktuationsfördernde Praktiken wie Stack Ranking aus der Mode gekommen. Warum, darüber kann man spekulieren. Vielleicht wollten mittlere Manager wegen eines Generationenwechsels die Drecksarbeit nicht mehr machen. Jedenfalls hat dieser Wandel stattgefunden
Unternehmen wollen aber weiterhin Low Performer loswerden, und manche halten das sogar für nötig. Also macht man nun regelmäßig unternehmensweite Personalabbau-Runden und versieht sie jeweils mit einer bequemen Begründung. Makrolage, AI, egal was
Diese Hypothese erklärt, warum Unternehmen während oder direkt nach Entlassungen aggressiv einstellen und warum sich Entlassungen Jahr für Jahr wiederholen
Mark hasst Leaker, aber dass die NYT offenbar eine direkte Leitung zu dutzenden Leuten aus dem operativen Geschäft hat, ist ziemlich komisch
Am Ende ist es schwer, ein Geheimnis zu wahren, das man mit 70.000 Mitarbeitern teilt
Er ist ein sehr reaktiver Mensch, nicht der Typ, der sich fragt: „Wie muss ich mich verändern?“ oder „Was habe ich getan, damit das passiert?“
Bei mehreren Skandalen Ende der 2010er habe ich das so empfunden. Für ihn war alles PR-Reaktion, keine Selbstprüfung. Die beste PR ist, kein schlechter Mensch zu sein. Ich frage mich, ob er darüber je nachgedacht hat
Menschen in kleinen Firmen oder Solo-Arbeit scheinen mehr Freude daran zu haben, AI zu benutzen
Als Selbstständiger habe ich im letzten Monat fast 1000 Dollar in Tokens verbrannt, und dabei hatte ich ziemlich viel Spaß
Wenn von dir erwartet wird, 10-mal produktiver zu sein, dein Gehalt aber nicht steigt, füllst du am Ende nur die Taschen der Führungskräfte und verringerst zugleich deine eigene Jobsicherheit
Dass Meta das für eine gute Idee hielt und glaubte, Mitarbeiter würden sich wohlfühlen, solange behauptet wird, es werde nur für anonymes AI-Training genutzt, ergibt für mich immer noch keinen Sinn
„Diese Daten werden sehr streng kontrolliert“, antwortete Bosworth. „Es wird kein Leckagerisiko geben“
Oje. Berühmte letzte Worte
Ich habe einen großen Teil meines Lebens in dem Glauben verbracht, dass Technologie das Leben besser machen würde, aber inzwischen erkenne ich, dass dieser Gedanke ein Irrtum ist
Technologie verstärkt Macht. Solange wir nicht kollektiv ein Wertesystem neu definieren und durchsetzen, das allen zugutekommt, fungiert technologischer Fortschritt einfach als Werkzeug der Unterwerfung
Am Ende geht es entweder in Richtung Totalitarismus, oder man leistet Widerstand und drängt ins Unbekannte vor, um einen Fluchtweg zu schaffen. Totalitarismus kann in Stillstand im Namen des Status quo münden, in anarchistischen Primitivismus oder in technokratische Langeweile
Realistisch bleibt nur, in unbekannte Richtungen weiterzugehen und zu hoffen. Ich kann aber nicht so tun, als sähe ich den Weg durch all das klar vor mir
Ich habe kürzlich etwas über die Luddites geschrieben. Wenn man sich ihre tatsächlichen Forderungen ansieht, waren sie nicht anti-technologisch, sondern Arbeiteraktivisten. Während der Industriellen Revolution wurde das Leben der meisten Menschen deutlich schlechter, und besser wurde es erst, nachdem die von ihnen geforderten Gesetze schließlich umgesetzt wurden
https://www.disruptingjapan.com/the-real-luddites-would-have...
Erstens sind Menschen sich oft und sehr grundlegend uneinig darüber, was „allen zugutekommt“ überhaupt bedeutet. Viele dieser Unterschiede lassen sich ohne physische Gewalt nicht auflösen
Zweitens bedeutet „durchsetzen“, manchen Menschen Macht über andere zu geben. Die Macht, Dinge zu tun, die für andere ein Verbrechen wären: Menschen ins Gefängnis zu stecken, ihnen Geldstrafen aufzuerlegen und sie in ihren Handlungen einzuschränken. David Friedman definiert den Staat in seinem lesenswerten Buch The Machinery of Freedom genau so. Das Problem ist, dass auch Regierungen letztlich von Menschen betrieben werden, und Menschen sind nicht vertrauenswürdig genug, um ihnen eine solche Macht zu übertragen
Letztlich besteht die einzige Verteidigung darin, anderen diese Macht gar nicht erst zu geben. Nicht dem Staat, nicht Big Tech, niemandem. Aber dafür braucht es ein Maß an Weitsicht, das die meisten Menschen nicht haben oder nicht einsetzen wollen, besonders wenn direkt vor ihnen etwas Verlockendes liegt. Als Facebook neu war, wie viele Menschen haben wohl vorausgesehen, dass es Jahrzehnte später zu einem riesigen Monster werden würde, das wir nicht mehr kontrollieren können, und sich deshalb einfach geweigert, es zu benutzen? In meinem Umfeld lautet die Antwort: „nicht in nennenswerter Zahl“. Unter den Leuten, die ich kenne, bin ich der Einzige, der Facebook nie benutzt hat. Und selbst ich habe es nicht von Anfang an aus Weitsicht abgelehnt, sondern nur einem instinktiven Widerwillen folgend und dann über Jahre zugesehen, wie sich ein Zugunglück in Zeitlupe entfaltete
Deshalb sitzen wir fest. Selbst wenn zum Beispiel die Regierung entscheiden würde, Big Tech zu zerschlagen, Zuckerberg, Bezos und anderen gigantische Geldstrafen aufzuerlegen, Vermögen zu beschlagnahmen, Sozialdienst anzuordnen und einige ins Gefängnis zu stecken, wären es am Ende immer noch nicht vertrauenswürdige Menschen, die so etwas anderen Menschen antun. Das Grundproblem wäre nicht gelöst. Man würde die Dose nur ein Stück weiter die Straße hinuntertreten
LLMs sind eindeutig stark zentralisierend. Für Einzelpersonen oder kleine Firmen ist es nahezu unmöglich, ein eigenes LLM zu trainieren. Im besten Fall kann man ein vortrainiertes Modell herunterladen, aber immerhin kann es einem dann nicht ohne Weiteres heimlich verändert oder weggenommen werden