1 Punkte von GN⁺ 2 시간 전 | 1 Kommentare | Auf WhatsApp teilen

Metas KI-Umstellung macht das Leben von 78.000 Beschäftigten zur Qual

  • Während Meta den Übergang ins KI-Zeitalter vorantreibt, sammelt das Unternehmen ohne Zustimmung Computernutzungsdaten seiner Beschäftigten, kündigt umfangreiche Entlassungen an und löst damit intern massive Unzufriedenheit aus
  • Gegen ein Programm, das Tastatureingaben, Mausbewegungen, Klicks und sogar Bildschirminhalte verfolgt, protestierten Beschäftigte scharf und bezeichneten es als Eingriff in die Privatsphäre; eine Opt-out-Möglichkeit gibt es jedoch nicht
  • Während die Nutzung von KI-Tools in Leistungsbewertungen einfließt und der Token-Verbrauch über ein Dashboard verfolgt wird, steigt der Wettbewerbsdruck unter den Beschäftigten
  • Die Entlassung von 10 % der Belegschaft (rund 8.000 Personen) ist für den 20. Mai angesetzt; viele Beschäftigte fragen sich nun, ob sie am Ende ihre eigene KI-Ersatzkraft trainiert haben
  • Metas gleichzeitiges Vorgehen bei Mitarbeiterüberwachung, erzwungener Tool-Einführung und Massenentlassungen im Zuge der KI-Transformation ist ein Vorgeschmack auf das, was anderen Tech-Unternehmen bevorstehen könnte

Vollständige Nachverfolgung der Computernutzung von Beschäftigten

  • Im vergangenen Monat teilte Meta seinen US-Beschäftigten mit, dass Tastatureingaben, Mausbewegungen, Klicks und Bildschirminhalte vollständig nachverfolgt würden
  • Ziel ist die Gewinnung von Trainingsdaten, um KI-Modelle darin zu schulen, „wie Menschen Computer tatsächlich nutzen, um ihre tägliche Arbeit zu erledigen“
  • Die Beschäftigten reagierten sofort mit Protest und kritisierten dies als Eingriff in die Privatsphäre sowie als unsoziale und kalte Maßnahme
  • Ein Engineering-Manager fragte: „Das ist äußerst unangenehm, wie kann man sich davon abmelden?“, worauf CTO Andrew Bosworth antwortete: „Für Arbeitslaptops gibt es keine Opt-out-Option.“
  • Auf diese Antwort reagierten Beschäftigte mit mehr als 100 wütenden und erstaunten Emojis
  • Danach stellten Beschäftigte auch infrage, ob Meta die gesammelten Daten sicher schützen könne; Bosworth antwortete, die Daten würden „sehr streng kontrolliert“ und es gebe kein Risiko eines Abflusses

Mark Zuckerbergs KI-Strategie

  • Zuckerberg setzt Metas Zukunft auf KI, integriert KI in Apps wie Facebook und Instagram und investiert Hunderte Milliarden Dollar in KI-Modelle und Rechenzentren
  • Nach der Veröffentlichung von OpenAIs ChatGPT im Jahr 2022 begann er, das Unternehmen auf KI auszurichten
  • Im vergangenen Sommer gründete Meta mit Investitionen in Milliardenhöhe ein „Superintelligenz“-Labor und stellte die KI-Abteilung vollständig neu auf
  • Zuckerberg betont, dass Superintelligenz das Leben der Menschen verbessern werde
  • In einer unternehmensweiten Fragerunde am Tag nach dem Investor Call erklärte Zuckerberg, die Datenerfassung von Beschäftigten diene „nicht der Überwachung oder Leistungskontrolle“, sondern solle der KI beibringen, „wie kluge Menschen Computer nutzen, um Arbeit zu erledigen
  • Er fügte hinzu: „KI ist wahrscheinlich einer der wettbewerbsintensivsten Bereiche der Geschichte.“

AI Transformation Weeks und Druck zur Tool-Nutzung

  • Im März veranstaltete Meta für seine Beschäftigten „AI Transformation Weeks“
  • Dort wurde der Umgang mit KI-Coding-Tools und KI-Agenten (digitale Assistenten, die Aufgaben eigenständig ausführen) vermittelt
  • Produktdesigner wurden angewiesen, mithilfe von KI das Coden auszuprobieren, und Softwareentwickler sollten mit KI Designaufgaben testen
  • Ein internes Dashboard zur Nachverfolgung des Token-Verbrauchs (eine KI-Nutzungseinheit, entsprechend etwa vier Zeichen Text) wurde eingeführt
    • Einige Beschäftigte sahen darin ein Druckmittel, um Konkurrenz unter Kolleginnen und Kollegen zu fördern
    • Die Zahl der KI-Agenten nahm so stark zu, dass sogar Agenten zum Auffinden anderer Agenten und Agenten zur Bewertung von Agenten entstanden
  • Ob Beschäftigte KI-Tools verwenden, fließt in ihre Leistungsbewertung ein

Massenentlassungen und Verunsicherung der Beschäftigten

  • Nachdem am 17. April berichtet worden war, Meta werde bald 10 % der Gesamtbelegschaft entlassen, befürchteten Beschäftigte, sie könnten ihre eigene KI-Nachfolge trainiert haben
  • Zwei Tage später kündigte Meta offiziell an, in diesem Monat rund 8.000 Personen zu entlassen
  • Personalchefin Janelle Gale erklärte in einer internen Nachricht, der Stellenabbau solle „andere Investitionen ausgleichen“, und fügte hinzu: „Ich weiß, dass fast ein Monat voller Unklarheit sehr belastend ist.“
  • Die Entlassungen sollen am 20. Mai vollzogen werden
  • Einige Beschäftigte sehen Meta nicht länger als einen Ort für eine langfristige Karriere; manche suchen bereits neue Jobs oder hoffen sogar, selbst von den Entlassungen betroffen zu sein, um Abfindungen zu erhalten

Reaktionen der Beschäftigten und interne Stimmung

  • Beschäftigte reagierten, indem sie Entlassungsleitfäden und nihilistische Memes teilten
    • Das Meme „It do not matter“ wurde intern verbreitet
  • Bis zu den Entlassungen am 20. Mai wurden mindestens drei Countdown-Websites erstellt
    • Eine davon trug in der Überschrift die Anspielung „Big Beautiful Layoff“, eine Parodie auf den Namen eines innenpolitischen Gesetzes von Präsident Trump
  • Eine Mitarbeiterin aus dem Bereich User Research schrieb in einem internen Beitrag, das sei „extrem demotivierend
  • Ein Beschäftigter kritisierte Bosworth direkt mit den Worten, ihn beunruhige „Ihre Kälte gegenüber den Sorgen Ihrer eigenen Mitarbeiter“

Bedeutung für die gesamte Branche

  • Die Lage bei Meta ist ein frühes Beispiel dafür, was andere Tech-Unternehmen erleben könnten, wenn sie KI in den Arbeitsplatz integrieren
  • Microsoft, Block, Coinbase und andere haben zuletzt ebenfalls Entlassungen oder Programme für freiwilliges Ausscheiden angekündigt, weil sich Arbeit durch KI verändert
  • Da KI-Tools bei der Codegenerierung nützlich sind, treffen die Auswirkungen besonders Softwareingenieure, die das Fundament digitaler Unternehmen bilden
  • Professor Leo Boussioux von der University of Washington sagte, „KI kann alle zu besseren Codern machen, erhöht aber gleichzeitig die Intensität der täglichen Arbeit“, und bewertete die Lage mit den Worten, es gebe „noch kein Playbook für den KI-Einsatz am Arbeitsplatz“
  • CFO Susan Li sagte im Investor Call, man wisse angesichts der schnellen Entwicklung der KI-Fähigkeiten nicht, wie groß das Unternehmen optimalerweise sein sollte, und deutete damit weitere Veränderungen an

1 Kommentare

 
GN⁺ 2 시간 전
Hacker-News-Kommentare
  • https://archive.is/JUPmz

  • Der Ablauf ist so: Zuck hat irgendeine Idee, die Jasager um ihn herum sagen „Genau, das wird die Welt verändern“, und danach wird daraus ein Show-Spiel des Ringküssens
    Wenn man fragt: „Wie konnte man 80 Milliarden Dollar im Metaverse verbrennen?“, dann genau so
    Geh nicht zu Meta. Egal, wie schnell der Recruiter antwortet oder wie cool die Arbeit aussieht. Beim Team-Matching lügen die Manager. Dass die durchschnittliche Verweildauer unter zwei Jahren liegt, hat einen Grund
    Es ist eine toxische, angstbasierte Kultur. Wenn du reinkommst, denken die Leute um dich herum bereits darüber nach, dich zum Sündenbock zu machen. Die eigentliche Arbeit wird für politisch gut positionierte Leute weggeschlossen, und die Leute außen herum müssen plausibel klingende Scheinprojekte erfinden. Selbst wenn du dir Arbeit suchst, beginnt sofort das politische Gerangel darum, sie dir wegzunehmen

    • Oder man geht zu Meta, verkauft seine Seele, hält sieben Jahre durch und geht dann in Rente, um für immer mit Arbeit fertig zu sein
    • Ich frage mich, ob das eine Vermutung ist oder selbst erlebt
  • Führungskräfte sehen den schwachen Arbeitsmarkt und stellen sich vor, dass sie unbequeme Ingenieure nach Belieben feuern können
    Gerade in den letzten Jahren kamen die Führungsetagen von Tech-Unternehmen überwiegend von einigen Elite-Universitäten, bei denen der Wohlstand der Eltern die Zulassung stark beeinflusst, daher überrascht mich die heutige extreme Geringschätzung von Arbeit nicht
    Der Versuch, über Jahre ausgebildete Ingenieure wie austauschbare Handarbeiter zu behandeln, wurde immer wieder unternommen, und das Ergebnis war immer dasselbe. LLMs werden daran nichts ändern

  • Es scheint zu fehlen an breiteren gesellschaftlichen Normen dafür, wie man AI in Wissensarbeit einsetzt
    Kürzlich hat mir bei der Arbeit jemand über Teams eine riesige Textmenge geschickt. Normalerweise ist die Person gutwillig, hat aber in fast jedem Wort einen Rechtschreibfehler und schreibt selten Nachrichten mit mehr als 20 Wörtern, und das war ganz offensichtlich ein ChatGPT-Copy-paste
    Für Leute wie auf HN, die in Begriffen wie Kontextwechsel und Informationsdichte denken, ist das Problem an der Situation offensichtlich, aber mir wurde klar, dass es für die breite Masse überhaupt nicht offensichtlich ist. Die Person schien ehrlich zu glauben, es sei hilfreich, 15 Sekunden lang einen Prompt einzugeben und mich dann 30 Minuten lang AI-Gebräu entwirren zu lassen
    Ein Verständnis oder Konsens darüber, was hier akzeptable Praxis ist, ist als soziale Norm noch überhaupt nicht angekommen

    • Dank AI sind die Kosten der Informationsproduktion gesunken, aber jetzt braucht man mehr Zeit, um diese Information zu interpretieren
      Weniger kompetente oder weniger nützliche Leute produzieren in weniger Zeit mehr Information, und nützlichere Leute verbringen ihre kostbare Zeit damit, sie zu interpretieren. Deshalb bin ich skeptisch, ob LLMs unterm Strich für die meisten Organisationen ein Gewinn sein können
    • Das Grundprinzip ist, AI-generierte Inhalte nicht einfach ungeprüft in die Kommunikation zu kopieren. Da ziehe ich die Grenze
      Was jemand im Hintergrund verwendet, ist mir egal, aber ich möchte, dass das, was übermittelt wird, das Ergebnis einer eigenen gedanklichen Synthese ist
      Sonst kann man, wie viele gesagt haben, auch einfach den Prompt schicken. Es ist sogar interessanter und besser zu wissen, dass ein Kollege Schwierigkeiten hat, etwas zu vermitteln
    • Dass „ich 30 Minuten entwirren muss, was aus einem 15-Sekunden-Prompt kam“, ist die zentrale Frustration, die sich am Arbeitsplatz ausbreitet
      Vor AI galt bei Designdokumenten, Jira-Tickets und Pull Requests zumindest die Annahme, dass die Person dafür eine gewisse Menge eigener Zeit und Mühe investiert hat
      LLMs löschen diese Annahme aus. Jetzt weiß man bei einer E-Mail, einem 12-seitigen Designdokument, einem Pull Request mit 100 oder 1000 Zeilen oder zehn Jira-Tickets nicht mehr, ob jemand Zeit investiert hat oder ob mit einem AI-Abo nur etwas Plausibles ausgespuckt wurde. Man muss es trotzdem lesen und bearbeiten, und diese Kosten sind 100-mal höher als der Aufwand des Erstellers
      Für Leute, die den Arbeitsplatz als Optimierungsspiel zwischen eigenem Aufwand und dem Anschein von Wert gesehen haben, sind LLMs die perfekte Abkürzung. Mit ein paar Zeilen Anfrage kann man Dokumente erzeugen, die nach viel Arbeit aussehen
      Wenn jemand 30 Minuten damit verbringt, das AI-Gebräu aus einem 15-Sekunden-Prompt zu prüfen, wird das Feedback in ChatGPT eingefügt und ein überarbeitetes Dokument zurückgeschickt. Damit macht man am Ende die Arbeit dieser Person mit
      Für Teams oder Unternehmen, die den Anschein von Aktivität als Stellvertretermaß für Beitrag verwendet haben, wird das ein schwieriger Übergang. E-Mail-basierte Büroarbeiter auf der ganzen Welt haben ein Tool bekommen, das Ergebnisse erzeugt, die so aussehen, als hätten sie ihre Arbeit gemacht, und oft könnten sie sogar plausibel richtig sein. Eine Person kann unzählige Designdokumente und Jira-Tickets erstellen und im Firmen-Slack noch schlagfertige Antworten hineinkopieren, dabei real weniger arbeiten als je zuvor und trotzdem wie der aktivste und engagierteste Mitarbeiter wirken
      Teams mit bereits guter Review-Kultur und Managern, die sich mehr um Output als um Metriken kümmern, werden klarkommen. Wer nur ein wenig hinschaut, erkennt den AI-Copy-paste-Mitarbeiter. Faule Manager, die Dokumente überflogen und Diagramme über Pull-Request-Zahlen oder geänderte Codezeilen gezeichnet haben, werden schockiert feststellen, dass genau die Mitarbeiter, die in ihrem Spiel ganz oben stehen, dem Team den größten Schaden zufügen
    • Der aktuelle Standard ist: „Wenn dir klar ist, dass ich eine Antwort von einem Menschen erwarte, dann kopiere mir keinen unbearbeiteten ChatGPT-Output hinein und schick ihn ab“
      Alle wollen gern das Ergebnis ihrer Trickserei verschicken, aber niemand will es bekommen
      Die meisten wissen, dass sie genau das tun. Wenn du das Gefühl hast, deine LLM-Nutzung verbergen zu müssen, bedeutet das, dass in deinem finalen Entwurf nicht genug von deiner eigenen Stimme und Arbeit steckt, und das musst du korrigieren
    • Wenn es als Referenz in Support-Tickets auftauchte, kam es vor, dass ein Support-Mitarbeiter mir die einzelne E-Mail des Kunden, die ich sowieso lesen konnte, noch einmal als offensichtliche AI-Zusammenfassung schickte
      Ich weiß, dass das gut gemeint ist, aber es ist schwer, sich nicht so zu fühlen, als hielte man mich für ein Kind oder einen Idioten. Früher gab es einen Konsens, dass es unhöflich ist, für jemanden zu googeln, und letmegooglethatforyou.com war ein gutes Beispiel dafür; ich verstehe nicht, warum AI-Zusammenfassungen und AI-Gebräu nicht auf dieselbe Weise verstanden werden
  • Es wird auf Metas Entlassungen verwiesen, aber einen größeren Einfluss auf die Moral der Mitarbeiter als AI haben wahrscheinlich Massenentlassungen
    Meine Hypothese zu Entlassungen in Tech-Unternehmen ist folgende: In den letzten etwa zehn Jahren sind fluktuationsfördernde Praktiken wie Stack Ranking aus der Mode gekommen. Warum, darüber kann man spekulieren. Vielleicht wollten mittlere Manager wegen eines Generationenwechsels die Drecksarbeit nicht mehr machen. Jedenfalls hat dieser Wandel stattgefunden
    Unternehmen wollen aber weiterhin Low Performer loswerden, und manche halten das sogar für nötig. Also macht man nun regelmäßig unternehmensweite Personalabbau-Runden und versieht sie jeweils mit einer bequemen Begründung. Makrolage, AI, egal was
    Diese Hypothese erklärt, warum Unternehmen während oder direkt nach Entlassungen aggressiv einstellen und warum sich Entlassungen Jahr für Jahr wiederholen

    • Keine Sorge. In Tech-Unternehmen sind Stack Ranking und Personalrotation immer noch schwer in Mode
  • Mark hasst Leaker, aber dass die NYT offenbar eine direkte Leitung zu dutzenden Leuten aus dem operativen Geschäft hat, ist ziemlich komisch
    Am Ende ist es schwer, ein Geheimnis zu wahren, das man mit 70.000 Mitarbeitern teilt

    • Früher, als ich Zuckerbergs Verhalten stärker verfolgte, hatte ich den Eindruck, dass er zwar „Leaker hasst“, aber nicht in der Lage ist, sein eigenes Verhalten zu reflektieren und zu ändern, obwohl genau dieses Verhalten Leute wütend macht und zum Leaken motiviert
      Er ist ein sehr reaktiver Mensch, nicht der Typ, der sich fragt: „Wie muss ich mich verändern?“ oder „Was habe ich getan, damit das passiert?“
      Bei mehreren Skandalen Ende der 2010er habe ich das so empfunden. Für ihn war alles PR-Reaktion, keine Selbstprüfung. Die beste PR ist, kein schlechter Mensch zu sein. Ich frage mich, ob er darüber je nachgedacht hat
  • Menschen in kleinen Firmen oder Solo-Arbeit scheinen mehr Freude daran zu haben, AI zu benutzen
    Als Selbstständiger habe ich im letzten Monat fast 1000 Dollar in Tokens verbrannt, und dabei hatte ich ziemlich viel Spaß

    • Nicht überraschend. Menschen arbeiten lieber produktiver, wenn sie wenigstens einen Teil des Gewinns dieser Produktivitätssteigerung direkt selbst bekommen
      Wenn von dir erwartet wird, 10-mal produktiver zu sein, dein Gehalt aber nicht steigt, füllst du am Ende nur die Taschen der Führungskräfte und verringerst zugleich deine eigene Jobsicherheit
    • Meta liegt am exakt entgegengesetzten Ende. Schon am Anfang des Artikels steht, dass jetzt mit AI überwacht wird, wie alle ihren Computer benutzen
      Dass Meta das für eine gute Idee hielt und glaubte, Mitarbeiter würden sich wohlfühlen, solange behauptet wird, es werde nur für anonymes AI-Training genutzt, ergibt für mich immer noch keinen Sinn
    • Ich arbeite allein, aber ich empfinde keine Freude daran, AI zu benutzen
    • Ich spüre diese Energie. Wegen der Krankenversicherung versuche ich irgendwie, in meinem jetzigen Großunternehmen zu bleiben, aber die Anziehungskraft ist zu stark
  • „Diese Daten werden sehr streng kontrolliert“, antwortete Bosworth. „Es wird kein Leckagerisiko geben“
    Oje. Berühmte letzte Worte

  • Ich habe einen großen Teil meines Lebens in dem Glauben verbracht, dass Technologie das Leben besser machen würde, aber inzwischen erkenne ich, dass dieser Gedanke ein Irrtum ist
    Technologie verstärkt Macht. Solange wir nicht kollektiv ein Wertesystem neu definieren und durchsetzen, das allen zugutekommt, fungiert technologischer Fortschritt einfach als Werkzeug der Unterwerfung

    • Wenn man so weit gehen will: Das ist genau das, worüber der Unabomber gesprochen hat, und es gab schon lange Bemühungen, Menschen davon abzuhalten, das zu bemerken
      Am Ende geht es entweder in Richtung Totalitarismus, oder man leistet Widerstand und drängt ins Unbekannte vor, um einen Fluchtweg zu schaffen. Totalitarismus kann in Stillstand im Namen des Status quo münden, in anarchistischen Primitivismus oder in technokratische Langeweile
      Realistisch bleibt nur, in unbekannte Richtungen weiterzugehen und zu hoffen. Ich kann aber nicht so tun, als sähe ich den Weg durch all das klar vor mir
    • Ich denke, das ist die zentrale Wahrheit. Technologie an sich macht das Leben nicht besser
      Ich habe kürzlich etwas über die Luddites geschrieben. Wenn man sich ihre tatsächlichen Forderungen ansieht, waren sie nicht anti-technologisch, sondern Arbeiteraktivisten. Während der Industriellen Revolution wurde das Leben der meisten Menschen deutlich schlechter, und besser wurde es erst, nachdem die von ihnen geforderten Gesetze schließlich umgesetzt wurden
      https://www.disruptingjapan.com/the-real-luddites-would-have...
    • „In jeder technologisch fortgeschrittenen Gesellschaft hängt das Schicksal des Einzelnen zwangsläufig von Entscheidungen ab, die er nur in sehr geringem Maße beeinflussen kann. Eine technologische Gesellschaft kann nicht in kleine, autonome Gemeinschaften zerfallen, weil Produktion von der Kooperation sehr vieler Menschen und Maschinen abhängt. Eine solche Gesellschaft muss hochgradig organisiert sein, und es müssen Entscheidungen getroffen werden, die sehr viele Menschen betreffen. Wenn eine Entscheidung zum Beispiel 1 Million Menschen betrifft, dann hat jede betroffene Person im Durchschnitt nur einen Einmillionstel-Anteil an dieser Entscheidung“
    • Ein „Wertesystem kollektiv neu definieren und durchsetzen, das allen zugutekommt“, ist unmöglich
      Erstens sind Menschen sich oft und sehr grundlegend uneinig darüber, was „allen zugutekommt“ überhaupt bedeutet. Viele dieser Unterschiede lassen sich ohne physische Gewalt nicht auflösen
      Zweitens bedeutet „durchsetzen“, manchen Menschen Macht über andere zu geben. Die Macht, Dinge zu tun, die für andere ein Verbrechen wären: Menschen ins Gefängnis zu stecken, ihnen Geldstrafen aufzuerlegen und sie in ihren Handlungen einzuschränken. David Friedman definiert den Staat in seinem lesenswerten Buch The Machinery of Freedom genau so. Das Problem ist, dass auch Regierungen letztlich von Menschen betrieben werden, und Menschen sind nicht vertrauenswürdig genug, um ihnen eine solche Macht zu übertragen
      Letztlich besteht die einzige Verteidigung darin, anderen diese Macht gar nicht erst zu geben. Nicht dem Staat, nicht Big Tech, niemandem. Aber dafür braucht es ein Maß an Weitsicht, das die meisten Menschen nicht haben oder nicht einsetzen wollen, besonders wenn direkt vor ihnen etwas Verlockendes liegt. Als Facebook neu war, wie viele Menschen haben wohl vorausgesehen, dass es Jahrzehnte später zu einem riesigen Monster werden würde, das wir nicht mehr kontrollieren können, und sich deshalb einfach geweigert, es zu benutzen? In meinem Umfeld lautet die Antwort: „nicht in nennenswerter Zahl“. Unter den Leuten, die ich kenne, bin ich der Einzige, der Facebook nie benutzt hat. Und selbst ich habe es nicht von Anfang an aus Weitsicht abgelehnt, sondern nur einem instinktiven Widerwillen folgend und dann über Jahre zugesehen, wie sich ein Zugunglück in Zeitlupe entfaltete
      Deshalb sitzen wir fest. Selbst wenn zum Beispiel die Regierung entscheiden würde, Big Tech zu zerschlagen, Zuckerberg, Bezos und anderen gigantische Geldstrafen aufzuerlegen, Vermögen zu beschlagnahmen, Sozialdienst anzuordnen und einige ins Gefängnis zu stecken, wären es am Ende immer noch nicht vertrauenswürdige Menschen, die so etwas anderen Menschen antun. Das Grundproblem wäre nicht gelöst. Man würde die Dose nur ein Stück weiter die Straße hinuntertreten
    • Es hängt wirklich von der jeweiligen Technologie ab. Unterschiedliche Technologien verteilen Macht unterschiedlich um
      LLMs sind eindeutig stark zentralisierend. Für Einzelpersonen oder kleine Firmen ist es nahezu unmöglich, ein eigenes LLM zu trainieren. Im besten Fall kann man ein vortrainiertes Modell herunterladen, aber immerhin kann es einem dann nicht ohne Weiteres heimlich verändert oder weggenommen werden