3 Punkte von GN⁺ 7 일 전 | 4 Kommentare | Auf WhatsApp teilen
  • Meta hat auf den Computern von Mitarbeitenden in den USA Software installiert, die Mausbewegungen, Klicks und Tastatureingaben verfolgt und als Trainingsdaten für KI-Modelle nutzt; zudem werden in geschäftlich genutzten Apps und auf Websites regelmäßig Bildschirm-Snapshots aufgenommen
  • Dieses Tool mit dem Namen Model Capability Initiative (MCI) soll Trainingsdaten für Bereiche beschaffen, in denen KI menschliches Verhalten noch nicht gut nachbilden kann, etwa bei der Auswahl in Dropdown-Menüs oder der Nutzung von Tastenkombinationen
  • CTO Andrew Bosworth stellte über ein intern in Agent Transformation Accelerator (ATA) umbenanntes Programm zur KI-Transformation die Vision vor, dass „Agenten den Großteil der Arbeit erledigen und Menschen anweisen, prüfen und verbessern“
  • Meta beginnt am 20. Mai mit einem weltweiten Stellenabbau von 10 % und ermutigt Mitarbeitende aktiv, bei Aufgaben wie dem Programmieren KI-Agenten einzusetzen
  • Rechtswissenschaftler weisen darauf hin, dass diese Maßnahme auf Angestellte nun ein Maß an Echtzeitüberwachung wie bislang bei Liefer- und Gig-Arbeiter:innen anwendet und wahrscheinlich auch gegen die europäische DSGVO verstoßen könnte

Funktionsweise des MCI-Tools

  • MCI läuft in den geschäftlich genutzten Apps und auf Websites der Mitarbeitenden und erfasst Mausbewegungen, Klicks und Tastatureingaben
  • Enthalten ist auch eine Funktion, die regelmäßig Snapshots des Bildschirminhalts aufnimmt
  • Bekannt wurde dies durch eine interne Mitteilung, die ein KI-Forschungswissenschaftler im Team-Channel von Meta SuperIntelligence Labs veröffentlichte
  • Ziel ist es, Bereiche zu verbessern, in denen KI-Modelle menschliche Computerinteraktionen nur schwer nachbilden können, etwa die Auswahl in Dropdown-Menüs oder die Nutzung von Tastenkombinationen
  • Es heißt, dass „alle Meta-Mitarbeitenden allein durch die Ausführung ihrer täglichen Arbeit zur Verbesserung der Modelle beitragen können“

Strategie für die Umstellung der Arbeit auf KI

  • CTO Andrew Bosworth erklärte in einer separaten Mitteilung, dass die interne Datensammlung ausgeweitet werde, und benannte das Programm in Agent Transformation Accelerator (ATA) um
  • Er formulierte die Vision, dass „Agenten den Großteil der Arbeit erledigen und die Rolle des Menschen im Anweisen, Prüfen und Unterstützen bei Verbesserungen besteht“
  • Ziel ist, dass Agenten automatisch erkennen, an welchen Punkten Menschen eingreifen mussten, um es beim nächsten Mal besser zu machen
  • Bosworth erklärte nicht ausdrücklich, wie die Agenten trainiert werden sollen, erwähnte aber, man werde streng darauf achten, Daten und Bewertungen zu allen Arten von Interaktionen im Arbeitsprozess zu sammeln
  • Meta-Sprecher Andy Stone bestätigte, dass MCI-Daten einer der Eingabewerte für das Modelltraining sind

KI-getriebener Umbau der Personalstruktur

  • MCI-Daten werden nicht für Leistungsbeurteilungen verwendet, sondern nur für das Modelltraining; es gebe Schutzmechanismen für „sensible Inhalte“, aber welche Daten konkret von der Erfassung ausgeschlossen sind, wurde nicht erläutert
  • Die Fähigkeit von KI-Tools, komplexe Aufgaben mit minimaler menschlicher Aufsicht zu erledigen, etwa das Erstellen von Apps oder das Bereinigen großer Datenbestände, fasziniert das Silicon Valley und führt bereits zu fallenden Aktienkursen traditioneller Softwareunternehmen sowie zu Plänen für umfangreiche Stellenstreichungen
  • Meta beginnt am 20. Mai mit einem weltweiten Stellenabbau von 10 % und prüft für dieses Jahr weitere größere Kürzungen
  • Amazon hat in den vergangenen Monaten rund 30.000 Angestellte (etwa 10 %) abgebaut, Block entließ im Februar nahezu die Hälfte seiner Mitarbeitenden
  • Meta ermutigt Mitarbeitende, auch wenn es kurzfristig langsamer werden sollte, bei Aufgaben wie dem Programmieren KI-Agenten zu nutzen
  • Zudem läuft eine Umstellung, bei der Unterscheidungen zwischen bestimmten Rollen aufgehoben und unter der allgemeinen Bezeichnung „AI builder“ zusammengeführt werden
  • Im vergangenen Monat wurde das Engineering-Team Applied AI (AAI) neu geschaffen, das sich auf die Stärkung der Coding-Fähigkeiten von Meta-KI-Modellen und die Entwicklung von KI-Agenten konzentriert, die künftig den Großteil der Produkt- und Infrastrukturarbeit übernehmen sollen
  • Seit Anfang dieses Monats werden „starke“ Softwareingenieur:innen in AAI versetzt

Sorgen über die Überwachung von Angestellten

  • Laut der Yale-Rechtsprofessorin Ifeoma Ajunwa wurden Computer-Logging- und Screenshot-Technologien historisch vor allem eingesetzt, um Fehlverhalten von Mitarbeitenden oder nicht arbeitsbezogene Aktivitäten zu erkennen
  • Die Protokollierung von Tastatureingaben geht bei der Datenerfassung noch einen Schritt weiter und unterwirft Angestellte einem Maß an Echtzeitüberwachung, das bislang nur Lieferfahrer:innen oder Gig-Arbeiter:innen erlebt haben
  • Nach US-Bundesrecht gibt es keine Beschränkungen für die Überwachung von Beschäftigten, und auch die Gesetze der Bundesstaaten verlangen meist nur, dass Arbeitgeber die Überwachung allgemein offenlegen
  • Der York-Rechtsprofessor Valerio De Stefano schätzt, dass eine solche Überwachung nach europäischem Recht wahrscheinlich verboten wäre
    • In Italien ist es ausdrücklich illegal, die Produktivität von Mitarbeitenden mittels elektronischer Überwachung zu verfolgen
    • Deutsche Gerichte halten an der Rechtsprechung fest, dass die Protokollierung von Tastatureingaben nur in außergewöhnlichen Fällen wie bei schweren Straftatverdachtsmomenten zulässig ist
  • Es ist sehr wahrscheinlich, dass diese Praxis gegen die europäische DSGVO verstößt
  • Die Wahrnehmung von Arbeitgeberüberwachung hat den Effekt, das Machtgleichgewicht am Arbeitsplatz zugunsten des Arbeitgebers zu verschieben

4 Kommentare

 
unsure4000 7 일 전

Was hat wohl die Person gedacht, die dieses Tracking-System programmiert hat?

 
t7vonn 7 일 전

Die Verbesserung des Modells ist wohl nur ein Vorwand; in Wirklichkeit wirkt es so, als würden Daten gesammelt, um Entlassungen zu rechtfertigen.

 
winkagn 7 일 전

Ich frage mich, worin sich das noch von Big Brother unterscheidet.

 
GN⁺ 7 일 전
Hacker-News-Kommentare
  • Das wirkt einfach wie toxischer Müll. Ich hoffe fast, dass es breit gehackt wird und jemand eine Gegenmaßnahme baut, die Metas gierige Datensammel-Pipeline mit absurd vielen Fake-Daten füttert
  • Ich denke, das wird einen enormen Abschreckungseffekt auf Mitarbeitende haben. Jetzt muss man sogar Gespräche abseits der Arbeit oder lockeren Small Talk führen, ohne auch nur die geringste Erwartung an Privatsphäre. Früher konnte man Logs vielleicht auch prüfen, aber ein begrenzter Blick nach einem Vorfall ist etwas völlig anderes als ständige Überwachung im großen Maßstab
    • Zynisch betrachtet gäbe es kaum eine Gruppe, zu der das besser passt. Die Ironie ist so stark, dass einem fast der Ironiedetektor durchbrennt
    • Ich bin immer davon ausgegangen, dass auf Firmengeräten alles, was ich tue, von der IT überwacht werden kann. Deshalb habe ich auf Firmenhardware nie auch nur ansatzweise etwas gemacht, das dem Unternehmen missfallen könnte, und stattdessen mein Smartphone und meinen privaten Rechner benutzt. Als es früher in einem Startup Konflikte zwischen Engineers und Management gab, haben die Engineers einfach mit ihren privaten Signal-Accounts eine geschlossene Gruppe erstellt und dort problemlos gesprochen
    • Ehrlich gesagt glaube ich nicht, dass es Meta kümmert, ob die Mitarbeitenden eingeschüchtert werden. Das Unternehmen ist bereits in die Phase der maximalen Wertabschöpfung eingetreten und wirkt auch nicht mehr wie eine Firma, die noch Spitzenkräfte anzieht
    • Ich kann nachvollziehen, dass man auf Arbeitsgeräten als Firmeneigentum keine Privatsphäre erwarten sollte. Ich arbeite bei einem Tech-Unternehmen in Indien und wir werden ermutigt, auf Basis der Eigenschaften unserer Kolleginnen und Kollegen eine skills.md zu erstellen, um das Risiko der Abhängigkeit von Schlüsselpersonen zu senken. Tatsächlich wird der Code einiger Engineers, die durch Umstrukturierungen entlassen wurden, inzwischen von ihren AI-Gegenstücken gewartet. Es wirkt, als würde Meta in dieselbe Richtung gehen
    • Seit ich ins Berufsleben eingestiegen bin, bin ich davon ausgegangen, dass Firmen bei Unternehmensvermögen und -geräten das Recht haben, diese zu überwachen oder sogar Keylogging einzusetzen. Ich war eher überrascht, dass sie es in der Praxis oft nicht so weit treiben, aber das Recht an sich sehe ich schon. Ich verstehe nicht ganz, warum Leute erwarten, während der Arbeitszeit ein Recht auf nicht arbeitsbezogene Aktivitäten zu haben. Bei allen Firmen, für die ich gearbeitet habe, waren die erlaubten Grenzen in Verträgen und Richtlinien klar geregelt. Wenn man über die Firma lästern will, dann nicht in Slack oder Teams, sondern außerhalb der Firma oder am echten Wasserspender, oder eben über private Nummern
  • Es wurde gescherzt, dass die nächste Generation von AI vermutlich sehr gut im Hacker-News-Scrollen sein wird
  • Ich verstehe wirklich nicht, wie das legal sein kann. Man könnte fast meinen, Facebook habe in den USA faktisch keine Compliance-Anforderungen. In Zeitreihen-Screenshots von SRE-Bildschirmen werden zwangsläufig sensible Daten wie Passwörter, Verschlüsselungsschlüssel oder PII auftauchen, und es erscheint absurd, dass so ein Datenstaubsauger all das speichert. Ich frage mich auch, ob Mitarbeitende das überhaupt selbst abschalten können und was passiert, wenn jemand versehentlich den privaten SSH-Root-Key des ganzen Unternehmens auf dem Bildschirm hat und das System nicht deaktivieren kann. Noch vor der Frage der Legalität denke ich, dass Personen mit Zugriff auf solche Trainingsdaten zwangsläufig viel zu breite Berechtigungen über die Firmensysteme hinweg bekommen und damit am Ende nur das Risiko eines Hacks erhöhen
    • Nach US-Recht ist das oft legal, besonders auf Firmengeräten, und leider auch nichts Ungewöhnliches. Compliance für solche Daten wird üblicherweise so behandelt wie bei anderen sensiblen Daten: Der Zugriff auf Screen-Captures wird auf bestimmte Gruppen beschränkt. Ich befürworte das nicht, aber viele Firmen ignorieren Sicherheitsbedenken nicht, sondern tun so etwas sogar unter dem Vorwand, Sicherheitsprobleme zu lösen. Bei Meta wirkt es aber etwas anders, eher so, als wollten sie Modelle bauen, die einen Teil der Belegschaft ersetzen
    • Diese Daten werden am Ende bei einem Datenleck nach außen gelangen. Sie werden vor Gericht gegen Leute verwendet werden, fürs Training genutzt werden, und wenn AI die Arbeit übernehmen kann, am Ende sicher auch für Entlassungen. Und selbst wenn all das passiert, wird Meta wahrscheinlich der Verantwortung entgehen. Gerade deshalb wirkt eine gesetzliche Regelung dagegen umso dringlicher
    • Es gibt das Problem, dass psychologische Experimente mit auch nur losem Bezug zum Web praktisch automatisch als legal behandelt werden, seit A/B-Tests normalisiert wurden. Eigentlich sollte so etwas nicht durch allgemeine Einwilligungserklärungen abgedeckt werden, sondern Verfahren wie freiwillige Teilnahme und unabhängige Prüfung erfordern. Die Katze ist zwar schon aus dem Sack, aber das macht die Sache nicht unproblematisch
  • Das wirkt wirklich verrückt. Früher galten Engineers tatsächlich als so etwas wie Angehörige eines freien Berufs, heute scheint es, als verlangten Firmen statt Vertrauen einfach Spyware. Das klingt fast so, als wolle man Überwachungssoftware auf die Laptops von Kanzleien installieren, weil Anwälte vielleicht heimlich mit Richtern kungeln, oder als solle man jede Handlung von Ärztinnen und Ärzten rund um die Uhr überwachen. Da landet man schon fast bei der satirischen Forderung nach öffentlich auditierbarer 24/7-Überwachung für Politiker
    • Politiker würden sich mit Verweis auf Dinge wie Sicherheit mit Sicherheit als Erste selbst ausnehmen. Eigentlich müsste mit mehr Macht auch mehr Rechenschaft und Überwachung einhergehen, aber in der realen Welt läuft es zynischerweise genau andersherum
    • Von deinen Beispielen sind Politiker die Einzigen, deren Kosten ich direkt über Steuern trage und die im Prinzip für mich arbeiten. Anwälte und Ärzte sind weder meine Angestellten noch arbeiten sie auf meinem Eigentum. Was dieser Fall eher zeigt, ist, dass in den Arbeitgeber-Arbeitnehmer-Beziehungen in den USA die Maske fast vollständig gefallen ist, und da sogar die Krankenversicherung an Beschäftigung gekoppelt ist, bleibt kaum noch Spielraum für Widerstand
    • Die Idee, solche Überwachung auf Laptops von Kanzleien zu installieren, klingt für manche eher nach einer guten Idee
    • Ich bin tatsächlich schon von einigen Anwälten hintergangen worden. Mehr Sorgen als E-Mails sollte man sich in der Realität über Telefongespräche machen
  • Glaubt hier wirklich jemand, Meta-Mitarbeitende würden die Aussage glauben, die gesammelten Daten würden nicht für Leistungsbewertungen oder andere Zwecke genutzt, sondern nur für das Modelltraining?
    • Diese Mitarbeitenden haben bereits freiwillig eines der größten Überwachungsnetzwerke der Welt mitprogrammiert, also sind sie womöglich bereit, vieles zu glauben
    • Wenn es vier Jahre in Folge Entlassungen gab und nun schon wieder eine Kürzung um 20 Prozent im Raum steht, dann werden Meta-Mitarbeitende wohl ziemlich misstrauisch sein, auch wenn es nur eine Minderheit ist
    • Am Ende geht es um die Vergütung, und hohe Gehälter werden wohl für Anpassung sorgen, so die nüchterne Sicht
    • Die Glaubwürdigkeit dieser Aussage liegt ungefähr auf dem Niveau von "It's free and always will be"
  • Ich bin wirklich froh, mich auf den Meta-Bewerbungsprozess gar nicht erst eingelassen zu haben. Schon damals wirkte die Firma ziemlich lächerlich, aber inzwischen ist das noch einmal eine ganz andere Dimension
  • Man fragt sich, wie das exakte Gegenteil von Meta aussehen würde. Klein und auf Privatsphäre fokussiert, vielleicht mit gesperrtem HN im Unternehmen, und ich frage mich, ob ich dabei etwas übersehe
  • Ich stelle mir vor, dass dieses System am Ende massenhaft erfassen wird, wie Meta-Mitarbeitende mit AI arbeiten. Wenn man ein damit trainiertes Modell wieder ausrollt, sammelt man als Nächstes wieder Mitarbeitende ein, die AI benutzen, die gut darin ist, AI zu nutzen, und wenn man das ein paarmal wiederholt, landet man am Ende bei den Eingaben von Leuten, die in Verzweiflung auf die Tastatur einschlagen und schreien, warum das Modell nichts kann — eine regelrechte schwarze Komödie
    • Vielleicht ist AI-Training nur ein Vorwand, und in Wirklichkeit geht es darum, Leute durch Massenentlassungen unsichtbar loszuwerden und dabei Abfindungen zu sparen
    • Diese Daten werden auch zeigen, wer AI nicht genug nutzt, und genau solche Mitarbeitenden könnten am Ende auf einen PIP gesetzt oder entlassen werden
    • Es klingt nach einem lustigen Fehlermodus, aber technisch könnte es sogar eher etwas Gutes sein. Die Modelle beherrschen bereits einen Teil der Fähigkeiten, die Menschen früher an AI delegiert haben. Ob nun über Unteragenten oder indem man die von AI übernommenen Aufgaben direkt ins Modell integriert: Dadurch, dass Menschen die Aufgabenverteilung näher an die AI-Verteilung verschoben haben, wird das Training einfacher
    • Eilmeldung: Meta hat offenbar den ultimativen „Katze sitzt auf der Tastatur“-Simulator gebaut
  • Das erinnerte mich an Marshall Brains Manna, und https://marshallbrain.com/manna1 scheint die aktuelle Lage ziemlich gut zu treffen