- Ein Bericht legt offen, dass die Aussage von Meta-CEO Mark Zuckerberg bei der Anhörung im US-Senat 2024 internen Dokumenten widerspricht und bewusst falsche Angaben gemacht wurden
- Das Tech Oversight Project erklärt nach Auswertung nicht öffentlicher Unterlagen und Expertenberichte, Zuckerberg habe Aussagen zu Kinderschutz, psychischer Gesundheit und Inhaltssicherheit verfälscht
- Internen Materialien zufolge war Meta sich systematischer Probleme bewusst und ließ sie dennoch bestehen, darunter Strategien zur Gewinnung von Nutzern unter 13 Jahren, Duldung von Prostitution und Verschleierung nicht veröffentlichter Forschung
- Der Bericht kritisiert, Meta habe Sicherheitsfunktionen für Jugendliche beworben, obwohl die meisten in der Praxis wirkungslos seien, während interne Forschung vielmehr eine Verschlechterung der psychischen Gesundheit und stärkere Suchtwirkung belege
- Die Organisation betont, dass zur Korrektur dieses Verhaltens gesetzgeberische Maßnahmen wie der ‘Kids Online Safety Act’ nötig seien
Überblick über den Bericht des Tech Oversight Project
- Der in Washington, D.C. veröffentlichte Bericht vergleicht Zuckerbergs Aussage bei der Anhörung des Justizausschusses des Senats 2024 mit neu offengelegten internen Dokumenten
- Den Dokumenten zufolge hat Zuckerberg den Kongress belogen, und Meta habe das Versagen beim Schutz Jugendlicher vertuscht
- Die Organisation hat eine Microsite namens ‘Big Tech on Trial’ eingerichtet, auf der gesammelte Belege während des laufenden Verfahrens fortlaufend aktualisiert werden sollen
- Geschäftsführer Sacha Haworth sagte: „Meta hat sich hinter Section 230 versteckt, jetzt muss der Kongress handeln.“
Widersprüche zwischen Anhörungsaussagen und internen Belegen
1. Sicherheitsfunktionen für Jugendliche
- Zuckerberg sagte, man unternehme „branchenführende Anstrengungen zum Schutz Jugendlicher“, doch
laut Untersuchungen von Organisationen wie Fairplay waren von 53 Sicherheitsfunktionen auf Instagram
- 64 % deaktiviert oder unwirksam,
- 19 % nur begrenzt wirksam,
- nur 17 % voll funktionsfähig
- Der Bericht kommt zu dem Schluss: „Die meisten Funktionen schützen Jugendliche nicht.“
2. Produktdesign und Kindersicherheit
- Zuckerberg sagte, „ein Fonds zur Entschädigung von Opfern ist nicht meine Aufgabe“, doch
der Gerichtsbericht des Experten Tim Estes hält fest, dass Metas Plattformen ohne Berücksichtigung der Sicherheit von Kindern gestaltet worden seien
- Genannt werden schwache Altersverifikation, ineffektive Elternkontrollen sowie Infinite Scroll, Autoplay und Benachrichtigungsfunktionen
3. Leugnung psychischer Auswirkungen
- Zuckerberg sagte, „wissenschaftliche Belege stützen nicht die Behauptung, dass Social Media schädlich sei“, doch
die Facebook Files des WSJ und interne Forschung berichten, dass Instagram niedriges Selbstwertgefühl, Angstzustände und das Risiko von Essstörungen bei Jugendlichen verschärfe
- Besonders weibliche Jugendliche seien überdurchschnittlich psychisch belastet
4. Sexuelle Inhalte und Menschenhandel
- Zuckerberg sagte, man „erlaube keine sexuellen Inhalte“, doch
internen Dokumenten zufolge betrieb Meta eine Richtlinie, die Accounts im Zusammenhang mit Prostitution bis zu 17 Verstöße erlaubte
- 2020 fanden 79 % des Kindersexhandels auf Meta-Plattformen statt,
- unter minderjährigen Instagram-Nutzern berichteten 22 % von sexuellen Kontaktaufnahmen
5. Behauptetes Verbot für Nutzer unter 13 Jahren
- Zuckerberg sagte, „unter 13-Jährige dürfen den Dienst nicht nutzen“, doch
interne Dokumente nennen ausdrücklich altersbezogene Zielstrategien einschließlich ‘Kid’ für 6 bis 10 Jahre und ‘Tween’ für 10 bis 13 Jahre
- In Dokumenten wie ‘Tweens Competitive Audit’ und ‘Youth Privacy’ wird das Ziel bestätigt, den Kindermarkt zu erschließen
6. Verschleierung von Forschung zur psychischen Gesundheit
- In einer internen „Deaktivierungsstudie“ stellte Meta fest, dass bei einer Unterbrechung von Social Media Angst und Depression zurückgingen,
stellte die Veröffentlichung der Ergebnisse jedoch ein, weil sie negativ ausfielen
- Ein Mitarbeiter äußerte laut Aufzeichnungen die Sorge, man könne „wie eine Tabakfirma aussehen“
7. Mängel bei Messenger Kids
- Zuckerberg sagte, „Messenger Kids ist sicherer“, doch
ein Bug im Jahr 2019 machte Gruppenchats zwischen Kindern und nicht genehmigten Nutzern möglich
- Meta behob das Problem stillschweigend, bekannt wurde es jedoch durch einen Bericht von The Verge
8. Behauptete Zusammenarbeit mit Eltern und interne Richtlinien
- Zuckerberg sagte, man schütze Kinder „gemeinsam mit den Eltern“, doch
interne E-Mails halten fest, man müsse Benachrichtigungen an Eltern vermeiden, weil sonst „das Produkt kaputtgehen würde“
- In einer weiteren Mail stand zudem, man müsse „optimieren, dass sie im Chemieunterricht heimlich aufs Handy schauen“
9. Bewertung des Werts von Jugendlichen
- In einer internen E-Mail von 2018 wurde der Lebenszeitwert eines 13-jährigen Jugendlichen mit 270 Dollar berechnet
- Enthalten war auch die Sorge des Managements, man könne „bis 2030 30 Millionen jugendliche Nutzer verlieren“
Weitere Fälle bei Meta
1. Forschung zur Suchtwirkung von Instagram
- Adam Mosseri sagte, „die Auswirkungen der App sind gering“, doch
die interne Studie von 2019 ‘Teen Mental Health: Creatures of Habit’ hielt fest:
- „Teenager können Instagram nicht ausschalten, selbst wenn sie es wollen“,
- „Suchtartige Nutzung und Perfektionsdruck sind der Kern der Angstzustände“
2. Wirksamkeit des Systems zur Inhaltsmoderation
- Meta behauptete in einem Bericht von 2023, 99 % des Materials zur Ausbeutung von Kindern automatisch zu entfernen, doch
der Whistleblower Arturo Béjar erklärte, die tatsächliche Erkennungsrate liege unter 5 %
- Außerdem wurde bekannt, dass das Management Vorschläge zur Designverbesserung ignorierte und Forschungsteams auflöste
Fazit
- Der Bericht stellt fest, dass Meta wiederholt beim Schutz Jugendlicher versagt und falsche Aussagen gemacht habe
- Er warnt, dass sich das Unternehmen ohne gesetzlich erzwungene Maßnahmen nicht freiwillig verbessern werde
- Besonders die Verabschiedung des Kids Online Safety Act wird als zentrales Mittel zum Schutz von Kindern und Jugendlichen hervorgehoben
1 Kommentare
Hacker-News-Kommentare
Zum Beispiel ist es fragwürdig, pauschal zu behaupten, über das Investitionsniveau bei Schutz-Tools werde gelogen. Es kann sein, dass viel investiert wurde, die Maßnahmen aber wirkungslos waren.
Beim Lesen wirkte einiges tatsächlich wie Lügen, anderes aber eher wie unterschiedliche Auslegung. Solche Grenzfälle sollte man weglassen oder eher als „schwer vertrauenswürdig“ darstellen.
Ich habe kürzlich in Reels eindeutig Erwachseneninhalt gesehen und gemeldet, aber es wurde als „kein Verstoß gegen die Richtlinien“ behandelt. Es mag viele Meldungen geben, aber Meta erreicht die selbst genannten Ziele bei der Inhaltsmoderation eindeutig nicht.
Zum Beispiel bezog sich „Meta plante ein Produkt für Kinder von 6 bis 13 Jahren“ auf eine Folie zu Messenger Kids und diente dem Zweck der COPPA-Compliance.
Auch die Kritik „Sie behaupten, Eltern zu helfen, ermöglichen Teenagern aber heimliche Kommunikation vor den Eltern“ stand tatsächlich im Kontext eines Designproblems bei der Live-Streaming-Funktion.
Ich mag Facebook auch nicht, aber diesem Artikel vertraue ich weniger als den Aussagen von Mark Zuckerberg.
Die heutige Lage kann man sogar so sehen, dass dieses Versprechen eingehalten wurde.
Die einschlägigen Bestimmungen sind in diesem Congress.gov-Dokument zusammengefasst.
Bei Falschaussagen sind bis zu 5–8 Jahre Haft möglich, insbesondere bis zu 8 Jahre bei Fällen im Zusammenhang mit Sexhandel oder Ausbeutung von Kindern.
Solche Fälle lassen einen denken, dass das Ritual unter Eid die Wahrheit zu sagen Lügen eher noch entschlossener macht.
Siehe Watergate-Affäre, Clinton–Lewinsky-Skandal.
Unter Verweis auf die jüngste Altersverifikations-Kontroverse bei Discord gibt es die Sorge, dass solche Regulierung am Ende für alle Nutzer eine Identitätsprüfung erzwingt.
Selbst wenn man keine sozialen Medien nutzt, könnten auch Orte wie Hacker News nach der gesetzlichen Definition als Social Media eingestuft werden.
Wenn Facebook Jugendlichen schadet und Meta das wusste und dennoch nichts unternahm, dann ist Regulierung ein unvermeidliches Mittel.