1 Punkte von GN⁺ 2026-02-19 | 1 Kommentare | Auf WhatsApp teilen
  • Ein Bericht legt offen, dass die Aussage von Meta-CEO Mark Zuckerberg bei der Anhörung im US-Senat 2024 internen Dokumenten widerspricht und bewusst falsche Angaben gemacht wurden
  • Das Tech Oversight Project erklärt nach Auswertung nicht öffentlicher Unterlagen und Expertenberichte, Zuckerberg habe Aussagen zu Kinderschutz, psychischer Gesundheit und Inhaltssicherheit verfälscht
  • Internen Materialien zufolge war Meta sich systematischer Probleme bewusst und ließ sie dennoch bestehen, darunter Strategien zur Gewinnung von Nutzern unter 13 Jahren, Duldung von Prostitution und Verschleierung nicht veröffentlichter Forschung
  • Der Bericht kritisiert, Meta habe Sicherheitsfunktionen für Jugendliche beworben, obwohl die meisten in der Praxis wirkungslos seien, während interne Forschung vielmehr eine Verschlechterung der psychischen Gesundheit und stärkere Suchtwirkung belege
  • Die Organisation betont, dass zur Korrektur dieses Verhaltens gesetzgeberische Maßnahmen wie der ‘Kids Online Safety Act’ nötig seien

Überblick über den Bericht des Tech Oversight Project

  • Der in Washington, D.C. veröffentlichte Bericht vergleicht Zuckerbergs Aussage bei der Anhörung des Justizausschusses des Senats 2024 mit neu offengelegten internen Dokumenten
    • Den Dokumenten zufolge hat Zuckerberg den Kongress belogen, und Meta habe das Versagen beim Schutz Jugendlicher vertuscht
  • Die Organisation hat eine Microsite namens ‘Big Tech on Trial’ eingerichtet, auf der gesammelte Belege während des laufenden Verfahrens fortlaufend aktualisiert werden sollen
  • Geschäftsführer Sacha Haworth sagte: „Meta hat sich hinter Section 230 versteckt, jetzt muss der Kongress handeln.“

Widersprüche zwischen Anhörungsaussagen und internen Belegen

1. Sicherheitsfunktionen für Jugendliche

  • Zuckerberg sagte, man unternehme „branchenführende Anstrengungen zum Schutz Jugendlicher“, doch
    laut Untersuchungen von Organisationen wie Fairplay waren von 53 Sicherheitsfunktionen auf Instagram
    • 64 % deaktiviert oder unwirksam,
    • 19 % nur begrenzt wirksam,
    • nur 17 % voll funktionsfähig
  • Der Bericht kommt zu dem Schluss: „Die meisten Funktionen schützen Jugendliche nicht.“

2. Produktdesign und Kindersicherheit

  • Zuckerberg sagte, „ein Fonds zur Entschädigung von Opfern ist nicht meine Aufgabe“, doch
    der Gerichtsbericht des Experten Tim Estes hält fest, dass Metas Plattformen ohne Berücksichtigung der Sicherheit von Kindern gestaltet worden seien
    • Genannt werden schwache Altersverifikation, ineffektive Elternkontrollen sowie Infinite Scroll, Autoplay und Benachrichtigungsfunktionen

3. Leugnung psychischer Auswirkungen

  • Zuckerberg sagte, „wissenschaftliche Belege stützen nicht die Behauptung, dass Social Media schädlich sei“, doch
    die Facebook Files des WSJ und interne Forschung berichten, dass Instagram niedriges Selbstwertgefühl, Angstzustände und das Risiko von Essstörungen bei Jugendlichen verschärfe
    • Besonders weibliche Jugendliche seien überdurchschnittlich psychisch belastet

4. Sexuelle Inhalte und Menschenhandel

  • Zuckerberg sagte, man „erlaube keine sexuellen Inhalte“, doch
    internen Dokumenten zufolge betrieb Meta eine Richtlinie, die Accounts im Zusammenhang mit Prostitution bis zu 17 Verstöße erlaubte
    • 2020 fanden 79 % des Kindersexhandels auf Meta-Plattformen statt,
    • unter minderjährigen Instagram-Nutzern berichteten 22 % von sexuellen Kontaktaufnahmen

5. Behauptetes Verbot für Nutzer unter 13 Jahren

  • Zuckerberg sagte, „unter 13-Jährige dürfen den Dienst nicht nutzen“, doch
    interne Dokumente nennen ausdrücklich altersbezogene Zielstrategien einschließlich ‘Kid’ für 6 bis 10 Jahre und ‘Tween’ für 10 bis 13 Jahre
    • In Dokumenten wie ‘Tweens Competitive Audit’ und ‘Youth Privacy’ wird das Ziel bestätigt, den Kindermarkt zu erschließen

6. Verschleierung von Forschung zur psychischen Gesundheit

  • In einer internen „Deaktivierungsstudie“ stellte Meta fest, dass bei einer Unterbrechung von Social Media Angst und Depression zurückgingen,
    stellte die Veröffentlichung der Ergebnisse jedoch ein, weil sie negativ ausfielen
    • Ein Mitarbeiter äußerte laut Aufzeichnungen die Sorge, man könne „wie eine Tabakfirma aussehen“

7. Mängel bei Messenger Kids

  • Zuckerberg sagte, „Messenger Kids ist sicherer“, doch
    ein Bug im Jahr 2019 machte Gruppenchats zwischen Kindern und nicht genehmigten Nutzern möglich
    • Meta behob das Problem stillschweigend, bekannt wurde es jedoch durch einen Bericht von The Verge

8. Behauptete Zusammenarbeit mit Eltern und interne Richtlinien

  • Zuckerberg sagte, man schütze Kinder „gemeinsam mit den Eltern“, doch
    interne E-Mails halten fest, man müsse Benachrichtigungen an Eltern vermeiden, weil sonst „das Produkt kaputtgehen würde“
    • In einer weiteren Mail stand zudem, man müsse „optimieren, dass sie im Chemieunterricht heimlich aufs Handy schauen“

9. Bewertung des Werts von Jugendlichen

  • In einer internen E-Mail von 2018 wurde der Lebenszeitwert eines 13-jährigen Jugendlichen mit 270 Dollar berechnet
    • Enthalten war auch die Sorge des Managements, man könne „bis 2030 30 Millionen jugendliche Nutzer verlieren“

Weitere Fälle bei Meta

1. Forschung zur Suchtwirkung von Instagram

  • Adam Mosseri sagte, „die Auswirkungen der App sind gering“, doch
    die interne Studie von 2019 ‘Teen Mental Health: Creatures of Habit’ hielt fest:
    • „Teenager können Instagram nicht ausschalten, selbst wenn sie es wollen“,
    • „Suchtartige Nutzung und Perfektionsdruck sind der Kern der Angstzustände“

2. Wirksamkeit des Systems zur Inhaltsmoderation

  • Meta behauptete in einem Bericht von 2023, 99 % des Materials zur Ausbeutung von Kindern automatisch zu entfernen, doch
    der Whistleblower Arturo Béjar erklärte, die tatsächliche Erkennungsrate liege unter 5 %
    • Außerdem wurde bekannt, dass das Management Vorschläge zur Designverbesserung ignorierte und Forschungsteams auflöste

Fazit

  • Der Bericht stellt fest, dass Meta wiederholt beim Schutz Jugendlicher versagt und falsche Aussagen gemacht habe
  • Er warnt, dass sich das Unternehmen ohne gesetzlich erzwungene Maßnahmen nicht freiwillig verbessern werde
  • Besonders die Verabschiedung des Kids Online Safety Act wird als zentrales Mittel zum Schutz von Kindern und Jugendlichen hervorgehoben

1 Kommentare

 
GN⁺ 2026-02-19
Hacker-News-Kommentare
  • Es wäre besser, echte Lügen nicht mit bloßen Ermessensfragen zu vermischen.
    Zum Beispiel ist es fragwürdig, pauschal zu behaupten, über das Investitionsniveau bei Schutz-Tools werde gelogen. Es kann sein, dass viel investiert wurde, die Maßnahmen aber wirkungslos waren.
    Beim Lesen wirkte einiges tatsächlich wie Lügen, anderes aber eher wie unterschiedliche Auslegung. Solche Grenzfälle sollte man weglassen oder eher als „schwer vertrauenswürdig“ darstellen.
    • Stimme voll zu. Wenn man die schweren Fälle aus dem Artikel zusammenfasst:
      1. Mark sagte, man verbiete „sexuell explizite Inhalte in allen Altersgruppen“, tatsächlich gab es aber eine 17-Verstöße-Warnpolitik, und 2020 wurden 65 % der Opfer von Kinder-Sexhandel über Facebook und 14 % über Instagram zugeführt (Quellenbericht)
      2. In internen Studien sank bei Nutzern, die Facebook/Instagram nicht mehr nutzten, Angst, Depression und Einsamkeit, aber Meta stoppte die Forschung und veröffentlichte die Ergebnisse nicht.
      3. Adam Mosseri sagte, die Auswirkungen auf die psychische Gesundheit von Teenagern seien gering, interne Berichte analysierten aber, dass Teenager die Apps wie bei einer Sucht nicht loslassen könnten und den Druck verspürten, perfekt sein zu müssen.
    • Zumindest sollte man mit den offensichtlichsten Lügen anfangen und die unklaren Punkte nach hinten stellen.
    • Man kann viel Geld investieren und trotzdem kaum Ergebnisse erzielen, oder von 71 Tools waren nur 17 % wirksam, aber das könnte trotzdem ausgereicht haben. Der Anteil wirksamer Maßnahmen sagt nicht automatisch etwas über die Gesamtleistung aus.
    • Wie bei dem Spruch „Wenn man Rosinen mit Scheiße mischt, ist am Ende alles Scheiße“: Wenn man starke und schwache Behauptungen vermischt, leidet die Glaubwürdigkeit insgesamt.
    • Es gibt viele wütende Menschen und Bots, die alles hassen, was Milliardäre sagen. In diesem Lärm die echten Probleme herauszufiltern, ist schwierig.
  • Die Behauptung „79 % des Kinder-Sexhandels im Jahr 2020 fanden auf Meta-Plattformen statt“ wirkte auf mich stark übertrieben, also habe ich die Quelle geprüft. Tatsächlich hieß es, dass „von den über Social Media zugeführten Opfern 65 % über Facebook und 14 % über Instagram“ kamen. Diese aufgeblasene Zahl wirkt sensationalistisch. Zur Einordnung: Ich habe nicht einmal ein Facebook-Konto und keinerlei Interesse an Meta.
    • Ich habe dieselbe Stelle gesehen. Die Studie betraf nur „Opfer, die über Social Media zugeführt wurden“, und 100 % dieser Fälle waren also Social-Media-basiert. Im Ergebnis ist das nur eine Karte der Plattform-Anteile, nicht der Beleg, dass 79 % aller Sexhandelsopfer betroffen waren. Diese Behauptung ist eindeutig verzerrt.
    • Ich verstehe, dass die Zahl falsch ist, aber mit Belegen oder einer erklärten Argumentation wäre das überzeugender.
  • Das Thema hatte mich bisher nicht besonders interessiert, aber nach den Beispielen im Artikel kann ich die Schlussfolgerung von Tech Oversight nachvollziehen.
    Ich habe kürzlich in Reels eindeutig Erwachseneninhalt gesehen und gemeldet, aber es wurde als „kein Verstoß gegen die Richtlinien“ behandelt. Es mag viele Meldungen geben, aber Meta erreicht die selbst genannten Ziele bei der Inhaltsmoderation eindeutig nicht.
    • Inzwischen ist „es gibt zu viele Meldungen“ kaum noch eine glaubwürdige Ausrede. Für ein Unternehmen, das so massiv in AI investiert, sollte es möglich sein, offensichtliche Fälle per AI vorzusortieren und dann von Menschen bearbeiten zu lassen.
    • Ich habe früher einmal ein Enthauptungsvideo gemeldet, das ebenfalls mit „kein Richtlinienverstoß“ geschlossen wurde.
    • Ich habe eine Gewaltandrohung gemeldet, und Instagram sagte ebenfalls „kein Richtlinienverstoß“.
    • Ich habe schon öfter gesehen, dass Meldungen erst ignoriert wurden und ein Konto dann Tage später verschwand. Vermutlich versteckt das System so etwas per Batch-Verarbeitung.
    • Auch auf Twitter habe ich dutzende Male gemeldet, und fast nie wurde es ordentlich bearbeitet.
  • Nach den Fällen, die ich kenne, ist das meiste eher Kontextverzerrung als eine „Lüge“.
    Zum Beispiel bezog sich „Meta plante ein Produkt für Kinder von 6 bis 13 Jahren“ auf eine Folie zu Messenger Kids und diente dem Zweck der COPPA-Compliance.
    Auch die Kritik „Sie behaupten, Eltern zu helfen, ermöglichen Teenagern aber heimliche Kommunikation vor den Eltern“ stand tatsächlich im Kontext eines Designproblems bei der Live-Streaming-Funktion.
    Ich mag Facebook auch nicht, aber diesem Artikel vertraue ich weniger als den Aussagen von Mark Zuckerberg.
  • Ich meine mich zu erinnern, dass es bei der Übernahme von Instagram die Bedingung gab, es nicht mit FB zu integrieren, aber tatsächlich fühlt es sich so an, als wäre es hinter den Kulissen vollständig integriert worden. Die beiden Dienste fallen ja auch gleichzeitig aus.
    • Das war keine Bedingung. In der damaligen Ankündigung hieß es nur, man werde „die Unabhängigkeit und Stärken von Instagram erhalten“ (Link zur offiziellen Ankündigung).
      Die heutige Lage kann man sogar so sehen, dass dieses Versprechen eingehalten wurde.
    • Nicht nur die Kontoverwaltung, auch Instagram-Inhalte und Kommentare werden teils automatisch an Facebook weitergeleitet.
    • Am Ende wirkt es so, als hätte er seine eigentlichen Absichten von Anfang an verborgen.
    • FB kennt sogar den eBay-Suchverlauf. Datenaustausch zwischen Unternehmen findet in einer Struktur statt, die ohne Zustimmung der Nutzer funktioniert.
    • Er war von Anfang an eine manipulative Figur. Die oberen Etagen der Branche bestehen größtenteils aus ähnlichen Typen, und viele halten sich dabei für „die moralisch Guten“. Bei werbefinanzierten Unternehmen ist es letztlich überall ähnlich.
  • Kongress oder DOJ werden vermutlich nichts unternehmen, aber die rechtlichen Strafen für Meineid vor dem Kongress (perjury) sind klar geregelt.
    Die einschlägigen Bestimmungen sind in diesem Congress.gov-Dokument zusammengefasst.
    Bei Falschaussagen sind bis zu 5–8 Jahre Haft möglich, insbesondere bis zu 8 Jahre bei Fällen im Zusammenhang mit Sexhandel oder Ausbeutung von Kindern.
  • Das erinnert mich an das Video der Aussage von Tabakkonzern-CEOs vor dem Kongress 1994, in dem gesagt wird: „Nikotin macht nicht abhängig“.
    • Nixons „Ich bin kein Gauner“, Clintons „Ich hatte keine Beziehung mit dieser Frau“, und von Trump ganz zu schweigen.
      Solche Fälle lassen einen denken, dass das Ritual unter Eid die Wahrheit zu sagen Lügen eher noch entschlossener macht.
      Siehe Watergate-Affäre, Clinton–Lewinsky-Skandal.
  • Als Kind glaubte ich, dass man ins Gefängnis kommt, wenn man gegen das Gesetz verstößt. Ich vermisse diese Zeit fast.
    • Das gilt offenbar immer noch nur für normale Leute wie uns. Reiche und Mächtige sind ausgenommen.
    • Ich glaubte als Kind auch, dass Gerechtigkeit funktioniert und der Staat für die Bürger arbeitet. Heute fühlt sich das alles wie eine Illusion an.
    • Beim Skandal um große Finanzakteure war ich endgültig überzeugt. Gegen Reiche greift das Gesetz nicht. Um mit solchen Leuten umzugehen, braucht es Mittel außerhalb des Rechts.
    • Das liegt nicht an linken Richtern. Es ist ein strukturelles Problem.
  • Zur Behauptung, man brauche Gesetze wie den Kids Online Safety Act, um Metas gefährliches Verhalten zu stoppen:
    Unter Verweis auf die jüngste Altersverifikations-Kontroverse bei Discord gibt es die Sorge, dass solche Regulierung am Ende für alle Nutzer eine Identitätsprüfung erzwingt.
    Selbst wenn man keine sozialen Medien nutzt, könnten auch Orte wie Hacker News nach der gesetzlichen Definition als Social Media eingestuft werden.
    • Vielleicht denkt man bei „zensiertem Internet“ irgendwann nicht zuerst an China, sondern an westliche Staaten, besonders Großbritannien oder die USA.
    • Dann würde mich interessieren, was die Alternative wäre.
    • Die Discord-Kontroverse drehte sich um die Art der ID-Prüfung, und im KOSA-Gesetzentwurf gibt es keine solche Klausel. KOSA als Identitätsprüfungsgesetz misszuverstehen ist schlicht uninformiert.
    • Das wirkt wie eine Überreaktion nach dem Motto: „Um den häuslichen Gewalttäter des Nachbarn loszuwerden, zünden wir in der Dorfmitte eine Atombombe.“
    • Der Logik „Wenn Unternehmensinteressen mit dem menschlichen Wohl kollidieren, braucht es Regulierung“ stimme ich zu.
      Wenn Facebook Jugendlichen schadet und Meta das wusste und dennoch nichts unternahm, dann ist Regulierung ein unvermeidliches Mittel.
  • In iOS Safari ist das CSS komplett kaputt: Die erste Spalte bleibt fixiert und ist viel zu schmal, sodass die Zeilen absurd lang werden.
    • In Android Firefox genauso. Mit dem Reader-Modus ist es etwas besser, aber immer noch unpraktisch.
    • Dass eine Website auf iOS so kaputt ist, ist schon heftig. Da macht man fast schon Witze, das sei ein Fall für den Kongress.