- Die EU-Kommission plant, in der zweiten Jahreshälfte regulatorische Maßnahmen zu ergreifen, die auf Funktionen mit süchtig machendem Design bei TikTok und Instagram abzielen
- Dazu zählen Funktionen wie TikToks endloses Scrollen, Autoplay und Push-Benachrichtigungen, die Kinder auf der Plattform halten sollen
- Meta wird vorgeworfen, den eigenen Mindestalter-Standard von 13 Jahren bei Instagram und Facebook nicht wirksam durchzusetzen
- Die EU untersucht das Problem von Rabbit Holes, die zu Inhalten über Essstörungen und Selbstverletzung führen, und entwickelt eine App zur Altersverifikation mit Fokus auf Datenschutzstandards
- Nach Empfehlungen eines Expertenpanels für Online-Kindersicherheit und den Ergebnissen der Untersuchungen könnte bereits im Sommer ein erster Gesetzentwurf vorliegen
EU treibt Regulierung zum Schutz von Kindern in sozialen Medien voran
- Die EU-Kommission plant, in der zweiten Jahreshälfte Maßnahmen gegen Funktionen mit süchtig machendem Design bei TikTok und Instagram zu ergreifen
- EU-Kommissionspräsidentin Ursula von der Leyen erklärte auf dem European Summit on Artificial Intelligence and Children in Dänemark, dass bestimmte Funktionen von Social-Media-Plattformen ins Visier genommen werden sollen
- Zu den Regulierungszielen zählen Funktionen wie TikToks endloses Scrollen, Autoplay und Push-Benachrichtigungen, die Kinder dauerhaft auf der Plattform halten
- Auch Meta wird vorgeworfen, den eigenen Mindestalter-Standard von 13 Jahren bei Instagram und Facebook nicht wirksam durchzusetzen
- Die EU-Kommission bat ByteDance und Meta um eine Stellungnahme
Schädliche Inhalte und Altersverifikation
- Die EU untersucht derzeit Plattformstrukturen, die Kinder in Rabbit Holes mit schädlichen Inhalten ziehen
- Als Beispiele für schädliche Inhalte werden Videos genannt, die Essstörungen oder Selbstverletzung fördern
- Die EU-Kommission hat eine eigene App zur Altersverifikation entwickelt; von der Leyen sagte, sie erfülle „die weltweit höchsten Datenschutzstandards“
- Mitgliedstaaten könnten diese App bald in digitale Wallets integrieren, und auch Online-Plattformen könnten sie leicht durchsetzen
- Von der Leyen sagte: „Es gibt keine Ausreden mehr. Die Technologie zur Altersverifikation ist verfügbar.“
- Die EU-Kommission wartet auf Empfehlungen eines Sonderpanels von Expertinnen und Experten für Online-Kindersicherheit sowie auf die Untersuchungsergebnisse und könnte bereits im Sommer einen Gesetzentwurf vorbereiten
Feststellung eines DSA-Verstoßes und rechtlicher Druck
- Die EU-Kommission kam kürzlich zu dem Schluss, dass Meta gegen den EU Digital Services Act verstoßen hat, weil Facebook und Instagram Nutzer unter 13 Jahren nicht wirksam ausschließen konnten
- Eine vorläufige Untersuchung ergab, dass Minderjährige die Prüfverfahren leicht umgehen können
- Die rechtliche Kontrolle der Kindersicherheit auf Social-Media-Plattformen hat zugenommen, nachdem Meta und YouTube im März in den USA eine wichtige Gerichtsentscheidung verloren hatten
- Das Urteil kam zu dem Schluss, dass Designfunktionen wie endloses Scrollen und Autoplay zu Suchtverhalten und psychischen Schäden bei Jugendlichen beigetragen haben
Vorgehen gegen US-Big-Tech und internationale Ausweitung
- Die EU hat im vergangenen Jahr ihre Durchsetzung gegen US-Big-Tech im Rahmen der stärkeren Rechenschaftspflicht großer Technologiekonzerne ausgeweitet
- Eine Reihe von Geldbußen rief Kritik von US-Behörden hervor; diese warnten, die EU riskiere, Chancen in der KI-Wirtschaft zu verpassen
- US-Präsident Donald Trump reagiert auf Geldbußen gegen US-Unternehmen, die sich in den vergangenen zwei Jahren auf insgesamt mehr als 7 Milliarden US-Dollar beliefen
- Apple, Meta und Google wurden wegen Verstößen gegen das EU-Kartell- und Wettbewerbsrecht mit Geldbußen belegt und wehren sich dagegen
- Die EU-Kommission leitete Anfang des Jahres eine Untersuchung gegen X von Elon Musk ein, nachdem der Chatbot Grok nicht einvernehmliche sexuell explizite Inhalte mit Frauen und Kindern verbreitet hatte
Trend zu Social-Media-Beschränkungen für Unter-16-Jährige
- Regierungen in verschiedenen Ländern prüfen Gesetze, um Kinder vor den Schäden sozialer Medien zu schützen
- Australien wurde im Dezember das erste Land, das ein weitreichendes Verbot sozialer Medien für unter 16-Jährige umsetzte
- Seitdem gewinnt der Trend zu Social-Media-Verboten für unter 16-Jährige bei Regierungen weltweit an Dynamik
- In Europa haben Spanien, Frankreich und das Vereinigte Königreich eigene Gesetzesinitiativen vorgeschlagen, um Kinder von sozialen Medien fernzuhalten
1 Kommentare
Hacker-News-Kommentare
Wenn Inhalte per Algorithmus präsentiert werden, ist das kein neutraler Common Carrier mehr, und man sollte Verantwortung für die angezeigten Inhalte tragen
Wenn die Nutzer selbst entscheiden, könnte der Verantwortungsbereich anders aussehen, eher wie bei Social Media 1.0
Genauer gesagt ist es wohl sinnvoller, personalisierte Empfehlungsalgorithmen ins Visier zu nehmen, und es ist keineswegs klar, dass eine Website allein dadurch aufhört, ein neutraler Common Carrier zu sein, dass sie Empfehlungsalgorithmen anbietet
Wie sollen Nutzer bei Millionen oder Zehnmillionen Videos selbst auswählen? Selbst wenn man wie bei YouTube suchen kann, muss man die Suchergebnisse irgendwie ranken, und auch das ist ein Algorithmus, also ist das überhaupt kein leicht lösbares Problem
Das ist zwar nicht das, was Öffentlichkeit oder Politiker mit „Algorithmus“ meinen, aber was genau gemeint ist, bleibt etwas vage. Die EU scheint diesen Punkt gut zu verstehen und deshalb den Ausdruck süchtig machendes Design in den Mittelpunkt zu stellen. Das zeigt, dass das Problem nicht ein klar abgrenzbarer Algorithmus an sich ist, sondern ein unscharfer Bereich rund um das hervorgerufene Verhalten
Ist das Einfügen von Werbung auch ein Algorithmus? Das Einbeziehen von Likes? Das automatische Abspielen des nächsten Videos nach dem vorherigen? Infinite Scroll? Solche Fragen tauchen immer weiter auf
Diesen Unterschied zu übersehen und zu sagen, das sei „einfach zu lösen“, wirkt nicht wie ein ausreichend durchdachter Vorschlag
Das ist nicht nur ein Problem von Kindern
Viele Erwachsene brauchen das ebenfalls. Suchterzeugende Apps sind extrem gut gestaltet, während die meisten Blocker zu leicht zu ignorieren oder auf Dauer zu lästig sind. Ich hatte dasselbe Problem und habe deshalb einen kleinen iOS-Blocker gebaut; die eigentliche Kernherausforderung ist, ihn streng genug zu machen, dass er wirklich wirkt, ohne dass die Leute ihn hassen
Ich erinnere mich nicht mehr an die genaue Uhrzeit, aber vermutlich etwa von 22 Uhr bis 6 Uhr morgens. Insgesamt denke ich, dass das vielleicht eine gute Politik für alle wäre. Ich glaube auch gehört zu haben, dass AI-Firmen während Prüfungszeiten offline gehen, aber daran erinnere ich mich vielleicht falsch
In einer idealen Welt sollte das Einzige, worüber Nutzer fortlaufend Benachrichtigungen erhalten dürfen, dass jemand versucht hat, sie zu kontaktieren, die Voicemail sein, und auch die sollte denselben Spam-Regeln unterliegen wie alles andere
Ich verstehe nicht, warum solche Algorithmen in dem Moment plötzlich in Ordnung sein sollen, in dem das Opfer 18 wird
Sie sind für alle schädlich, und wenn man sie regulieren will, sollte man sie für niemanden legal lassen
Eigentlich hätte ich lieber die Möglichkeit, mein eigenes Empfehlungsmodell in alle Social-Media-Dienste hochzuladen, um besser zu kuratieren, schwarze Löcher um Themen zu setzen, die ich vermeiden will, und vielleicht eine Option zu haben, das Ganze für Entdeckungen etwas unschärfer zu stellen
Dort steht nur, dass Plattformen mit solchen Mechanismen häufig auf Kinder zielen
Das auf Erwachsene auszuweiten ist viel schwieriger, weil der Konsens deutlich schwächer ist
Dann stellt sich allerdings dieselbe Frage, warum Menschen mit 18 plötzlich für ihr Verhalten verantwortlich sein sollen
Die meisten Erwachsenen haben zwar ebenfalls zu wenig Reife und Urteilsvermögen, aber es ist in der Regel weniger gefährlich, Erwachsenen schlechte Entscheidungen zu erlauben, als jemandem die Macht zu geben zu bestimmen, dass gewisse Entscheidungen so schlecht seien, dass man sie nicht zulassen dürfe
Gerade Beschränkungen von Infinite Scroll wären meiner Meinung nach insgesamt gut, um die Suchtwirkung und den Schaden von Social Media zu verringern
Ich mag es wirklich, dass HN Seiten statt eines Feeds oder endloser Listen verwendet
Die Titelrichtlinien[1] sind großartig, und ich wünschte, mehr Websites und klassische Medien würden das so handhaben. Dinge, die mich nicht interessieren, versuchen nicht, meine Zeit und Aufmerksamkeit zu verschwenden
[1] https://news.ycombinator.com/newsguidelines.html
„Infinite Scroll“ ist nur ein Implementierungsdetail; selbst wenn man nur das verbietet, wird man mit allen möglichen anderen Methoden weiter Suchtverhalten erzeugen
Ich habe in einem Podcast gehört, dass Social-Media-Algorithmen als die Zigaretten der Gegenwart bezeichnet wurden, und das hat mich wirklich getroffen
Diese Unternehmen wissen, dass ihre Produkte süchtig machen und ihren Nutzern schaden, und pushen sie trotzdem weiter. Wie Zigaretten sind sie nicht nur für Kinder, sondern für alle schlecht. Deshalb habe ich einen Algorithmus-Blocker für Safari gebaut, und es ist erstaunlich, wie viel angenehmer Social Media ohne Empfehlungsalgorithmen überhaupt wird. Die EU und andere Jurisdiktionen sollten dieses Problem nicht auf Kinder beschränken, sondern breiter angehen, aber ich verstehe, warum man dort anfängt
Der Einsatz ist anerkennenswert, aber wegen des finanziellen Eigeninteresses ist das keine neutrale Meinung zu diesem Thema. Wer Social-Media-Feeds filtern will, findet auch viele kostenlose Plugin-Alternativen
Unvorstellbar reiche Konzerne verbreiten ein schädliches Produkt auf der ganzen Welt, machen es so süchtig machend wie möglich und unterdrücken aktiv Forschung, die seine Schädlichkeit belegt. Ich hoffe wirklich, dass wir eines Tages auf Social Media und Smartphone-Nutzung so zurückblicken werden wie auf das Rauchen
Nicht weil ich keinen guten Leuten folge, sondern weil es dort keinen Algorithmus gibt, der in mein Reptiliengehirn eindringt und mich zum endlosen Wischen bringt. Wenn ich daran denke und nachsehe, ist es immer angenehm, ich lese ein paar Beiträge und vielleicht einen interessanten Link, und 20 Minuten später bin ich wieder in der Realität. Aus Nutzersicht ist das großartig, aber ich bezweifle, dass man darauf ein werbefinanziertes Geschäft aufbauen kann. Ich würde gern sagen, ich sei klug genug, mich nicht in Dutzende „unterhaltsame“ Videos hineinziehen zu lassen, aber wenn ich dort eine Stunde verbringe, ist diese Stunde weg und nichts bleibt übrig
eu cigarettes boxessuchenEin Verbot mag nur ein dünner Keil sein, aber ich finde, Social Media braucht ebenfalls so etwas wie Warnhinweise
Und dann drücken sie aggressiv Gesetze durch, die die Verantwortung auf jemand anderen abwälzen. Das ähnelt der verdeckten Lobbykampagne der Tabakindustrie für Gesetze, die den Zigarettenverkauf an Minderjährige verboten. Ihre eigene Forschung zeigte, dass das bei der Raucherquote Jugendlicher kaum einen Unterschied machte und dem „rebellischen“ Image sogar eher half. Sehr ähnlich wirkt es, wenn Meta massiv darauf drängt, dass das Betriebssystem das Alter erklärt
Dem stimme ich nicht zu. Solange wir nicht von chemischen Stoffen sprechen, hat Suchtpotenzial auch eine subjektive Seite
Zu irgendeinem Zeitpunkt könnten auch Bücher, Filme, Comics usw. als süchtig machend gegolten haben. Für Minderjährige sollte man soziale Netzwerke insgesamt verbieten, und wie Nachtclubs für das Alter ihrer Gäste verantwortlich sind, sollten die sozialen Netzwerke selbst für die Altersprüfung ihrer Nutzer verantwortlich sein. Gerede wie „Altersverifikation durch das Betriebssystem“ dient offensichtlich nicht dem Schutz von Kindern, sondern der Überwachung
Es ist gut bekannt, dass die Suchtmuster dieser Apps Dopamin auf ähnliche Weise stimulieren wie Drogen. In gewissem Sinn ist Dopamin die „Chemikalie“ im Zentrum der Sucht, und Heroin und Algorithmen sind nur zwei verschiedene Wege, daran zu kommen
https://med.stanford.edu/news/insights/2021/10/addictive-pot...
Wie „süchtig machend“ ein Stoff oder eine Aktivität ist, kann daran beurteilt werden, wie stark ∆FosB exprimiert wird; insofern ist das keineswegs rein subjektiv. Bücher, Filme, Comics usw. lassen sich auf derselben Skala messen, und im Allgemeinen ist alles bis zu einem gewissen Grad süchtig machend
Wikipedia beschreibt „Sucht“ zum Beispiel als eine neuropsychologische Störung, bei der trotz erheblicher Schäden und anderer negativer Folgen ein anhaltender und starker Drang besteht, Drogen zu konsumieren oder Verhaltensweisen auszuführen, die sofortige psychologische Belohnung liefern. Dann würde „süchtig machend“ bedeuten, dass etwas bei einem erheblichen Anteil der Bevölkerung dazu neigt, Sucht auszulösen
Deshalb halte ich das Buchbeispiel nicht für passend
Eine wirklich gute Eigenschaft von HN ist, dass es kein Infinite Scroll hat
Man scannt den ersten Bildschirm, schaut sich Dinge an, die auffallen, und wenn es viele Kommentare gibt, wirkt es wichtig. Wenn das Scannen und Lesen vorbei ist, ist es vorbei. In Social Media gibt es kein Ende
/newund den Aktualisieren-KnopfEhrlich gesagt habe ich ein Problem mit Aufschieben, und HN ist dafür genauso eine gute Ausrede wie andere soziale Netzwerke
Ich nutze solche Seiten nicht einmal selbst und gehöre auch nicht zu der Altersgruppe
Instagram ist so voller Werbung, dass es mich sofort nervt, deshalb benutze ich es nicht. Wenn man Produkte vermarkten will, kann ich den Wunsch nach höherem Engagement schon nachvollziehen. In letzter Zeit habe ich aufgehört, durch Reddit zu scrollen oder mich einzuloggen, und auch damit, YouTube-Videos anzuschauen; es nimmt wirklich kein Ende und ist auf seltsame Weise extrem. Wenn ich nichts tue, werde ich unruhig und gelangweilt, deshalb versuche ich, nicht mehr wie früher multitaskingartig gleichzeitig YouTube laufen zu lassen und durch Reddit zu scrollen. Stattdessen arbeite ich jetzt lieber am Computer mit Musik, oder wenn ich etwas anschaue, dann nur das. Ich suche inzwischen auch wieder echte soziale Interaktion und hätte Lust, in Orte wie Cafés zu gehen, aber leider lebe ich in einem Vorort und müsste dafür mit dem Auto fahren. Im Moment schaue ich nur noch auf diese Seite oder auf motivierende Startup-Websites
Ich habe das Gefühl, im Alltag an einem ähnlichen Punkt zu sein
Ich verstehe nicht, warum der Staat immer die Rolle der Eltern übernehmen soll
Meine Mutter hat mir den Computer weggenommen, wenn ich mich nicht an die Regeln gehalten habe
Was hat das mit der Elternrolle zu tun?
Ich als Erwachsener brauche diesen Schutz auch
Das läuft grob auf einer Zeitskala von etwa 3 Monaten ab