1 Punkte von GN⁺ 4 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • Die EU-Kommission plant, in der zweiten Jahreshälfte regulatorische Maßnahmen zu ergreifen, die auf Funktionen mit süchtig machendem Design bei TikTok und Instagram abzielen
  • Dazu zählen Funktionen wie TikToks endloses Scrollen, Autoplay und Push-Benachrichtigungen, die Kinder auf der Plattform halten sollen
  • Meta wird vorgeworfen, den eigenen Mindestalter-Standard von 13 Jahren bei Instagram und Facebook nicht wirksam durchzusetzen
  • Die EU untersucht das Problem von Rabbit Holes, die zu Inhalten über Essstörungen und Selbstverletzung führen, und entwickelt eine App zur Altersverifikation mit Fokus auf Datenschutzstandards
  • Nach Empfehlungen eines Expertenpanels für Online-Kindersicherheit und den Ergebnissen der Untersuchungen könnte bereits im Sommer ein erster Gesetzentwurf vorliegen

EU treibt Regulierung zum Schutz von Kindern in sozialen Medien voran

  • Die EU-Kommission plant, in der zweiten Jahreshälfte Maßnahmen gegen Funktionen mit süchtig machendem Design bei TikTok und Instagram zu ergreifen
  • EU-Kommissionspräsidentin Ursula von der Leyen erklärte auf dem European Summit on Artificial Intelligence and Children in Dänemark, dass bestimmte Funktionen von Social-Media-Plattformen ins Visier genommen werden sollen
  • Zu den Regulierungszielen zählen Funktionen wie TikToks endloses Scrollen, Autoplay und Push-Benachrichtigungen, die Kinder dauerhaft auf der Plattform halten
  • Auch Meta wird vorgeworfen, den eigenen Mindestalter-Standard von 13 Jahren bei Instagram und Facebook nicht wirksam durchzusetzen
  • Die EU-Kommission bat ByteDance und Meta um eine Stellungnahme

Schädliche Inhalte und Altersverifikation

  • Die EU untersucht derzeit Plattformstrukturen, die Kinder in Rabbit Holes mit schädlichen Inhalten ziehen
  • Als Beispiele für schädliche Inhalte werden Videos genannt, die Essstörungen oder Selbstverletzung fördern
  • Die EU-Kommission hat eine eigene App zur Altersverifikation entwickelt; von der Leyen sagte, sie erfülle „die weltweit höchsten Datenschutzstandards“
  • Mitgliedstaaten könnten diese App bald in digitale Wallets integrieren, und auch Online-Plattformen könnten sie leicht durchsetzen
  • Von der Leyen sagte: „Es gibt keine Ausreden mehr. Die Technologie zur Altersverifikation ist verfügbar.“
  • Die EU-Kommission wartet auf Empfehlungen eines Sonderpanels von Expertinnen und Experten für Online-Kindersicherheit sowie auf die Untersuchungsergebnisse und könnte bereits im Sommer einen Gesetzentwurf vorbereiten

Feststellung eines DSA-Verstoßes und rechtlicher Druck

  • Die EU-Kommission kam kürzlich zu dem Schluss, dass Meta gegen den EU Digital Services Act verstoßen hat, weil Facebook und Instagram Nutzer unter 13 Jahren nicht wirksam ausschließen konnten
  • Eine vorläufige Untersuchung ergab, dass Minderjährige die Prüfverfahren leicht umgehen können
  • Die rechtliche Kontrolle der Kindersicherheit auf Social-Media-Plattformen hat zugenommen, nachdem Meta und YouTube im März in den USA eine wichtige Gerichtsentscheidung verloren hatten
  • Das Urteil kam zu dem Schluss, dass Designfunktionen wie endloses Scrollen und Autoplay zu Suchtverhalten und psychischen Schäden bei Jugendlichen beigetragen haben

Vorgehen gegen US-Big-Tech und internationale Ausweitung

  • Die EU hat im vergangenen Jahr ihre Durchsetzung gegen US-Big-Tech im Rahmen der stärkeren Rechenschaftspflicht großer Technologiekonzerne ausgeweitet
  • Eine Reihe von Geldbußen rief Kritik von US-Behörden hervor; diese warnten, die EU riskiere, Chancen in der KI-Wirtschaft zu verpassen
  • US-Präsident Donald Trump reagiert auf Geldbußen gegen US-Unternehmen, die sich in den vergangenen zwei Jahren auf insgesamt mehr als 7 Milliarden US-Dollar beliefen
  • Apple, Meta und Google wurden wegen Verstößen gegen das EU-Kartell- und Wettbewerbsrecht mit Geldbußen belegt und wehren sich dagegen
  • Die EU-Kommission leitete Anfang des Jahres eine Untersuchung gegen X von Elon Musk ein, nachdem der Chatbot Grok nicht einvernehmliche sexuell explizite Inhalte mit Frauen und Kindern verbreitet hatte

Trend zu Social-Media-Beschränkungen für Unter-16-Jährige

  • Regierungen in verschiedenen Ländern prüfen Gesetze, um Kinder vor den Schäden sozialer Medien zu schützen
  • Australien wurde im Dezember das erste Land, das ein weitreichendes Verbot sozialer Medien für unter 16-Jährige umsetzte
  • Seitdem gewinnt der Trend zu Social-Media-Verboten für unter 16-Jährige bei Regierungen weltweit an Dynamik
  • In Europa haben Spanien, Frankreich und das Vereinigte Königreich eigene Gesetzesinitiativen vorgeschlagen, um Kinder von sozialen Medien fernzuhalten

1 Kommentare

 
GN⁺ 4 시간 전
Hacker-News-Kommentare
  • Wenn Inhalte per Algorithmus präsentiert werden, ist das kein neutraler Common Carrier mehr, und man sollte Verantwortung für die angezeigten Inhalte tragen
    Wenn die Nutzer selbst entscheiden, könnte der Verantwortungsbereich anders aussehen, eher wie bei Social Media 1.0

    • Hacker News ist ebenfalls eine Website, die Daten algorithmisch präsentiert, also müsste nach dieser Definition auch Hacker News verschwinden
      Genauer gesagt ist es wohl sinnvoller, personalisierte Empfehlungsalgorithmen ins Visier zu nehmen, und es ist keineswegs klar, dass eine Website allein dadurch aufhört, ein neutraler Common Carrier zu sein, dass sie Empfehlungsalgorithmen anbietet
    • Schon bei der Frage, welches Video Nutzern beim Öffnen der App als Erstes gezeigt werden soll, beginnt das Problem
      Wie sollen Nutzer bei Millionen oder Zehnmillionen Videos selbst auswählen? Selbst wenn man wie bei YouTube suchen kann, muss man die Suchergebnisse irgendwie ranken, und auch das ist ein Algorithmus, also ist das überhaupt kein leicht lösbares Problem
    • Nachdem die Debatte einige Male im Kreis gelaufen ist, bleiben viele an dem Punkt hängen: „Sobald man irgendetwas sortieren will, ob nach Neuheit oder Beliebtheit, braucht man am Ende einen Algorithmus wie Quicksort
      Das ist zwar nicht das, was Öffentlichkeit oder Politiker mit „Algorithmus“ meinen, aber was genau gemeint ist, bleibt etwas vage. Die EU scheint diesen Punkt gut zu verstehen und deshalb den Ausdruck süchtig machendes Design in den Mittelpunkt zu stellen. Das zeigt, dass das Problem nicht ein klar abgrenzbarer Algorithmus an sich ist, sondern ein unscharfer Bereich rund um das hervorgerufene Verhalten
    • Das ist schwer in die rechtliche Realität zu übertragen. Am Ende muss man definieren, was überhaupt ein Algorithmus ist
      Ist das Einfügen von Werbung auch ein Algorithmus? Das Einbeziehen von Likes? Das automatische Abspielen des nächsten Videos nach dem vorherigen? Infinite Scroll? Solche Fragen tauchen immer weiter auf
    • Die interaktiven Computerdienste in CDA 230 sind nicht dasselbe wie Common Carriers
      Diesen Unterschied zu übersehen und zu sagen, das sei „einfach zu lösen“, wirkt nicht wie ein ausreichend durchdachter Vorschlag
  • Das ist nicht nur ein Problem von Kindern
    Viele Erwachsene brauchen das ebenfalls. Suchterzeugende Apps sind extrem gut gestaltet, während die meisten Blocker zu leicht zu ignorieren oder auf Dauer zu lästig sind. Ich hatte dasselbe Problem und habe deshalb einen kleinen iOS-Blocker gebaut; die eigentliche Kernherausforderung ist, ihn streng genug zu machen, dass er wirklich wirkt, ohne dass die Leute ihn hassen

    • Ich habe im Radio von einer Maßnahme in China während Schulprüfungen gehört: Alle Schulen schreiben zur gleichen Zeit Prüfungen, und in diesem Zeitraum wird Social Media nachts blockiert
      Ich erinnere mich nicht mehr an die genaue Uhrzeit, aber vermutlich etwa von 22 Uhr bis 6 Uhr morgens. Insgesamt denke ich, dass das vielleicht eine gute Politik für alle wäre. Ich glaube auch gehört zu haben, dass AI-Firmen während Prüfungszeiten offline gehen, aber daran erinnere ich mich vielleicht falsch
    • Toast-Benachrichtigungen waren ein großer Fehler, Badges ebenso
      In einer idealen Welt sollte das Einzige, worüber Nutzer fortlaufend Benachrichtigungen erhalten dürfen, dass jemand versucht hat, sie zu kontaktieren, die Voicemail sein, und auch die sollte denselben Spam-Regeln unterliegen wie alles andere
    • Ich bin ein Erwachsener, der all diese Apps hasst, aber ich möchte der Regierung nicht die Macht geben, diese Entscheidung für mich zu treffen
    • Wenn man denselben Schutz auch auf Erwachsene anwenden würde, bräuchte man auch keine Altersverifikation mehr
  • Ich verstehe nicht, warum solche Algorithmen in dem Moment plötzlich in Ordnung sein sollen, in dem das Opfer 18 wird
    Sie sind für alle schädlich, und wenn man sie regulieren will, sollte man sie für niemanden legal lassen

    • Erwachsene sind keine Herde, die man steuern muss, und ich sehe lieber Dinge, die zu meinen Interessen passen als zu denen der Allgemeinheit, über einen Empfehlungsalgorithmus
      Eigentlich hätte ich lieber die Möglichkeit, mein eigenes Empfehlungsmodell in alle Social-Media-Dienste hochzuladen, um besser zu kuratieren, schwarze Löcher um Themen zu setzen, die ich vermeiden will, und vielleicht eine Option zu haben, das Ganze für Entdeckungen etwas unschärfer zu stellen
    • Nur aus diesem Artikel wird nicht klar, ob Dinge wie Infinite Scroll oder „nächstes Video ansehen“ je nach Alter des Nutzers reguliert werden
      Dort steht nur, dass Plattformen mit solchen Mechanismen häufig auf Kinder zielen
    • Es ist wie bei Tabak. Regeln zum Schutz von Kindern sind gesellschaftlich deutlich leichter durchzusetzen, weil man sich eher darauf einigen kann, dass Kinder geschützt werden müssen
      Das auf Erwachsene auszuweiten ist viel schwieriger, weil der Konsens deutlich schwächer ist
    • Dahinter steht die Vorstellung, dass ein weniger weit entwickeltes Gehirn schlechter in der Lage ist, die richtigen Entscheidungen zu treffen
      Dann stellt sich allerdings dieselbe Frage, warum Menschen mit 18 plötzlich für ihr Verhalten verantwortlich sein sollen
    • In einer freien Gesellschaft hält man die Kosten schlechter Entscheidungen von Erwachsenen meist für tragbar, während man Kindern die Reife und Urteilsfähigkeit abspricht, solche Entscheidungen selbst zu treffen
      Die meisten Erwachsenen haben zwar ebenfalls zu wenig Reife und Urteilsvermögen, aber es ist in der Regel weniger gefährlich, Erwachsenen schlechte Entscheidungen zu erlauben, als jemandem die Macht zu geben zu bestimmen, dass gewisse Entscheidungen so schlecht seien, dass man sie nicht zulassen dürfe
  • Gerade Beschränkungen von Infinite Scroll wären meiner Meinung nach insgesamt gut, um die Suchtwirkung und den Schaden von Social Media zu verringern
    Ich mag es wirklich, dass HN Seiten statt eines Feeds oder endloser Listen verwendet

    • Ein weiterer wirklich guter Punkt an HN ist, dass alle Überschriften langweilig sind und sofort auf den Punkt kommen
      Die Titelrichtlinien[1] sind großartig, und ich wünschte, mehr Websites und klassische Medien würden das so handhaben. Dinge, die mich nicht interessieren, versuchen nicht, meine Zeit und Aufmerksamkeit zu verschwenden
      [1] https://news.ycombinator.com/newsguidelines.html
    • Der Kernpunkt ist, dass solche Funktionen darauf ausgelegt sind, süchtig zu machen
      „Infinite Scroll“ ist nur ein Implementierungsdetail; selbst wenn man nur das verbietet, wird man mit allen möglichen anderen Methoden weiter Suchtverhalten erzeugen
  • Ich habe in einem Podcast gehört, dass Social-Media-Algorithmen als die Zigaretten der Gegenwart bezeichnet wurden, und das hat mich wirklich getroffen
    Diese Unternehmen wissen, dass ihre Produkte süchtig machen und ihren Nutzern schaden, und pushen sie trotzdem weiter. Wie Zigaretten sind sie nicht nur für Kinder, sondern für alle schlecht. Deshalb habe ich einen Algorithmus-Blocker für Safari gebaut, und es ist erstaunlich, wie viel angenehmer Social Media ohne Empfehlungsalgorithmen überhaupt wird. Die EU und andere Jurisdiktionen sollten dieses Problem nicht auf Kinder beschränken, sondern breiter angehen, aber ich verstehe, warum man dort anfängt

    • Dieser Kommentar ist Werbung für eine kostenpflichtige App, die versucht, die Wut auf Social Media auszunutzen
      Der Einsatz ist anerkennenswert, aber wegen des finanziellen Eigeninteresses ist das keine neutrale Meinung zu diesem Thema. Wer Social-Media-Feeds filtern will, findet auch viele kostenlose Plugin-Alternativen
    • Der Vergleich von Social Media mit den Zigaretten der Gegenwart ist wirklich perfekt
      Unvorstellbar reiche Konzerne verbreiten ein schädliches Produkt auf der ganzen Welt, machen es so süchtig machend wie möglich und unterdrücken aktiv Forschung, die seine Schädlichkeit belegt. Ich hoffe wirklich, dass wir eines Tages auf Social Media und Smartphone-Nutzung so zurückblicken werden wie auf das Rauchen
    • Seit ich zu Pixelfed und Mastodon gewechselt bin, verbringe ich nicht mehr annähernd so viel Zeit in Social Media wie früher
      Nicht weil ich keinen guten Leuten folge, sondern weil es dort keinen Algorithmus gibt, der in mein Reptiliengehirn eindringt und mich zum endlosen Wischen bringt. Wenn ich daran denke und nachsehe, ist es immer angenehm, ich lese ein paar Beiträge und vielleicht einen interessanten Link, und 20 Minuten später bin ich wieder in der Realität. Aus Nutzersicht ist das großartig, aber ich bezweifle, dass man darauf ein werbefinanziertes Geschäft aufbauen kann. Ich würde gern sagen, ich sei klug genug, mich nicht in Dutzende „unterhaltsame“ Videos hineinziehen zu lassen, aber wenn ich dort eine Stunde verbringe, ist diese Stunde weg und nichts bleibt übrig
    • Man muss nur bei Google Bilder nach eu cigarettes boxes suchen
      Ein Verbot mag nur ein dünner Keil sein, aber ich finde, Social Media braucht ebenfalls so etwas wie Warnhinweise
    • Wie die Tabakindustrie behaupten sie, Kinder niemals ins Visier zu nehmen, obwohl es interne Memos dazu gibt, wie man Kinder gezielt anspricht
      Und dann drücken sie aggressiv Gesetze durch, die die Verantwortung auf jemand anderen abwälzen. Das ähnelt der verdeckten Lobbykampagne der Tabakindustrie für Gesetze, die den Zigarettenverkauf an Minderjährige verboten. Ihre eigene Forschung zeigte, dass das bei der Raucherquote Jugendlicher kaum einen Unterschied machte und dem „rebellischen“ Image sogar eher half. Sehr ähnlich wirkt es, wenn Meta massiv darauf drängt, dass das Betriebssystem das Alter erklärt
  • Dem stimme ich nicht zu. Solange wir nicht von chemischen Stoffen sprechen, hat Suchtpotenzial auch eine subjektive Seite
    Zu irgendeinem Zeitpunkt könnten auch Bücher, Filme, Comics usw. als süchtig machend gegolten haben. Für Minderjährige sollte man soziale Netzwerke insgesamt verbieten, und wie Nachtclubs für das Alter ihrer Gäste verantwortlich sind, sollten die sozialen Netzwerke selbst für die Altersprüfung ihrer Nutzer verantwortlich sein. Gerede wie „Altersverifikation durch das Betriebssystem“ dient offensichtlich nicht dem Schutz von Kindern, sondern der Überwachung

    • Ich verstehe nicht, warum man sagt: „Wenn es keine chemischen Stoffe sind, ist Sucht subjektiv“
      Es ist gut bekannt, dass die Suchtmuster dieser Apps Dopamin auf ähnliche Weise stimulieren wie Drogen. In gewissem Sinn ist Dopamin die „Chemikalie“ im Zentrum der Sucht, und Heroin und Algorithmen sind nur zwei verschiedene Wege, daran zu kommen
      https://med.stanford.edu/news/insights/2021/10/addictive-pot...
    • Suchtpotenzial lässt sich über ∆FosB-Genexpression messen
      Wie „süchtig machend“ ein Stoff oder eine Aktivität ist, kann daran beurteilt werden, wie stark ∆FosB exprimiert wird; insofern ist das keineswegs rein subjektiv. Bücher, Filme, Comics usw. lassen sich auf derselben Skala messen, und im Allgemeinen ist alles bis zu einem gewissen Grad süchtig machend
    • Der Grund, warum man es auf diese Weise angeht, ist, dass Social Media viel schwerer sauber abzugrenzen ist und auch nicht generell als schädliches Objekt an sich betrachtet wird
    • Sucht lässt sich zumindest recht klar davon unterscheiden, etwas bloß fesselnd zu finden, nämlich darüber, ob erhebliche schädliche Auswirkungen entstehen
      Wikipedia beschreibt „Sucht“ zum Beispiel als eine neuropsychologische Störung, bei der trotz erheblicher Schäden und anderer negativer Folgen ein anhaltender und starker Drang besteht, Drogen zu konsumieren oder Verhaltensweisen auszuführen, die sofortige psychologische Belohnung liefern. Dann würde „süchtig machend“ bedeuten, dass etwas bei einem erheblichen Anteil der Bevölkerung dazu neigt, Sucht auszulösen
    • Der Unterschied zu Büchern ist, dass Bücher nicht auf jeden einzelnen Leser personalisiert sind
      Deshalb halte ich das Buchbeispiel nicht für passend
  • Eine wirklich gute Eigenschaft von HN ist, dass es kein Infinite Scroll hat
    Man scannt den ersten Bildschirm, schaut sich Dinge an, die auffallen, und wenn es viele Kommentare gibt, wirkt es wichtig. Wenn das Scannen und Lesen vorbei ist, ist es vorbei. In Social Media gibt es kein Ende

    • Deshalb gibt es /new und den Aktualisieren-Knopf
      Ehrlich gesagt habe ich ein Problem mit Aufschieben, und HN ist dafür genauso eine gute Ausrede wie andere soziale Netzwerke
  • Ich nutze solche Seiten nicht einmal selbst und gehöre auch nicht zu der Altersgruppe
    Instagram ist so voller Werbung, dass es mich sofort nervt, deshalb benutze ich es nicht. Wenn man Produkte vermarkten will, kann ich den Wunsch nach höherem Engagement schon nachvollziehen. In letzter Zeit habe ich aufgehört, durch Reddit zu scrollen oder mich einzuloggen, und auch damit, YouTube-Videos anzuschauen; es nimmt wirklich kein Ende und ist auf seltsame Weise extrem. Wenn ich nichts tue, werde ich unruhig und gelangweilt, deshalb versuche ich, nicht mehr wie früher multitaskingartig gleichzeitig YouTube laufen zu lassen und durch Reddit zu scrollen. Stattdessen arbeite ich jetzt lieber am Computer mit Musik, oder wenn ich etwas anschaue, dann nur das. Ich suche inzwischen auch wieder echte soziale Interaktion und hätte Lust, in Orte wie Cafés zu gehen, aber leider lebe ich in einem Vorort und müsste dafür mit dem Auto fahren. Im Moment schaue ich nur noch auf diese Seite oder auf motivierende Startup-Websites

    • Ich würde gern wissen, welche Startup-Websites du anschaust
      Ich habe das Gefühl, im Alltag an einem ähnlichen Punkt zu sein
  • Ich verstehe nicht, warum der Staat immer die Rolle der Eltern übernehmen soll
    Meine Mutter hat mir den Computer weggenommen, wenn ich mich nicht an die Regeln gehalten habe

    • Hier geht es darum, Produkte zu regulieren, deren Schädlichkeit für das Wohlbefinden im großen Maßstab belegt ist
      Was hat das mit der Elternrolle zu tun?
    • Hier geht es nicht um Kinder
  • Ich als Erwachsener brauche diesen Schutz auch

    • Die Nutzung von Social Media wird von ∆FosB-Expression beeinflusst; je weniger man Social Media nutzt, desto weniger will man es nutzen
      Das läuft grob auf einer Zeitskala von etwa 3 Monaten ab