2 Punkte von GN⁺ 2025-04-26 | 2 Kommentare | Auf WhatsApp teilen
  • Auf X.com manipulieren der Algorithmus und populäre Accounts stillschweigend die Sichtbarkeit von Inhalten
  • Social Proof wird nicht durch die tatsächliche öffentliche Meinung bestimmt, sondern durch die Nähe zu Influencern verzerrt
  • Durch eine Kettenreaktion der Wahrnehmung werden bestimmte Narrative schrittweise verstärkt und verbreitet
  • Früher bestand Astroturfing aus Fake-Accounts, heute werden dafür gezielt ausgewählte echte Nutzer eingesetzt
  • Menschen glauben, sie würden selbst wählen, tatsächlich werden ihre Optionen vom Algorithmus gesteuert

Algorithmische Autorität

  • Einflussreiche Nutzer und das Design von Empfehlungsalgorithmen steuern stillschweigend, was Menschen sehen, was Aufmerksamkeit erhält und was untergeht
  • Wenn ein Account mit 219 Millionen Followern einen kleinen Account einfach „stumm schaltet“, brechen dessen Aufrufe innerhalb eines Tages von 150.000 auf 20.000 ein
  • Das ist eine Form des Shadowbanning, die nicht durch explizite Regelverstöße oder Ankündigungen erfolgt, sondern algorithmisch
  • Umgekehrt kann ein positiver Impuls von einem einflussreichen Account dazu führen, dass sich Inhalte rasant verbreiten und an Bekanntheit gewinnen
  • Sogar ein einfaches Like oder wiederholte Kommentare können als AstroBoost™ wirken, künstliche Aktivität inszenieren und Verstärkung auslösen

Social Proof als sozialtechnische Manipulation

  • Früher spiegelte Social Proof die Weisheit der Masse wider, heute ist die algorithmische Bestätigung der entscheidende Faktor
  • Schon eine einzige Interaktion mit einem einflussreichen Account kann die wahrgenommene Popularität eines Inhalts verzerren
  • So entsteht künstliche Popularität: vom Algorithmus ausgewählte Narrative werden hervorgehoben, natürliche Ideen verschwinden im Hintergrund
  • Das wird nicht als Betrug verstanden, sondern als Infrastruktur der Einflussnahme

Kettenreaktion der Wahrnehmung

  • Die Sichtbarkeit von Inhalten wird reduziert, ohne sie zu löschen oder zu blockieren, indem sie im Feed einfach niedriger priorisiert werden
  • Auf diese Weise werden Inhalte ganz natürlich seltener gesehen und verlieren ihre Präsenz
  • Umgekehrt lösen Inhalte mit positiven Signalen eine Kettenreaktion aus, verbreiten sich über ähnliche Accounts hinweg und verstärken dasselbe Narrativ immer wieder
  • Nutzer nehmen diesen Prozess als natürlich wahr, tatsächlich sehen sie aber bereits gefilterte und gerankte Ergebnisse

Astroturfing 2.0

  • Früher setzte Astroturfing auf Fake-Accounts und Bots, heute kommen dafür ausgewählte echte Nutzer zum Einsatz
  • Elite-Accounts setzen den Algorithmus in Gang, andere Nutzer geraten in seine Wellenbewegung
  • Es geht nicht darum, die Masse zu täuschen, sondern sie zu lenken
  • Echte Nutzer und echtes Engagement werden selektiv verstärkt, um die Illusion breiter Zustimmung zu erzeugen
  • Inhalte, die im Feed verbleiben und überleben, werden schließlich als „Konsens“ wahrgenommen

Das Sichtbare und das Unsichtbare

  • Manipulation der Wahrnehmung im großen Maßstab bestimmt, was Menschen sehen, kaufen, unterstützen und ignorieren
  • Sie verzerrt nicht nur Aufmerksamkeit, sondern steuert auch das Endergebnis
  • Wahrheit wird nicht mehr darüber definiert, „was real ist“, sondern darüber, „was sichtbar gemacht wird“
  • Was nicht gezeigt wird, ist so, als existiere es nicht
  • Dieses Phänomen ist kein Problem nur eines einzelnen sozialen Netzwerks

Anhang: Die Lauten brechen immer zuerst zusammen

  • Die wirksamste Einflussnahme bleibt unsichtbar und verschiebt Wahrnehmung still durch ein einziges algorithmisches Signal
  • Akteure, die alles offen kontrollieren wollen, werden leicht enttarnt und halten nicht lange durch
  • Stattdessen überleben jene, die Menschen glauben lassen, sie hätten selbst entschieden, während sie in Wirklichkeit die Auswahlmöglichkeiten manipulieren

2 Kommentare

 
ndrgrd 2025-04-26

Unabhängig davon, ob der Inhalt des Artikels zutrifft oder nicht, ist mir aus meiner Erfahrung mit Twitter aufgefallen, dass nicht nur im Feed, sondern auch bei den Antworten eher die Beiträge von Accounts mit vielen Followern zuerst angezeigt werden als nach der Zahl der Likes oder Retweets.
Dadurch sieht man nur die Meinungen von Menschen, die bereits großen Einfluss haben, und die Dutzenden oder Hunderte von darunter begrabenen Kommentaren haben eine viel geringere Chance, gesehen zu werden – egal, ob sie Likes bekommen oder nicht.

Tatsächlich wird diese Art der Sichtbarkeit inzwischen auch an vielen anderen Orten außerhalb von SNS eingesetzt; vielleicht müsste man fast sagen, dass es eine unverzichtbare Tugend des Internets ist, bewusst nach möglichst vielen unterschiedlichen Meinungen zu suchen.

 
GN⁺ 2025-04-26
Hacker-News-Kommentare
  • Es scheint, als würde Twitter Beiträge unterdrücken und sie dann sichtbar machen, wenn sie von Hate-Bots als Spam markiert werden
    • Ich habe auch Belege gesehen, dass Beiträge, die Twitter mag (gewalttätige und hasserfüllte anti-immigrantische Beiträge), von Love-Bots als Spam markiert werden
    • Twitter wirkt wie ein Propagandakanal, der von Donald/Elon usw. betrieben wird
  • Diese Politik hat etwas Unheimliches, weil sie einen Zinseszinseffekt auslöst
    • Schon mit nur einigen wenigen starken X-Accounts hat man die Fähigkeit, noch mehr Accounts zu erzeugen
    • Man kann nicht nur andere zum Schweigen bringen, sondern auch die Fähigkeit ausbauen, zustimmende Verbündete zu promoten und so andere mundtot zu machen
  • Wir befinden uns in einem frühen Stadium der Vereinnahmung von Einfluss, und es gibt die Debatte, dass Einfluss das neue Kapital sei
    • Wir reproduzieren Systeme, die im neuen digitalen Zeitalter Kapitalakkumulation erlauben
  • Reddit ist am schlimmsten; überall dort, wo Aufmerksamkeit zu holen ist, gibt es hergestellten Konsens
  • Es überrascht, dass dieser Beitrag 40 Punkte bekommen hat
    • Der Autor zeigt einen Graphen, in dem die Aufrufe eines bestimmten Nutzers nach dem „Bruch mit Musk“ steil zurückgehen
    • Das ist verdächtig und erwähnenswert, aber der Rest des Blogs ist kaum mehr als predigendes Gerede über „Social Engineering“ und „Wahrnehmungskaskaden“ ohne jegliche Belege
    • Ich frage mich, ob die Leute nur Überschrift und ersten Absatz lesen und dann abstimmen
    • Dieser Beitrag würde fast nichts verlieren, wenn man ihn auf den Graphen reduziert
  • Ist der Titel ironisch? Ist er hilfreich?
    • Chomsky und Hermans Buch „Manufacturing Consent“ beschreibt Techniken, die in dieser Situation kaum verwendet werden
    • Hier kommt es eher staatlich betriebenen Medienhäusern nahe
    • Bei Chomsky stammt die Macht des Redakteurs aus der Heimlichkeit; hier stammt sie daraus, dass man sie selbst dann nicht stoppen kann, wenn der Redakteur bekannt ist
    • Menschen werden als Außenseiter entlarvt, wenn sie sich nicht als Fans einreihen
    • Die meisten Menschen wählen den Standardpfad des Nichtstuns und sammeln dadurch Belege dafür an, dass sie Fans sind oder mit der Masse mitlaufen
    • Das ist eine Zwangsfunktion, die Akzeptanz konditioniert
  • Artikel, die zeigen, was passiert, wenn man sich dem Redakteur widersetzt, und Diskussionen wie diese stärken den Redakteur und erhöhen den Effekt der Selbstzensur
    • Vielleicht ist es besser, eine Plattform aufzugeben, wenn sie ihrem Anspruch auf Fairness nicht gerecht wird
  • X ist wieder voll mit Bots, die Kryptowährungen und Finanzdienstleistungen verkaufen
  • Der Artikel über den „hergestellten Konsens“ auf X ist überzogen
    • Einfluss war schon immer kuratiert
    • Xs Vergehen ist nicht ein bösartiger Algorithmus, sondern dass es auf planetarem Maßstab betrieben wird
    • Wir haben Tausende kleiner Communities in einen globalen Lärm-Wettkampf verwandelt
    • Der Algorithmus ist nur das Zahnrad, das dieses Chaos am Laufen hält
    • Manche tun so, als gäbe es einen perfekten Algorithmus
    • Ein „perfektes“ System ist ein komplexes Geflecht verschiedener Algorithmen in unterschiedlichen Räumen
    • Auf Xs Code zu zeigen, verfehlt den Kern
    • Wir haben uns für diesen planetaren Zirkus angemeldet und kaufen weiterhin Tickets
  • Es ist nicht klar, ob der Algorithmus tatsächlich so funktioniert
    • Der Artikel zeigt nur einen einzigen Plot eines bestimmten Falls, und es gibt viele mögliche Erklärungen für einen Einbruch der Zuschauerzahlen
  • Ich fühlte mich an HN erinnert
    • Zumindest bemüht sich HN um Transparenz beim „Algorithmus“
    • Im Vergleich zu dem, was X/FB usw. verwenden, ist es ein grundsätzlich einfacher Algorithmus
  • Ich frage mich, ob der Algorithmus in solchen Fällen davon beeinflusst wird, prominente Accounts zu blockieren
    • Ich habe zum Beispiel Musk schon vor langer Zeit blockiert, weil der Algorithmus mir sonst weiter seine „Inhalte“ aufdrängt
    • Ich frage mich, ob der Algorithmus mir immer noch Dinge priorisiert, mit denen er interagiert hat, oder ob das nur bei Menschen passiert, die ihn nicht blockiert haben
    • Empfohlen wird offenbar, womit er voraussichtlich interagieren wird, aber ich weiß nicht, warum mir das überhaupt aufgedrängt wird