2 Punkte von GN⁺ 2025-09-19 | 1 Kommentare | Auf WhatsApp teilen
  • Meta hat KI-Brillen mit integriertem Display und ein EMG-Armband vorgestellt und schlägt damit ein Nutzungserlebnis vor, das auf kurze, schnelle Interaktionen ohne Smartphone ausgerichtet ist
  • Die Ray-Ban Display-Brille integriert ein hochauflösendes Vollfarb-Display, Mikrofon, Lautsprecher, Kamera und On-Device-KI und unterstützt damit das Prüfen von Nachrichten, die Vorschau von Fotos sowie die Zusammenarbeit mit Meta AI auf Basis visueller Prompts
  • Das Neural Band (EMG-Armband) ermöglicht Scrollen, Klicken und mehr durch feine Fingerbewegungen und bietet damit eine intuitive Gestensteuerung, ohne die Brille zu berühren oder das Smartphone herauszuholen
  • Der Preis liegt bei 799 US-Dollar (inklusive Brille und Band), der Verkaufsstart ist am 30. September in ausgewählten stationären Geschäften in den USA; Farben Black/Sand, Rahmen Standard/Large, Gläser Transitions®, bis zu 6 Stunden gemischte Nutzung und mit faltbarem Ladecase insgesamt 30 Stunden Laufzeit
  • Das Display zeichnet sich durch 42 ppd, 2 % Lichtleckage, Auto-Brightness und photochrome Gläser aus; auf der Erlebnis-Seite zielt das Produkt mit visueller Meta AI, Messaging und Videoanrufen, Fußgänger-Navigation, Live-Untertiteln und Übersetzung sowie Musiksteuerung auf ein neues Interaktionsparadigma für Wearable Computing

Einführung

  • Meta stellt mit Meta Ray-Ban Display und dem Meta Neural Band eine neue Produktfamilie von KI-Brillen vor
  • Das Produkt wurde so entwickelt, dass Informationen direkt vor Ort abrufbar sind und Nutzer gleichzeitig stärker in ihre Umgebung eintauchen können

Produktüberblick: der Auftritt von KI-Brillen mit Display

  • Meta Ray-Ban Display ist eine Brille mit Display im Glas, die das Prüfen von Nachrichten, die Vorschau von Fotos und die Zusammenarbeit mit Meta AI auf Basis visueller Prompts in Form kurzer Interaktionszyklen ermöglicht
  • Mikrofon, Lautsprecher, Kamera, Vollfarb-Display sowie On-Device-Computing und KI werden in einem einzigen Wearable vereint, das darauf ausgelegt ist, in die Umgebung einzutauchen und dennoch verbunden zu bleiben
  • Das mitgelieferte Meta Neural Band (EMG-Armband) interpretiert Elektromyographie-Signale und unterstützt die Bedienung per feiner Gesteneingabe; Scrollen und Klicken sind allein durch Fingerbewegungen möglich

Preis, Verfügbarkeit, Ausstattung

  • Der Preis beträgt 799 US-Dollar und umfasst die Brille sowie das Meta Neural Band
  • Verkaufsstart ist am 30. September in großen stationären Geschäften in den USA; danach ist eine Ausweitung auf ausgewählte Verizon-Filialen geplant
  • Der Start in Kanada, Frankreich, Italien und Großbritannien ist für Anfang 2026 vorgesehen; zunächst in ausgewählten Handelskanälen und Regionen, mit einer schrittweisen Erweiterung der Optionen
  • Verfügbar in Black/Sand, mit Rahmen in Standard und Large; alle Modelle nutzen Transitions®-Gläser
  • 6 Stunden gemischte Nutzung, mit dem faltbaren tragbaren Ladecase insgesamt 30 Stunden Laufzeit
  • Das Neural Band ist in drei Größen erhältlich, um die Passform am Handgelenk zu optimieren

Design und Tragekomfort: Style Meets Function

  • In Zusammenarbeit mit EssilorLuxottica wurde die Ray-Ban-Wayfarer-DNA beibehalten und mit einer höheren Silhouette und kantig-quadratischen Form ein markanteres Erscheinungsbild geschaffen
  • Abgerundete Kanten und vordere Krümmung verbessern Komfort, Haltbarkeit und die Reduzierung von Blendung; Titan-Over-Extension-Scharniere sorgen für Tragbarkeit, Stabilität und geringes Gewicht
  • Erstmals kommt eine ultraschlanke Steel-Can-Batterie zum Einsatz, die schmale Bügelarme und verlängerte Akkulaufzeit zugleich ermöglicht; diese Batterietechnologie wird auch auf Oakley Meta HSTN und Ray-Ban Meta (Gen 2) ausgeweitet und unterstützt dort bis zu 8 Stunden Alltagsnutzung
  • Das Gesamtgewicht beträgt 69 g und sorgt für ein leichtes Tragegefühl

Display im Detail: Display Deep Dive

  • Um in einen modischen Brillen-Formfaktor zu passen, wurden Light Engine und geometrischer Waveguide neu entwickelt, sodass hohe Effizienz, Kontrast und Helligkeit in einem kleinen Modul realisiert werden
  • Mit 42 Pixeln pro Grad (ppd) bietet das System eine hochauflösende Informationsdarstellung; abgesehen von einigen nicht kommerziellen großen Headsets gehört diese Dichte zur Spitze des Feldes
  • Photochrome Gläser und ein Auto-Brightness-Algorithmus sorgen drinnen wie draußen für klare Farbsichtbarkeit
  • Das privacy-orientierte Design bietet ein privates In-Lens-Display mit 2 % Lichtleckage; beim Aufnehmen informiert eine Capture-LED die Umgebung über Foto- oder Videoaufzeichnung
  • Das Display ist seitlich platziert, um das Sichtfeld nicht zu verdecken, und auf kurze Interaktionen statt Always-on-Anzeige ausgelegt, um den Nutzungskontext nicht zu unterbrechen

EMG-basierte Interaktion: Meta Neural Band

  • Das auf Forschung zu Oberflächen-Elektromyographie (EMG) basierende Neural Band ermöglicht Scrollen und Klicken über Sensoren am Handgelenk ganz ohne Touch oder Tasten und zielt künftig sogar auf handschriftliche Fingereingabe
  • Es bietet eine hochpräzise Signalerkennung, die sogar feinste Bewegungen vor der sichtbaren Ausführung erfassen kann
  • Mit Deep-Learning-basierten Modellen, trainiert auf freiwillig bereitgestellten Daten von rund 200.000 Personen, wurde breite Nutzbarkeit erreicht und eine starke anfängliche Leistung trotz individueller Muskelunterschiede sichergestellt
  • Roh-EMG-Daten werden On-Device verarbeitet; an die Brille werden nur Ereignisse wie Klicks übertragen, um Befehle auszuführen
  • Die Zuverlässigkeit von Haptik- und Timing-Synchronisation wird per On-Device-ML verarbeitet
  • Mit bis zu 18 Stunden Akkulaufzeit, IPX7-Wasserschutz, elektroden mit diamantähnlicher Kohlenstoffbeschichtung und Vectran-verstärktem Mesh bietet es leichtes, robustes Tragen für den ganzen Tag

Kernerlebnisse: Experiences in Meta Ray-Ban Display

  • Meta AI with Visuals: liefert visuelle Antworten und schrittweise Anleitungen in Verbindung mit dem Kamerablick; der Wechsel zwischen Schritten erfolgt per Neural-Band-Gesten
  • Messaging und Videoanrufe: persönliche Texte und Multimedia-Inhalte aus WhatsApp, Messenger, Instagram und Smartphone-Benachrichtigungen lassen sich auf dem privaten Display einsehen; Live-Videoanrufe über WhatsApp und Messenger unterstützen das Teilen der Brillenperspektive
  • Vorschau und Zoom: Live-Viewfinder und Zoom verbessern die Aufnahmequalität und erleichtern Auswahl und Teilen direkt über das Display
  • Fußgänger-Navigation: Nach der Zielauswahl ohne Smartphone liefert das System Turn-by-Turn-Hinweise und visuelle Karten; Start als Beta in einigen Städten, später schrittweise Ausweitung
  • Live-Untertitel und Übersetzung: Echtzeit-Untertitel für Gesprochenes und Übersetzungen für ausgewählte Sprachen helfen, Sprachbarrieren zu verringern
  • Musikwiedergabe: Musikkarten zeigen den aktuellen Titel an; Daumen-Swipe sowie Pinch plus Handgelenksdrehung ermöglichen Navigation und Lautstärkesteuerung
  • Musikdienste: Zugriff auf Amazon Music, Apple Music(iOS), Music Info, Shazam, Spotify; geplant sind außerdem multimodale KI-Empfehlungen auf Basis des Szenenkontexts
  • Podcasts, Hörbücher und Live-Radio: Die Integration mit Audible, iHeart und weiteren Diensten erweitert das Hörerlebnis
  • Software-Roadmap: eine dedizierte Instagram-Reels-App, EMG-Handschrifteingabe und weitere kommende Updates sind vorgesehen

Produktpositionierung: drei Kategorien von KI-Brillen

  • Camera AI glasses: Meta will die Kategorie kamerazentrierter KI-Brillen wie Ray-Ban und Oakley weiter ausbauen und die KI-Funktionen stärken
  • Display AI glasses: Meta Ray-Ban Display erschließt eine neue Kategorie, die den Wert eines kontextbezogenen Displays in den Mittelpunkt stellt
  • AR glasses: Der Orion-Prototyp zielt auf große holografische Displays, Eingaben mit hoher Bandbreite und räumlich erweiterte Erlebnisse; an einer Consumer-Version wird gearbeitet

Vision: Future Forward

  • Meta Ray-Ban Display ist ein Wearable-Interaktionsgerät als Teil der Vision einer menschenzentrierten Computing-Plattform der nächsten Generation
  • Auf Basis von zehn Jahren Aufbauarbeit bei Reality Labs will Meta weiter in Technologie, Talente und Zeit investieren und betont den Willen zu mutigen Erfindungen und konsequenter Umsetzung
  • Die heutige Vorstellung markiert laut Meta den Beginn des nächsten Kapitels für KI-Brillen und Wearables und setzt den Fokus auf erweiterte Konnektivität und Interaktion, ohne den alltäglichen Arbeitsfluss zu unterbrechen

1 Kommentare

 
GN⁺ 2025-09-19
Hacker-News-Kommentare
  • Es überrascht mich, dass es offenbar so viele negative Meinungen zu Metas Brille gibt. Als tatsächlicher Nutzer habe ich sowohl die klare als auch die Sonnenbrillen-Version gekauft und bin sehr zufrieden. Ich habe viele tolle Videos von unserem Baby aufgenommen, und beim Musikhören kann ich im Gegensatz zu normalen Kopfhörern noch Umgebungsgeräusche wahrnehmen, was sie auch für längere Fahrradtouren praktisch macht. Die AI- oder Smart-Funktionen habe ich noch nicht ausprobiert, möchte das aber künftig tun. Schade sind das proprietäre Ladecase, die mit der Zeit nachlassende Akkulaufzeit und die Empfindlichkeit gegen Schweiß. Trotzdem sehe ich großes Potenzial
    • Knochenleitungs-Kopfhörer bieten ein ähnliches Audioerlebnis, dazu eine bessere Akkulaufzeit und USB-C-Laden. Viele Leute wollen diese Firma wohl auch deshalb nicht unterstützen, weil Meta gesellschaftlich so viel negativen Einfluss hat
    • Was mir Sorgen macht, ist weniger der Nutzen für mich, wenn ich die Brille trage, sondern die Auswirkungen auf mich, wenn andere sie tragen
    • Ich habe diese Brille einem Freund mit sehr schlechter Sehkraft geschenkt. Die Funktion zum Vorlesen von Nachrichten oder E-Mails vom Handy scheint nicht zu funktionieren. Offenbar geht nur der Inhalt von Benachrichtigungen; darüber hinaus kommt ständig ein Fehler, dass keine Zugriffsberechtigung vorliegt. Videoaufnahmen sind außerdem auf 3 Minuten begrenzt (früher waren es 1 Minute). In lauten Umgebungen ist Audio schwer zu verstehen, und viele Funktionen werden fast nutzlos. Die Miniaturisierung der Hardware ist trotzdem beeindruckend. Das Hauptproblem ist die schlampige Software
    • Zu der Aussage, dass es gut sei, beim Musikhören Umgebungsgeräusche wahrzunehmen: Es gibt viele Earbuds wie AirPods mit Transparenzmodus. AirPods können mit ANC sogar nur wichtige Geräusche durchlassen und wirken auch in Innenräumen nicht seltsam. Ich verstehe nicht ganz, was hier das Besondere sein soll. Dass man damit gute Baby-Videos aufnehmen kann, klingt interessant, aber ich frage mich, wie die Videoqualität ist
    • Ich empfinde es ähnlich. Ich nutze sie oft beim Wandern oder Laufen, und es macht Spaß. Ich habe die Version mit selbsttönenden Gläsern, was gut zum Laufen, für Musik draußen oder zum Aufnehmen von Bildern und Videos ist. Der Nachteil ist, dass der Akku im Winter extrem schnell leer wird
  • Man sollte beachten, dass bei Meta Ray-Ban Nutzerdaten gesammelt und für AI-Training verwendet werden. Wenn man nicht in der EU lebt, kann man dem nicht widersprechen. Die frühere Meta View App wurde eines Tages zur Meta AI App umgewandelt und bekam ChatGPT-ähnliche Funktionen hinzugefügt.
    1. „Meta AI with camera use“ ist ständig aktiviert, und wenn man „Hey Meta“ ausschaltet, wird die Brille fast nutzlos
    2. „Sprachtranskripte und Aufzeichnungen werden bis zu 1 Jahr gespeichert und zur Verbesserung von Meta-Produkten verwendet“ Relevanter Link
    • Es überrascht mich, dass Menschen bei einer Technologie, in der Meta so stark involviert ist, immer noch nur über die Technik reden können. Ich frage mich, wie weit es noch gehen muss, bis es den Leuten wichtig wird
    • Ich frage mich, ob hier der CCPA (California Consumer Privacy Act) greift. Wahrscheinlich sammeln sie schon allein über Opt-in mehr als genug Daten
  • Die Brillenfunktionen in der Keynote waren etwa wie erwartet, aber die Szene, in der Zuckerberg das Interface mit kaum merklichen Fingerbewegungen mit 30 WPM steuert, war wirklich schockierend. Wenn dieses Neural Interface tatsächlich so gut funktioniert, hat Meta diese Runde gewonnen
    • Das Armband ist der Schlüssel. Die Brille braucht man vielleicht gar nicht, aber ich frage mich, ob sich das Armband als Computereingabe nutzen ließe
    • Sehr beeindruckend, aber ich glaube nicht, dass ich auf der Straße beim Gehen wirklich nach einer flachen Oberfläche suchen würde, um Nachrichten zu tippen. Ob das praktisch ist, ist fraglich
    • Am Ende ist also das Handgelenk-Accessoire der wichtige Teil. Die klobige Brille wirkt technisch noch ganz am Anfang
    • Wenn sie dieses Neural-Band in ein Fitnessband wie WHOOP verwandeln, wäre ich gesprächsbereit. Für Leute, die ohnehin schon Fitness-Tracker tragen, könnte das eine Chance sein
    • Es gibt nur sehr wenige Unternehmen, die Vision, langfristige Perspektive und massive Kapitalinvestitionen zusammenbringen. NVIDIA und Meta sind dafür typische Beispiele
  • Dass Zuckerberg online Tippen mit 30 WPM gezeigt hat, war ziemlich beeindruckend. Unabhängig von der Markenproblematik ist so ein gestenbasiertes Eingabegerät ein Schritt in Richtung Kommunikationsrevolution. Wenn Apple, Google und 3rd-Party-Anbieter einsteigen, werden die Preise auch sinken. Die derzeit erhältlichen Smart Glasses sind eine Zwischenstufe zwischen AR und VR, und Produkte auf diesem Niveau sind in dieser Preisklasse selten. Allerdings wird der Puck (das Handgelenk-Terminal) wohl nur für bestimmte Nutzer nützlich sein und ein Hindernis für die breite Verbreitung darstellen. Durch technischen Fortschritt wurde der Stromverbrauch des Displays stark gesenkt, daher dürfte künftig auch der Puck kleiner werden. Das Buch „Apple in China“, das ich kürzlich gelesen habe, hat mir erneut vor Augen geführt, wie schwierig Hardware-Umsetzung ist. Dass sie mit EMG- + Wave-guide-Technologie 30 Stunden kabellose Akkulaufzeit realisieren (wobei ich mich frage, ob wirklich nur BLE 6.0 verwendet wird), ist bemerkenswert. Das ist die zweite langfristige Wette, bei der sich die langjährigen Investitionen in AI (PyTorch, verschiedene AI-Modelle) allmählich auszahlen
    • Die Akkulaufzeit beträgt nicht 30 Stunden, sondern 6 Stunden. Mit dem tragbaren Ladecase zusammen kommt man auf 30 Stunden
    • Auch viele weniger bekannte Innovationen bei Software und Daten werden dieses Gerät weiterentwickeln. Zum Beispiel:
      1. Eine globale Lokalisierungskarte könnte die SLAM-Funktion (Simultaneous Localization and Mapping) stärken
      2. Der Puck scheint auf einem separaten OS zu laufen, während die Brille Sensor-Daten offenbar auf Echtzeit-Mikrocontroller-Firmware-Ebene per BLE überträgt. Es gibt noch keinen veröffentlichten Code, aber ich würde mir wünschen, dass das Open Source wird
  • Vermutlich stammt dieses Armband aus der CTRL-Labs-Übernahme. Beeindruckend, wie schnell auch das Waveguide-Gerät Realität wird. Es ist so cool, dass ich selbst dann kurz darüber nachdenken würde, wenn es ein Facebook-Produkt ist
    • CTRL-Labs hat die Armband-Technologie von North (ehemals Thalmic) übernommen, und North hatte nach dem Myo-Armband später den Wechsel zu Smart Glasses vollzogen, bevor es von Google übernommen wurde. Myo wandelte EMG-Signale in Gesten und Bewegungen als Software-Eingaben um. Es ist möglich, dass diese Technologie von North in Konkurrenzprodukten eingesetzt wird
    • Auch Disney entwickelt seit 2012 Prototypen zur Gestenerkennung mit elektrischer Erfassung am Handgelenk YouTube-Link
  • Wenn Meta das nicht gebaut hätte, hätte ich es sofort gekauft. Ich wollte schon lange Smart Glasses haben, und bei diesem Produkt sehe ich erstmals echte Praxistauglichkeit, abgesehen vom Problem der Dicke. Aber Meta und Zuckerberg sind in zu viele unethische Dinge verwickelt, als dass ich das unterstützen könnte. Ich hoffe auf Konkurrenzprodukte, aber Metas Investitionen in HCI (Human-Computer Interaction) dürften echten Wettbewerb erschweren
    • Zur Info: Ich nutze alle Funktionen der Meta Ray-Ban auch ohne Facebook-/Instagram-Konto. Ich hatte ebenfalls ethische Bedenken, aber strukturell ist es derzeit für Startups nicht einfach, ein solches Produkt in großem Maßstab zu bauen (die FTC hat versucht, daran etwas zu ändern, aber das war nicht leicht). Am Ende bleibt realistisch oft nur Big Tech als Option
  • Ich bin froh, dass das Neural Band so bald erscheint. Eine Produktionsversion von Orion (der Full-AR-Brille) dürfte noch Jahre entfernt sein. The Verge bewertete die Bedienung als sehr gut und testete sogar die Alpha-Version der Handschrift-Eingabe. Diese Brille ist kein Full AR, sondern eher eine „annotierte“ Realität mit einem kleinen Display. Sie fällt deutlich weniger auf als frühe Google Glass, und sowohl Ein- als auch Ausgabe sind ziemlich diskret
    • Ich denke, die frühere Ablehnung von Google Glass war letztlich sogar kontraproduktiv. Google Glass war bewusst so gestaltet, dass man klar sieht, wenn jemand sie trägt; heute geht dagegen alles in die Richtung, solche Geräte noch stärker zu verstecken, um Gegenreaktionen zu vermeiden
  • Es heißt, man könne damit „Nachrichten prüfen, Fotos in der Vorschau sehen und mit visuellen Meta-AI-Prompts zusammenarbeiten“, aber ich verstehe nicht, warum ich dafür 800 $ zahlen sollte. Ich gebe bereits viel Geld für ein Smartphone aus und werde jeden Tag davon gestört
    • Ich frage mich ohnehin, was „mit Meta-AI-Prompts zusammenarbeiten“ im normalen Alltag überhaupt konkret bedeuten soll. Vielleicht übersehe ich etwas
    • Ray-Ban-Sonnenbrillen selbst kosten grundsätzlich schon fast 500 $
    • Ich habe gehört, dass auch ein Armband enthalten ist, das die Human-Computer Interaction (HCI) bei Brillen revolutionieren soll Demo-Video zu Markierung und Handschrift
    • Jetzt kann man sogar Kleidung ohne Taschen tragen
  • Die Live-Demo war schockierend Demo-Video
    • Alle VR-/AR-/XR-Demos wirken irgendwie immer unbedeutend und gleichzeitig umständlicher und schwieriger als die Realität. Beim Kochen zum Beispiel:
      • Normalerweise sucht man ein Rezept, stellt das Handy hin und schaut kurz drauf, wenn man es braucht
      • Mit der Meta-Brille müsste man die Brille aufsetzen (ich finde Brillen selbst so unbequem, dass ich mir sogar die Augen lasern ließ), der künstlichen Intelligenz das Problem mündlich erklären und dann Missverständnisse bei den Zutaten korrigieren. Und selbst dann braucht man noch Glück, um die gewünschte Antwort zu bekommen.
      • Bei den Apple-Headset-Demos ist es genauso: ein großes, unbequemes Headset tragen, nur um Fotos anzuschauen oder zu videochatten
    • In der Live-Demo sieht man, dass die Frage „What do I do first“ schon gestellt wird, bevor die AI überhaupt antwortet. Das lässt vermuten, dass dieser Ablauf in der Probe bereits einstudiert wurde. Wenn es an Verbindungsproblemen lag, könnte es ein nicht übersteuerter Ablauf gewesen sein. So oder so wirft das Fragen zur Zuverlässigkeit des AI-Systems auf
    • Ich habe selbst mehrfach Live-Demos mit AI gemacht, und selbst bei identischer Frage fiel die Antwort jedes Mal anders aus. Deshalb setze ich den Demo-Umfang inzwischen viel enger. (Die Parameter konnte ich nicht kontrollieren)
    • Auch diese Demo war ziemlich enttäuschend, aber dass man sich an ein ungeskriptetes Live-Format gewagt hat, ist anerkennenswert Weiteres Video
    • Dafür, dass sie es überhaupt versucht haben, gibt es Applaus. Ich vermisse Live-Demos statt perfekt produzierter Videos mit posierenden Menschen bei Apple-Events
  • „Meta Ray-Ban Display glasses helfen Ihnen, den Kopf zu heben und sich stärker auf die Realität zu konzentrieren. Mit dem Linsen-Display können Sie Nachrichten prüfen, Fotos in der Vorschau ansehen und mit visuellen Meta-AI-Prompts zusammenarbeiten.“
    Ich kann mir gut vorstellen, wie jemand mir gegenübersteht, mit leerem Gesichtsausdruck, während Benachrichtigungen oder TikTok-Videos zwischen seinen Augen schweben. Wenn Meta komplett verschwinden würde, wäre die Welt vermutlich ein besserer Ort
    • Ich finde, wir brauchen einen Reality-Check dazu, wie menschliche Aufmerksamkeit tatsächlich funktioniert. Ich sehe in einem Fahrzeug-HUD (Head-up-Display) Informationen wie Geschwindigkeit und Richtung und erlebe dabei oft, dass ich zwar darauf schaue, die eigentliche Sicht nach vorn aber kaum noch wahrnehme. Das wird vielleicht ignoriert, aber ich sorge mich, dass irgendwann Statistiken zeigen werden, dass HUDs Unfälle eher erhöhen
    • Wenn jemand während eines Gesprächs Benachrichtigungen direkt vor den Augen eingeblendet bekommt, dann nur, weil ihm dieses Gespräch in dem Moment nicht wichtig genug ist. Das ist ähnlich wie auf eine Smartwatch zu schauen. Früher war es das Handy, noch früher die Zeitung; im Kern ist es nicht anders. Ich glaube nicht, dass diese Technologie ein neues gesellschaftliches Problem schafft
    • Ich finde es erstaunlich, dass man über dieses Produkt ernsthaft sagen kann, es „verbinde Menschen stärker mit der Welt“. In Wirklichkeit hält diese Technologie Nutzer eher länger im virtuellen Raum fest, und trotzdem gibt Zuckerberg den Traum vom Metaverse nicht auf
    • Der Aussage „Die Welt wäre besser, wenn Konzerne wie Meta verschwinden würden“ stimme ich zu 100 % zu
    • Es wurde gesagt, jemand bekomme im Gespräch Benachrichtigungen oder Videos vor die Augen eingeblendet, aber der treffendere Begriff wäre eigentlich Werbung