- Führende AI-Unternehmen wechseln zu werbefinanzierten Geschäftsmodellen und entwickeln hardwarezentrierte AI-Assistenten, die sämtliche visuellen und akustischen Informationen in der Umgebung der Nutzer erfassen
- Diese Always-on-AI ist so konzipiert, dass sie auch ohne Sprachaktivierungswort alltägliche Gespräche der Nutzer erkennt, über längere Zeit Kontext ansammelt und proaktiv hilft
- Wenn diese Daten jedoch an die Server von Werbeunternehmen übertragen werden, entsteht jederzeit ein Risiko, sobald sich Datenschutzrichtlinien ändern
- Demgegenüber kann bei einer Architektur mit lokaler On-Device-Inferenz (Edge Inference) Sicherheit auf Architekturebene statt nur über Richtlinien gewährleistet werden, da die Daten physisch nicht nach außen gelangen
- Weil die nützlichste AI zugleich die privateste Technologie sein wird, ist ein Wechsel zu lokaler AI, die keine Daten nach außen sendet, unverzichtbar
Die AI-Assistentenbranche wird werbebasiert
- OpenAI hat bei ChatGPT Werbung eingeführt, was als struktureller Wandel der gesamten Branche dargestellt wird
- OpenAI übernahm 2025 Jony Ives Hardware-Startup io für 6,5 Milliarden Dollar und entwickelt derzeit ein kleines AI-Gerät ohne Bildschirm
- Alle großen Unternehmen für AI-Assistenten arbeiten mit Werbeeinnahmen und bauen Hardware, die die Umgebung permanent beobachtet
- Wenn diese beiden Faktoren aufeinandertreffen, wird lokale On-Device-Inferenz (Local Inference) als einzige Lösung genannt, um Datenmissbrauch zu verhindern
Die Unvermeidlichkeit von Always-on-AI
- Bisherige Sprachassistenten funktionierten nur nach einem Aktivierungswort (Wake Word) wie „Hey Siri“ oder „OK Google“
- In echten Alltagssituationen bleibt jedoch oft keine Zeit für ein Aktivierungswort, daher wird AI mit natürlichem Kontextverständnis benötigt
- Assistenten der nächsten Generation nehmen ihre Umgebung kontinuierlich über verschiedene Sensoren wie Audio, Vision, Präsenzerkennung und Wearables wahr
- Die Frage ist daher nicht, ob „Always-on“-AI entsteht, sondern wer diese Daten kontrolliert
- Derzeit liegt diese Kontrolle bei Werbeunternehmen
Richtlinien sind Versprechen, Architektur ist Garantie
- Unternehmen werben mit „Datenverschlüsselung“, „Anonymisierung“ und „nicht für Werbung relevant“, doch bei einer Cloud-Verarbeitungsarchitektur ist vollständiges Vertrauen unmöglich
- Nutzer müssen der aktuellen und künftigen Unternehmenspolitik, internen Mitarbeitern, externen Anbietern, staatlichen Anfragen und sogar nicht offengelegten Werbepartnern vertrauen
- OpenAI erklärt ausdrücklich, dass es „keine Daten an Werbekunden verkauft“, doch Google nutzte Gmail 13 Jahre lang für Werbetargeting
- Richtlinien können sich ändern, Architektur nicht
- Bei lokaler Verarbeitung können Daten physisch nicht nach außen gelangen
- API-Aufrufe, Remote-Telemetrie und die Übertragung anonymisierter Nutzungsdaten sind nicht möglich
- Audio- und Videostreams im Zuhause sind weit sensibler als E-Mails und umfassen das gesamte Privatleben einer Person
- Beispiele von Amazon wie die Abschaffung lokaler Sprachverarbeitung, Pläne zur Werbeverknüpfung und der Zugang von Strafverfolgungsbehörden zu Ring zeigen die Risiken zentralisierter Strukturen
Die Reife von Edge-Inference-Technologien
- Früher hieß es oft, „lokale Modelle seien zu leistungsschwach“, doch inzwischen ist ein ausreichend hohes Niveau erreicht
- Echtzeit-Spracherkennung, semantisches Gedächtnis, Dialog-Inferenz und Sprachsynthese machen es möglich, eine vollständige AI-Pipeline auf Geräten im Zuhause auszuführen
- Ohne Lüftergeräusche, mit einmaligem Hardwarekauf und ohne externe Datenübertragung
- Möglich wurde dies durch Fortschritte bei Modellkompression, Open-Source-Inference-Engines und effizientem Silizium, wobei sich die Energieeffizienz pro Leistung jedes Jahr verbessert
- Selbst in real getesteten Haushalten liegt das Problem im schwierigen Kontextverständnis, nicht in Modellgröße oder unzureichender Leistung
- Deshalb wird ein Geschäftsmodell mit Fokus auf Hardware- und Softwareverkauf benötigt,
- bei dem Hersteller eine Struktur entwerfen, in der physisch kein Datenzugriff möglich ist
Warum lokale AI notwendig ist – und das Fazit
- Die nützlichste AI wird zugleich die Technologie sein, die mit den privatesten Informationen umgeht
- Der einzige Weg, sie sicher zu halten, ist eine strukturelle Architektur, in der Daten nicht nach außen übertragen werden können
- Schutz lässt sich nicht durch Richtlinien, Versprechen oder geänderte Einstellungen erreichen; nötig ist eine Blockade auf Architekturebene
- Mit dem Slogan „Choose local. Choose edge.“ wird dazu aufgerufen, AI zu entwickeln, die keine Daten nach außen sendet
1 Kommentare
Hacker-News-Kommentare
Ich finde die Werbebotschaft schon deshalb absurd, weil das Produkt, das dieses Unternehmen anpreist, ein immer eingeschaltetes, immer zuhörendes KI-Gerät ist.
Selbst wenn es nur auf lokaler Hardware läuft, muss nicht jeder Moment unseres Lebens aufgezeichnet und analysiert werden.
Ich frage mich, ob es wirklich in Ordnung ist, wenn private Familiengespräche oder Momente von Minderjährigen gespeichert werden.
Ich mache mir Sorgen, ob die Zustimmung von Gästen eingeholt wurde und ob sich Datenschutzgarantien bei Diebstahl, staatlichen Durchsuchungsbeschlüssen oder einer Übernahme überhaupt aufrechterhalten lassen.
Wenn ein Gericht es anordnet, müssen die Informationen in irgendeiner Form herausgegeben werden.
Um echte Privatsphäre zu wahren, dürften die Informationen gar nicht erst existieren.
Ich wünschte, die Gesetzgebung würde sich in eine Richtung entwickeln, in der Informationen im Gehirn einer Person ähnlich rechtlich geschützt werden, aber tatsächlich bewegen wir uns in die entgegengesetzte Richtung.
Aber wenn Informationen ohne meine Erlaubnis nach außen gelangen, sich physisch leicht extrahieren lassen oder jemand unter meinem Namen darauf zugreifen kann, kommt das absolut nicht infrage.
Wenn diese Bedingungen erfüllt wären, würde es meiner Meinung nach auch nicht die Privatsphäre anderer verletzen.
Die Zielgruppe sind Menschen, denen Privatsphäre wichtig ist, aber genau sie würden solche Probleme als Erste ansprechen.
Letztlich werden Menschen, denen Privatsphäre egal ist, einfach etwas wie Google nutzen.
Ich wollte auch einmal ein ausschließlich lokal laufendes KI-Gerät bauen, habe es aber aus Bequemlichkeit aufgeschoben.
Trotzdem denke ich, dass solche Geräte für neurodiverse Menschen so nützlich sein könnten, dass sie ihr Leben verändern.
Es scheint eher eine Struktur zu sein, die in Echtzeit verarbeitet und nur Handlungen ausführt, die dem Nutzer beim Erreichen seiner Ziele helfen.
Ich stimme zu, dass große KI-Unternehmen werbeerlösgetrieben agieren.
Bei KI, die dauerhaft im Zuhause präsent ist, lassen sich Datenschutzprobleme kaum vermeiden.
Wie in Black Mirror: The Entire History of You oder Ted Chiangs The Truth of Fact, the Truth of Feeling wird am Ende wohl auch der private Raum von Überwachung ausgefüllt sein.
In diesem Verlauf werden Menschen, die sich der Technik verweigern, wohl zunehmend an den gesellschaftlichen Rand gedrängt.
Ich stimme der Aussage nicht zu, dass „eine immer eingeschaltete Zukunft unvermeidlich ist“.
Man kann Open Source nutzen, für Dienste bezahlen, die keine Daten ausbeuten, und ethische Startups unterstützen.
Ich denke, wir brauchen Mobile Linux als Alternative zu Android.
Einzelpersonen und nicht Unternehmen sollten Geräte und Software vollständig kontrollieren.
Lasst euch nicht von der Bequemlichkeit kostenloser Dienste täuschen, sondern stimmt mit eurem Geld ab.
Am Ende entscheiden sich die Leute doch für den Status quo.
„Kontextbewusstsein“ ist letztlich nur eine andere Bezeichnung für Überwachung.
Die Menschen werden es zunehmend als selbstverständlich hinnehmen, einen kleinen Big Brother in der Tasche zu tragen.
Die meisten haben sich aber einfach damit abgefunden und geben sich mit kleinen individuellen Lösungen zufrieden.
Ich habe selbst an Datenschutzgesetzgebung mitgewirkt, aber wegen des mangelnden öffentlichen Interesses ist nichts passiert.
Überwachung ist auch ohne LLM-Automatisierung längst Realität.
Auch wenn es lokal läuft, ist ein immer zuhörender Assistent immer noch ein Eingriff in die Privatsphäre.
Wenn Freunde zu Besuch sind, würden sie es unangenehm finden, dass ihre Gespräche aufgezeichnet werden könnten.
Ohne perfekte Sprechertrennung (speaker diarization) kann man einem solchen System niemals wirklich vertrauen.
Alle Familienmitglieder teilen sich denselben Speicherpool, und das ist weiterhin ein ungelöstes Datenschutzproblem.
Künftig will man über sprecheridentifikationsbasierte STT-Modelle versuchen, Erinnerungen einzelnen Personen zuzuordnen.
Das Produkt soll zwar Ende des Jahres erscheinen, aber es gibt nicht einmal Fotos eines physischen Geräts.
Auch das Website-Design wirkt schlampig und die Finanzierung scheint schwach.
Ich sorge mich am Ende eher darum, dass so ein Gerät von Hackern als Datenschutz-Anti-Werbung missbraucht wird.
Im Prototyping-Prozess wurden reale Fotos veröffentlicht.
Gefährlicher als offen eingebaute Werbung ist die implizite Empfehlungsverzerrung innerhalb des Modells.
Selbst wenn man ChatGPT, Claude und Perplexity dieselbe Frage stellt, liegt die Übereinstimmung bei den Top-5-Empfehlungen nur bei etwa 40 %.
Es gibt auch kaum eine Korrelation mit dem Google-Suchranking.
Welche Produkte einem letztlich empfohlen werden, hängt also von den intransparenten internen Entscheidungen des Modells ab.
Ich verstehe den Reiz eines immer eingeschalteten KI-Assistenten nicht.
Abgesehen von der Privatsphäre habe ich das Gefühl, dass ein solches Gerät meine Selbstbestimmung im Leben schwächen würde.
Ein On-Demand-Helfer, der nur dann aktiv wird, wenn er gebraucht wird, wäre gut, aber zu viel Automatisierung könnte menschliches Denken eher verkümmern lassen.
Das könnte zu einem Meer von Überwachungsdrohnen führen, die als „KI-Freund“ verpackt sind.
Statt gemeinsam voranzukommen, ist es ein Hamsterrad-Wettlauf, bei dem jeder versucht, seinen eigenen Käse zu ergattern.
Das satirische Szenario einer KI-Interaktion, bei dem man fragt, ob es Eier gibt, und daraufhin der Nachbar mit Eiern auftaucht, fand ich interessant.
Beeindruckend ist die Szene, in der eine auf Gesprächsdaten trainierte KI menschliche Aussagen immer stärker vervollständigt und schließlich in einen stummen Erzählmodus übergeht.
Schade, dass der Artikel Anthropic nicht erwähnt hat.
Das Unternehmen baut derzeit die stärksten programmierorientierten Agenten und war der Kern des OpenClaw-Assistenten.
Immer zuhörende Smart Speaker bergen ein deutlich größeres Datenschutzrisiko als OpenClaw, das bewusst eingesetzt wird.