4 Punkte von GN⁺ 2026-02-23 | 1 Kommentare | Auf WhatsApp teilen
  • Führende AI-Unternehmen wechseln zu werbefinanzierten Geschäftsmodellen und entwickeln hardwarezentrierte AI-Assistenten, die sämtliche visuellen und akustischen Informationen in der Umgebung der Nutzer erfassen
  • Diese Always-on-AI ist so konzipiert, dass sie auch ohne Sprachaktivierungswort alltägliche Gespräche der Nutzer erkennt, über längere Zeit Kontext ansammelt und proaktiv hilft
  • Wenn diese Daten jedoch an die Server von Werbeunternehmen übertragen werden, entsteht jederzeit ein Risiko, sobald sich Datenschutzrichtlinien ändern
  • Demgegenüber kann bei einer Architektur mit lokaler On-Device-Inferenz (Edge Inference) Sicherheit auf Architekturebene statt nur über Richtlinien gewährleistet werden, da die Daten physisch nicht nach außen gelangen
  • Weil die nützlichste AI zugleich die privateste Technologie sein wird, ist ein Wechsel zu lokaler AI, die keine Daten nach außen sendet, unverzichtbar

Die AI-Assistentenbranche wird werbebasiert

  • OpenAI hat bei ChatGPT Werbung eingeführt, was als struktureller Wandel der gesamten Branche dargestellt wird
    • OpenAI übernahm 2025 Jony Ives Hardware-Startup io für 6,5 Milliarden Dollar und entwickelt derzeit ein kleines AI-Gerät ohne Bildschirm
  • Alle großen Unternehmen für AI-Assistenten arbeiten mit Werbeeinnahmen und bauen Hardware, die die Umgebung permanent beobachtet
  • Wenn diese beiden Faktoren aufeinandertreffen, wird lokale On-Device-Inferenz (Local Inference) als einzige Lösung genannt, um Datenmissbrauch zu verhindern

Die Unvermeidlichkeit von Always-on-AI

  • Bisherige Sprachassistenten funktionierten nur nach einem Aktivierungswort (Wake Word) wie „Hey Siri“ oder „OK Google“
  • In echten Alltagssituationen bleibt jedoch oft keine Zeit für ein Aktivierungswort, daher wird AI mit natürlichem Kontextverständnis benötigt
  • Assistenten der nächsten Generation nehmen ihre Umgebung kontinuierlich über verschiedene Sensoren wie Audio, Vision, Präsenzerkennung und Wearables wahr
  • Die Frage ist daher nicht, ob „Always-on“-AI entsteht, sondern wer diese Daten kontrolliert
  • Derzeit liegt diese Kontrolle bei Werbeunternehmen

Richtlinien sind Versprechen, Architektur ist Garantie

  • Unternehmen werben mit „Datenverschlüsselung“, „Anonymisierung“ und „nicht für Werbung relevant“, doch bei einer Cloud-Verarbeitungsarchitektur ist vollständiges Vertrauen unmöglich
    • Nutzer müssen der aktuellen und künftigen Unternehmenspolitik, internen Mitarbeitern, externen Anbietern, staatlichen Anfragen und sogar nicht offengelegten Werbepartnern vertrauen
  • OpenAI erklärt ausdrücklich, dass es „keine Daten an Werbekunden verkauft“, doch Google nutzte Gmail 13 Jahre lang für Werbetargeting
  • Richtlinien können sich ändern, Architektur nicht
  • Bei lokaler Verarbeitung können Daten physisch nicht nach außen gelangen
    • API-Aufrufe, Remote-Telemetrie und die Übertragung anonymisierter Nutzungsdaten sind nicht möglich
  • Audio- und Videostreams im Zuhause sind weit sensibler als E-Mails und umfassen das gesamte Privatleben einer Person
  • Beispiele von Amazon wie die Abschaffung lokaler Sprachverarbeitung, Pläne zur Werbeverknüpfung und der Zugang von Strafverfolgungsbehörden zu Ring zeigen die Risiken zentralisierter Strukturen

Die Reife von Edge-Inference-Technologien

  • Früher hieß es oft, „lokale Modelle seien zu leistungsschwach“, doch inzwischen ist ein ausreichend hohes Niveau erreicht
  • Echtzeit-Spracherkennung, semantisches Gedächtnis, Dialog-Inferenz und Sprachsynthese machen es möglich, eine vollständige AI-Pipeline auf Geräten im Zuhause auszuführen
    • Ohne Lüftergeräusche, mit einmaligem Hardwarekauf und ohne externe Datenübertragung
  • Möglich wurde dies durch Fortschritte bei Modellkompression, Open-Source-Inference-Engines und effizientem Silizium, wobei sich die Energieeffizienz pro Leistung jedes Jahr verbessert
  • Selbst in real getesteten Haushalten liegt das Problem im schwierigen Kontextverständnis, nicht in Modellgröße oder unzureichender Leistung
  • Deshalb wird ein Geschäftsmodell mit Fokus auf Hardware- und Softwareverkauf benötigt,
    • bei dem Hersteller eine Struktur entwerfen, in der physisch kein Datenzugriff möglich ist

Warum lokale AI notwendig ist – und das Fazit

  • Die nützlichste AI wird zugleich die Technologie sein, die mit den privatesten Informationen umgeht
  • Der einzige Weg, sie sicher zu halten, ist eine strukturelle Architektur, in der Daten nicht nach außen übertragen werden können
  • Schutz lässt sich nicht durch Richtlinien, Versprechen oder geänderte Einstellungen erreichen; nötig ist eine Blockade auf Architekturebene
  • Mit dem Slogan „Choose local. Choose edge.“ wird dazu aufgerufen, AI zu entwickeln, die keine Daten nach außen sendet

1 Kommentare

 
GN⁺ 2026-02-23
Hacker-News-Kommentare
  • Ich finde die Werbebotschaft schon deshalb absurd, weil das Produkt, das dieses Unternehmen anpreist, ein immer eingeschaltetes, immer zuhörendes KI-Gerät ist.
    Selbst wenn es nur auf lokaler Hardware läuft, muss nicht jeder Moment unseres Lebens aufgezeichnet und analysiert werden.
    Ich frage mich, ob es wirklich in Ordnung ist, wenn private Familiengespräche oder Momente von Minderjährigen gespeichert werden.
    Ich mache mir Sorgen, ob die Zustimmung von Gästen eingeholt wurde und ob sich Datenschutzgarantien bei Diebstahl, staatlichen Durchsuchungsbeschlüssen oder einer Übernahme überhaupt aufrechterhalten lassen.

    • Das Grundproblem ist rechtlich gesehen, dass Informationen zugänglich sind, solange sie existieren.
      Wenn ein Gericht es anordnet, müssen die Informationen in irgendeiner Form herausgegeben werden.
      Um echte Privatsphäre zu wahren, dürften die Informationen gar nicht erst existieren.
      Ich wünschte, die Gesetzgebung würde sich in eine Richtung entwickeln, in der Informationen im Gehirn einer Person ähnlich rechtlich geschützt werden, aber tatsächlich bewegen wir uns in die entgegengesetzte Richtung.
    • Ich würde so ein Gerät positiv sehen, wenn es wie eine menschliche Gedächtnisstütze funktionieren könnte.
      Aber wenn Informationen ohne meine Erlaubnis nach außen gelangen, sich physisch leicht extrahieren lassen oder jemand unter meinem Namen darauf zugreifen kann, kommt das absolut nicht infrage.
      Wenn diese Bedingungen erfüllt wären, würde es meiner Meinung nach auch nicht die Privatsphäre anderer verletzen.
    • Das Marketing dieses Produkts wirkt seltsam.
      Die Zielgruppe sind Menschen, denen Privatsphäre wichtig ist, aber genau sie würden solche Probleme als Erste ansprechen.
      Letztlich werden Menschen, denen Privatsphäre egal ist, einfach etwas wie Google nutzen.
    • In der Praxis speichern solche Geräte wahrscheinlich nicht alle Gespräche, sondern verarbeiten sie per ASR (Automatic Speech Recognition) und führen nur die nötigen Befehle aus.
      Ich wollte auch einmal ein ausschließlich lokal laufendes KI-Gerät bauen, habe es aber aus Bequemlichkeit aufgeschoben.
      Trotzdem denke ich, dass solche Geräte für neurodiverse Menschen so nützlich sein könnten, dass sie ihr Leben verändern.
    • Tatsächlich steht in der Produktbeschreibung nirgends ausdrücklich, dass Gespräche gespeichert werden.
      Es scheint eher eine Struktur zu sein, die in Echtzeit verarbeitet und nur Handlungen ausführt, die dem Nutzer beim Erreichen seiner Ziele helfen.
  • Ich stimme zu, dass große KI-Unternehmen werbeerlösgetrieben agieren.
    Bei KI, die dauerhaft im Zuhause präsent ist, lassen sich Datenschutzprobleme kaum vermeiden.
    Wie in Black Mirror: The Entire History of You oder Ted Chiangs The Truth of Fact, the Truth of Feeling wird am Ende wohl auch der private Raum von Überwachung ausgefüllt sein.
    In diesem Verlauf werden Menschen, die sich der Technik verweigern, wohl zunehmend an den gesellschaftlichen Rand gedrängt.

  • Ich stimme der Aussage nicht zu, dass „eine immer eingeschaltete Zukunft unvermeidlich ist“.
    Man kann Open Source nutzen, für Dienste bezahlen, die keine Daten ausbeuten, und ethische Startups unterstützen.
    Ich denke, wir brauchen Mobile Linux als Alternative zu Android.
    Einzelpersonen und nicht Unternehmen sollten Geräte und Software vollständig kontrollieren.
    Lasst euch nicht von der Bequemlichkeit kostenloser Dienste täuschen, sondern stimmt mit eurem Geld ab.

    • Selbst wenn vollständige Kontrolle wie bei einem gerooteten Android möglich ist, ist das für normale Nutzer unpraktisch, weil essenzielle Apps wie Banking-Apps nicht funktionieren.
    • Mobile Linux existiert bereits, aber es gibt nur wenige unterstützte Geräte und die Leistung ist schwach.
      Am Ende entscheiden sich die Leute doch für den Status quo.
  • „Kontextbewusstsein“ ist letztlich nur eine andere Bezeichnung für Überwachung.
    Die Menschen werden es zunehmend als selbstverständlich hinnehmen, einen kleinen Big Brother in der Tasche zu tragen.

    • Tatsächlich reden bereits alle über Überwachung.
      Die meisten haben sich aber einfach damit abgefunden und geben sich mit kleinen individuellen Lösungen zufrieden.
      Ich habe selbst an Datenschutzgesetzgebung mitgewirkt, aber wegen des mangelnden öffentlichen Interesses ist nichts passiert.
    • Marketingfirmen haben bereits Zugriff auf riesige Mengen an Nutzerdaten.
      Überwachung ist auch ohne LLM-Automatisierung längst Realität.
  • Auch wenn es lokal läuft, ist ein immer zuhörender Assistent immer noch ein Eingriff in die Privatsphäre.
    Wenn Freunde zu Besuch sind, würden sie es unangenehm finden, dass ihre Gespräche aufgezeichnet werden könnten.
    Ohne perfekte Sprechertrennung (speaker diarization) kann man einem solchen System niemals wirklich vertrauen.

    • Laut dem Technikblog von Juno Labs experimentiert das Unternehmen derzeit mit einer familienbasierten Speicherstruktur.
      Alle Familienmitglieder teilen sich denselben Speicherpool, und das ist weiterhin ein ungelöstes Datenschutzproblem.
      Künftig will man über sprecheridentifikationsbasierte STT-Modelle versuchen, Erinnerungen einzelnen Personen zuzuordnen.
    • Vielleicht wäre ein Ansatz möglich, bei dem die Daten in verschlüsselter Form verarbeitet werden, sodass Menschen sie nicht lesen können.
  • Das Produkt soll zwar Ende des Jahres erscheinen, aber es gibt nicht einmal Fotos eines physischen Geräts.
    Auch das Website-Design wirkt schlampig und die Finanzierung scheint schwach.
    Ich sorge mich am Ende eher darum, dass so ein Gerät von Hackern als Datenschutz-Anti-Werbung missbraucht wird.

    • Die erste Version soll offenbar mit 3D-Druck und Kleinserien-PCB-Fertigung als Prototyp gebaut werden.
      Im Prototyping-Prozess wurden reale Fotos veröffentlicht.
    • Wenn außerhalb Chinas produziert wird und das Design noch abgeschlossen wird, ist es gut möglich, dass der erste Release verspätet kommt oder nur eine Alpha-Version ist.
    • Am Ende wird es wohl vaporslop (ein Produkt aus Dampf und bloßem Gefühl).
  • Gefährlicher als offen eingebaute Werbung ist die implizite Empfehlungsverzerrung innerhalb des Modells.
    Selbst wenn man ChatGPT, Claude und Perplexity dieselbe Frage stellt, liegt die Übereinstimmung bei den Top-5-Empfehlungen nur bei etwa 40 %.
    Es gibt auch kaum eine Korrelation mit dem Google-Suchranking.
    Welche Produkte einem letztlich empfohlen werden, hängt also von den intransparenten internen Entscheidungen des Modells ab.

    • Darauf kam die Reaktion, dass „jedes LLM andere Empfehlungen gibt“ am Ende nicht dasselbe sei wie „Menschen haben unterschiedliche Meinungen“.
  • Ich verstehe den Reiz eines immer eingeschalteten KI-Assistenten nicht.
    Abgesehen von der Privatsphäre habe ich das Gefühl, dass ein solches Gerät meine Selbstbestimmung im Leben schwächen würde.
    Ein On-Demand-Helfer, der nur dann aktiv wird, wenn er gebraucht wird, wäre gut, aber zu viel Automatisierung könnte menschliches Denken eher verkümmern lassen.

    • Am Ende wollen die Leute also, wie der Witz sagt, ein Leben wie in Downton Abbey ohne menschliche Diener.
    • Wie in WALL·E neigen Menschen letztlich immer zur Bequemlichkeit.
    • Ich denke, die Einsamkeit in westlichen Gesellschaften erzeugt die emotionale Nachfrage nach solchen Produkten.
      Das könnte zu einem Meer von Überwachungsdrohnen führen, die als „KI-Freund“ verpackt sind.
    • KI ist eine erstaunliche Technologie, aber derzeit gibt es viele Fälle von „Lasst uns überall KI einbauen“ als Lösung ohne Problem.
    • Letztlich verstärkt die Logik von Wettbewerb und Besitz diese Entwicklung.
      Statt gemeinsam voranzukommen, ist es ein Hamsterrad-Wettlauf, bei dem jeder versucht, seinen eigenen Käse zu ergattern.
  • Das satirische Szenario einer KI-Interaktion, bei dem man fragt, ob es Eier gibt, und daraufhin der Nachbar mit Eiern auftaucht, fand ich interessant.
    Beeindruckend ist die Szene, in der eine auf Gesprächsdaten trainierte KI menschliche Aussagen immer stärker vervollständigt und schließlich in einen stummen Erzählmodus übergeht.

    • Jemand reagierte darauf, man solle daraus eine Kurzgeschichte schreiben.
    • Danach folgte auch der Witz, dass „Apple diese Mikroausdrucksdaten für 2 Milliarden Dollar gekauft hat“.
    • Die Formulierung „abgelaufener Wodka“ wirkt fast wie ein Symbol für Enshittification.
  • Schade, dass der Artikel Anthropic nicht erwähnt hat.
    Das Unternehmen baut derzeit die stärksten programmierorientierten Agenten und war der Kern des OpenClaw-Assistenten.

    • Mistral entwickelt ebenfalls aktiv KI-Assistenten, auch wenn die bisherigen Ergebnisse noch begrenzt sind.
    • Wir hatten den Fokus auf hardwarebasierte KI-Assistenten gelegt.
      Immer zuhörende Smart Speaker bergen ein deutlich größeres Datenschutzrisiko als OpenClaw, das bewusst eingesetzt wird.