1 Punkte von GN⁺ 2025-09-07 | 1 Kommentare | Auf WhatsApp teilen
  • KI-Chatbots verursachen dieselben, aber noch gravierenderen Eingriffe in die Privatsphäre wie bisheriges Online-Tracking
  • Chatbots sammeln mehr personenbezogene Daten als Suchanfragen und erfassen sogar konkrete Denkprozesse und Kommunikationsstile von Menschen
  • Diese Informationen bergen ein hohes Risiko, häufiger und raffinierter für Manipulation wie Werbung oder ideologische Beeinflussung genutzt zu werden
  • Früher gab es KI-Dienste mit stärkerem Privatsphärenschutz, doch zuletzt nehmen Privacy-Leaks und Datenmissbrauch bei vielen Unternehmen zu
  • Wegen fehlender gesetzlicher Regulierung wiederholen sich diese Probleme immer wieder; daher ist eine Gesetzgebung zum Verbot von KI-Überwachung dringend nötig

KI-Chatbots und die Schwere von Eingriffen in die Privatsphäre

  • Alle Probleme mit Eingriffen in die Privatsphäre, die es bereits beim bisherigen Online-Tracking gab, treten auch bei KI auf — in noch schwerwiegenderer Form
  • Chatbot-Gespräche sind länger und konkreter als einfache Suchanfragen, weshalb deutlich mehr persönliche Informationen offengelegt werden
  • Menschen neigen dazu, Chatbots ihre Sorgen, Gefühle und Denkweisen leichter anzuvertrauen
  • Anders als Suchverläufe erstellen Chatbots umfassende persönliche Profile, einschließlich Persönlichkeit, Kommunikationsweise usw.

Nutzung von KI-Informationen und Risiken der Manipulation

  • Diese immer umfangreicheren personenbezogenen Daten können noch wirksamer für kommerzielle und ideologische Manipulation missbraucht werden
  • Über Chatbots lassen sich verhaltenssteuernde Anzeigen ausspielen oder durch manipulierte System-Prompts und Suchmaschinenoptimierung (SEO) Menschen zu bestimmten politischen Positionen oder Produkten lenken
  • Es gibt bereits Forschungsergebnisse, wonach Chatbots überzeugender als Menschen sein können; zudem wurden tatsächlich Fälle berichtet, in denen Menschen in wahnhaftes Denken abrutschten
  • Die Memory-Funktion von Chatbots lernt aus früheren Gesprächsdaten und ermöglicht personalisierte Überzeugungsarbeit mit großem Einfluss
  • Statt bisheriger aufdringlicher Werbung entsteht ein Umfeld, in dem personalisierte Überzeugungsbotschaften oder subtile Produktempfehlungen ganz natürlich vermittelt werden

KI-Dienste mit Privatsphärenschutz und Lage der Branche

  • Die Datenschutzdebatte um die Google-Suche der vergangenen 20 Jahre gilt auch für KI-Chat, doch die Auswirkungen von KI sind größer
  • DuckDuckGo und andere bieten datenschutzorientierte KI-Chat-Dienste (Duck.ai) sowie anonyme KI-Antworten an
  • Solche Schutzmaßnahmen sind jedoch eher die Ausnahme; branchenweit nehmen Privacy-Vorfälle zu
  • Zuletzt wurde immer wieder über Fälle wie den massiven Leak von Chatbot-Gesprächen bei Grok, Sicherheitslücken bei Perplexity und die allumfassende Vision zur Nutzerverfolgung von Open AI berichtet
  • Bei Anthropic war das Speichern von Chat-Gesprächen früher deaktiviert, inzwischen wurde die Nutzung von Chat-Gesprächen als Standard eingeführt, sodass Nutzerdaten für das Training verwendet werden können

Rechtliche Reaktion und künftige Aufgaben

  • Es braucht schnelle Gesetzgebung, damit datenschutzorientierte Chats nicht die Ausnahme, sondern gängige Standardpraxis werden
  • In den USA gibt es bislang nicht einmal ein allgemeines Gesetz zur Online-Privatsphäre, und auch als verfassungsmäßiges Grundrecht ist sie nur unzureichend abgesichert
  • Zuletzt scheint sich ein Fenster für bundesweite KI-Gesetzgebung zu öffnen, zugleich gibt es aber auch Diskussionen darüber, KI-Gesetzgebung auf Ebene der Bundesstaaten zu verbieten
  • Es besteht die Sorge, dass sich mit weiterer Verzögerung schlechte Praktiken verfestigen
  • Um zu verhindern, dass sich Probleme wie beim früheren Online-Tracking als KI-Tracking wiederholen, wird ein Verbot von KI-Überwachung als dringende Aufgabe genannt

Fazit

  • DuckDuckGo und andere bieten weiterhin Dienste mit Privatsphärenschutz sowie optionale KI-Funktionen an
  • Nutzer können auf Online-Tools hoffen, die sowohl Produktivitätsgewinne als auch Schutz der Privatsphäre ermöglichen

1 Kommentare

 
GN⁺ 2025-09-07
Hacker-News-Kommentare
  • Der Auslöser dafür, dass ich Facebook nicht mehr benutze, war die Erfahrung, dass ich unter ein Video eines etwa 7-jährigen australischen Mädchens, das eine Spinne größer als ihr Gesicht in der Hand hielt, einen Meme-Kommentar wie „Lass die Spinne frei und zünde dann das Haus an“ schrieb und mein Konto sofort bestraft wurde. Damals war ich in meiner Firma der Entwickler für die Facebook-App-Integration und legte Einspruch ein, aber ich weiß nicht, ob die Ablehnung blitzschnell von einer KI kam oder von einem wirklich schnellen Menschen; jedenfalls hatte ich den Eindruck, dass die Internet-Meme-Kultur überhaupt nicht verstanden wurde. Danach habe ich Facebook komplett aufgegeben. Wenn KI Menschen so leicht bestrafen kann, finde ich das wirklich düster.
    • Das grundlegende Problem ist aus meiner Sicht weniger, dass KI Recht durchsetzt, sondern dass private Unternehmen fast ohne Regulierung die Macht haben, den Alltag der Menschen zu beeinflussen. Das Facebook-Beispiel kann man noch abtun, aber wenn Vermieter oder Versicherungen auf diese Weise Entscheidungen treffen, wäre der Schaden enorm. Solche Praktiken werden nicht auf private Firmen beschränkt bleiben; staatliche Stellen setzen solche Systeme bereits aktiv ein, und es wird noch schlimmer werden.
    • Ich wurde auf reddit gesperrt, obwohl ich nur ein Skript zur Fehlerbehebung für DFhack gepostet hatte. DFhack ist ein Programm, für das Dwarf-Fortress-Modder häufig Skripte verwenden. Wenn solche minderwertigen KI-Prüfungen künftig der Standard sind, bin ich sicher, dass solche großen Plattformen keinen Wert mehr haben.
    • KI übernimmt bereits das Vorscreening von Coding-Tests, und das fand ich abstoßend. Sogar beim Lebenslauf bekam ich eine Absage mit einer von KI angegebenen Begründung, die inhaltlich völlig danebenlag. Ich bin mir nicht einmal sicher, ob das je ein Mensch gesehen hat, und gehe davon aus, dass es eine KI war. Schon vor dem Aufkommen von KI war Jobsuche schwer, aber jetzt bleibt nur noch völlige Ernüchterung über den gesamten Einstellungsprozess.
    • Facebooks automatisierte Produktverwaltung ist auf einem erschreckend enttäuschenden und beschämenden Niveau. Sie hat sogar das Konto eines Anwalts mit dem Namen Mark Zuckerberg automatisch gesperrt. Zugehöriger Artikel (https://huffpost.com/entry/…). Wer bei Facebook wirbt, bekommt ohne Grund sein Werbekonto eingeschränkt, aber es gibt nicht einmal jemanden, bei dem man Einspruch einlegen könnte, und selbst wenn man riesige Summen ausgibt, ist es dasselbe. Der bekannte Tipp ist nur, vor der Werbung auf der Fanpage 5–7 Tage lang belanglose Posts zu veröffentlichen und Likes zu kaufen. Sonst wird das Ad-Konto sofort gesperrt.
    • Vielleicht wurdest du wegen eines Comma splice gesperrt (Comma splice: https://en.m.wikipedia.org/wiki/Comma_splice).
  • Ich gehe davon aus, dass die großen KI-Unternehmen auch künftig stärkeren Datenschutz fordern werden. Sam Altman hat das in einem Interview sogar mit dem Anwaltsgeheimnis verglichen. Der Engpass für Entscheidungen, KI wirklich als persönlichen Assistenten oder Wissensbasis zu nutzen, ist der Mangel an privaten Daten. Die eigentliche Lösung wäre nur, Modelle lokal selbst laufen zu lassen, aber das widerspricht dem heutigen Geschäftsmodell. Deshalb wird es eher zu per Regulierung verordnetem, „erzwungenem“ Datenschutz gehen, und das wird letztlich von Drittregulierung und dem Verweis aufs Gemeinwohl beherrscht und liegt außerhalb meiner Kontrolle.
    • Das Argument „widerspricht dem Geschäftsmodell“ gilt aber nicht für Unternehmen, die Hardware verkaufen. Wenn ich Apple, Dell oder Lenovo wäre, würde ich voll auf lokal laufende, von Hugging Face unterstützte Modelle setzen.
    • „Fiat privacy“ hat am Ende dieselben Schwachstellen wie jemandem einen Mord zu gestehen oder den Wallet-Key in einem Tresor aufzubewahren. Von der Kirche kann man da etwas lernen. Wenn Mitarbeiter von LLM-Anbietern aufrichtig zeigen würden, dass sie zum Schutz der Privatsphäre bereit sind, ihre Freiheit oder ihren Wohlstand zu opfern, würde die Gesellschaft das akzeptieren. So wie bei Richard Masten, der vor Gericht Unterlagen mit Informationen über einen vertraulichen Hinweisgeber vernichtete und dafür fast ins Gefängnis gegangen wäre — in einer guten Gesellschaft sieht man, dass Haltung Wirkung haben kann.
    • Vergleicht einmal Sam Altmans Verweis auf das Anwaltsgeheimnis mit der gleichzeitigen Aussage von OpenAI, alle Gespräche zu überwachen und nötigenfalls der Regierung zu melden (offizielle Stellungnahme: https://openai.com/index/helping-people-when-they-need-it-most/). Dort heißt es, bei einer „ernsten unmittelbaren Bedrohung“ werde an Strafverfolgungsbehörden weitergegeben. Das mag insgesamt gut gemeint sein, aber ich kann keiner korporativen KI zustimmen, die alle Gespräche überwacht. So wie Telefongesellschaften nicht illegal Kommunikationsüberwachung betreiben dürfen, scheint nun eine Zeit nahezukommen, in der KI alle Gespräche aufzeichnet, bewertet und sogar in Listen einordnet.
    • Big Tech gibt sich naiv und vorbildlich, gewinnt in Wahrheit aber nur Zeit für „Regulierung und Markteroberung“. Mit hübschen Parolen, Produkten und „halbgaren Funktionen“ bauen sie Marktanteile aus, und wenn sie vor der Regulierung erst einmal genug Macht angesammelt haben, können sie sogar Politiker beeinflussen. Ich glaube, es dauert noch etwa 5 Jahre, bis die US-Regierung bei KI-Unternehmen tatsächlich etwas unternimmt, und bis dahin werden OpenAI, Google und Meta die Regulierungsgespräche vollständig unter Kontrolle haben.
    • Jeder kann jederzeit irgendwen töten, wenn er es will. Zu glauben, Verschlüsselung garantiere Sicherheit, ist eine Illusion; alles hängt letztlich von Geheimhaltung ab.
  • Wer schon einmal mit einem Chatbot gesprochen hat, sollte unbedingt wissen: Alle bisherigen Chatbot-Gespräche werden derzeit nicht wirklich sauber gelöscht und können künftig jederzeit für Ad-Targeting, finanzielle oder politische Manipulation und den Verkauf „maßgeschneiderter Einflussnahme“ genutzt werden. Man sollte die Gefahr nicht auf „Training von KI mit Chat-Logs“ kleinreden. Wenn künftig Werbe- oder Einfluss-Chatbots auftauchen, besteht die sehr reale Gefahr vielmehr darin, dass sie sämtliche Gesprächsprotokolle, die ich früher bei anderen Chatbots hinterlassen habe, auswerten, um die für mich passende Überzeugungsstrategie zu entwickeln. Dazu kommt, dass sogar Gespräche, die Menschen innerhalb von Plattformen austauschen, verkauft werden könnten, falls ein Unternehmen in Geldnot gerät. Je länger ich darüber nachdenke, desto beunruhigender wird es.
    • Der beängstigendste Aspekt von ai-chatbot ist für mich, dass es als „optimierte Manipulationsschnittstelle“ genutzt werden kann. Wenn man alle vorhandenen Gesprächsdaten hat, reicht der Prompt „Wie bringe ich diese Person zu x?“, und die KI kann alles optimal darauf ausrichten und die Person lenken.
    • Personalisierte Werbung oder Retargeting-Werbung fand ich nie unangenehm. Wenn ich ohnehin Werbung sehen muss, ist mir etwas Passendes lieber als etwas noch weniger Relevantes.
    • Man darf auch nicht übersehen, dass Gesprächsverläufe vor Gericht als Beweismittel auftauchen könnten.
  • Die Behauptung „geschützte Gespräche“ ist faktisch schon wirkungslos geworden. Selbst SMS im Telefonnetz sind seit Langem anfällig für Man-in-the-Middle-Angriffe (MITM). Auch in der Realität nimmt die britische Polizei mit Gesichtserkennungs-KI bereits ungerechtfertigte Festnahmen vor. Jeder, der nach Großbritannien einreist, kann gezwungen werden, Passwörter und Geräte herauszugeben. Bei Verweigerung droht unbefristete Inhaftierung nach dem Terrorgesetz, und bei Terrorverdacht gibt es nicht einmal das Recht auf Kontakt zu einem Anwalt. Das Zeitalter der Privatsphäre ist bereits still vorbeigegangen.
  • Dank KI wird Überwachung und Zensur vergangener Gedanken im großen Maßstab real. Das ist eine wirklich beängstigende Zeit.
    • Viele werden sich am Ende wohl ganz vom Online-Verhalten zurückziehen. Es mag noch private Gespräche geben, aber selbst wenn man nur ein Kunstwerk schafft, spendet man am Ende indirekt an Google-/Meta-Aktionäre. Diese Gefahr bestand schon vor einer offenen Gedankenzensur.
    • Eigentlich gibt es solche Zensur schon lange in einfacherer Form. Zum Beispiel werden die Kommentare auf dieser Seite (HN) durch den Anreiz geformt, Upvotes zu bekommen. Natürlich filtert man mit Downvotes Trolle heraus, aber das grundlegende Problem verschwindet nicht. Persönlich hoffe ich, dass KI Social Media komplett ruiniert, damit wir danach auf gesünderen Plattformen neu anfangen können.
    • Das Konzept von Roko’s Basilisk wirkt immer realer.
    • Noch viel bedrohlicher als der Suchverlauf.
  • Wie das KI-Hotel im Roman Altered Carbon erinnert mich die Stimmung in den Kommentaren daran, an eine KI-Realität zu denken, die niemand benutzt (Referenz: https://en.m.wikipedia.org/wiki/Altered_Carbon). Im Roman waren die KIs so versessen darauf, Kunden zufriedenzustellen, dass es schon ermüdend wirkte, während reale KI heute vor allem den Organisationen dient — das ist der große Unterschied.
  • Ich finde, Überwachung sollte zwingend zuerst auf die Unternehmen angewendet werden, die diese Technologie geschaffen haben, einschließlich ihrer Mitarbeiter, sowie auf die Politiker, die die entsprechenden Gesetze verabschiedet haben. Wir sollten auf sämtliche von dieser Gruppe gesammelten KI-Daten Zugriff haben.
  • Der Grund, warum ich Gabereial Weinburg (Gründer von duckduckgo) für einen Heuchler halte, ist, dass er öffentlich gesagt haben soll, Menschen bräuchten keine Privatsphäre, während duckduckgo zugleich behauptet, Privatsphäre zu verkaufen. Tatsächlich habe das Unternehmen Daten zur Nachverfolgung mit mehreren anderen Firmen gehandelt und gleichzeitig gesagt „duckduckgo trackt nicht“, während Partner sehr wohl tracken durften — ein Widerspruch. In letzter Zeit scheinen solche Kontroversen aus dem Internet gelöscht zu werden, sodass sie schwer zu finden sind.
    • Wenn das ein so schwerwiegender Vorwurf ist, müsste man doch durch Suchen irgendetwas finden, aber da taucht nichts auf. Da es schwer ist, so etwas komplett aus dem Internet zu löschen, müsste es eigentlich Belege geben.
    • Ich frage mich, ob es nicht auch früher einmal Datenaustausch mit Microsoft gab.
  • Ich frage mich, ob es vertrauenswürdige Alternativen gibt, um einer Zukunft mit „Null Privatsphäre“ zu entgehen. KI kann Menschen inzwischen allein am Gang erkennen, auch ohne Gesichtserkennung identifizieren, und sogar per Wi-Fi-Signal Herzschläge bestimmen. Dass „irgendjemand“ alles wissen kann, scheint damit festzustehen; offen ist nur, ob es wirklich nur eine kleine Minderheit sein wird oder am Ende alle. Ich halte Letzteres klar für besser.
    • Die Lösung ist Gesetzgebung oder der Markt (ich persönlich setze eher auf die Kraft des Marktes).
  • Das größte Problem bei Chatbots ist, dass Menschen dazu neigen, ihnen Menschlichkeit zuzuschreiben. Sogar Entwickler behandeln Chatbots, als wären sie Menschen. Aber LLMs sind keine Menschen, und OpenAI sowie alle anderen Chatbot-Firmen müssten das klar und wiederholt sagen. Wenn die ganze Gesellschaft darauf trainiert würde, KI als „nicht menschlich“ wahrzunehmen, wäre vieles besser.
    • Ich bin kein Fulltime-Coder, sondern schreibe vielleicht zu 25 % meiner Arbeit Code, aber manchmal machen Witze oder Gespräche mit einem LLM das Programmieren sogar angenehmer. Wenn Claude zum Beispiel einen Bug, über den ich lange gegrübelt habe, auf Anhieb behebt, rede ich automatisch so etwas wie: „Verdammt, das Ding ist echt genial! Also, als Nächstes ...“ Mit KI programmiere ich aus Spaß mehr, und weil sie den Großteil der eigentlichen Arbeit erledigt, wird es noch attraktiver.
    • „Kannst du genauer erklären, warum es besser wäre, Menschen beizubringen, dass KI kein Mensch ist?“
    • Deshalb fand ich es sehr interessant, dass manche Menschen KI als „Clanker“ bezeichnen, um sie von echten Menschen zu unterscheiden.