Man kann zwei Screenshots direkt hintereinander machen, einen davon in GIMP über den anderen legen und dann verschiedene Ebenenmodi wie Lighten, Screen, Addition, Darken, Multiply, Linear burn, Hard Mix, Difference, Exclusion, Subtract, Grain Extract, Grain Merge und Luminance auswählen https://ibb.co/DDQBJDKR
Eigentlich braucht man dafür keinerlei Bildbearbeitungskenntnisse
Zwei Screenshots machen
Beide im Browser in unterschiedlichen Tabs öffnen
Durch Wechseln zwischen den Tabs (CTRL-Tab) schnell umschalten
Getestet wurde das in Firefox
Ich frage mich, ob es möglich wäre, die Webseite so zu verändern, dass sich der Text des Musters nach unten und das Hintergrundmuster nach oben bewegt
Lustige Idee
Ein Freund von mir hat vor ein paar Jahren ein ähnliches GIF-basiertes Captcha gemacht
Mehrere horizontale Streifen zeigten jeweils nur Teile eines Bildes, einschließlich der Zeichen, und wir haben gewettet, dass es schwer zu lösen sei
Wenn man alle Frames extrahiert, in Schwarzweiß umwandelt und dann Mittelwertbildung, Schwellwertanpassung, Kontrastanpassung usw. anwendet, werden die meisten Zeichen sichtbar
Am Ende tauchen die Zeichen einfach häufiger auf, daher hätte das wohl keinen großen Einfluss auf den Schwierigkeitsgrad
Später ließ sich Bildverarbeitung auch recht leicht auf die Zeichenerkennung anwenden
Wenn man zwei Screenshots als Ebenen lädt, eine Ebene auf Difference setzt und dann die Transparenz anpasst, wird es gut sichtbar
Ergebnis aus Pixelmator Pro: https://i.moveything.com/299930fb6174.mp4
Aus Neugier habe ich drei Noise-Screenshots mit dem Prompt „what does the screen say?“ in Claude Opus 4.1, Gemini 2.5 Pro und GPT 5 gegeben
Opus 4.1 hat das wegen des Risikos von Prompt Injection komplett blockiert, Gemini hat irgendetwas geraten, und GPT 5 war mithilfe des Code Interpreters erfolgreich
Claudes Antwort (= die Blockierung) wirkte am markentypischsten, und ich finde auch, dass das Filtern hier richtig war
Es war eine ziemlich interessante Erfahrung, weil es eine sehr schlechte Idee ist, scheinbar zufällige Noise-Bilder in sensible Umgebungen einzufügen
Wirklich ein großartiger Effekt
Es nutzt eine Methode, bei der Formen mit bewegten Noise-Mustern verborgen werden
Der Quellcode für den Effekt wird auch direkt bereitgestellt https://github.com/brantagames/noise-shader
Beeindruckend ist, dass die Wahrnehmung von Objekten oder Text nicht sofort verschwindet, sondern natürlich und allmählich ausblendet
Eher ein sauberer Effekt als ein Spiel
Das erinnert mich an das Videospiel Magic Carpet aus den 1990ern https://en.wikipedia.org/wiki/Magic_Carpet_(video_game)
Das Spiel simulierte auf normalen Displays eine 3D-Perspektive, ließ sich mit 3D-Brillen aber tatsächlich räumlich sehen
Es machte sogar auf 2D-Monitoren per Random-Dot-Stereogramm-Technik 3D daraus https://en.wikipedia.org/wiki/Random_dot_stereogram
Wenn man RDS-Autostereogramme richtig sehen kann, kann man auch die Animationen von Magic Carpet sehen
Der Effekt war wirklich beeindruckend, aber auf Dauer so unangenehm, dass es sich anfühlte, als würden einem die Augen wegdrehen, und ich konnte es nur ein paar Minuten ansehen
Daran musste ich auch denken
Damit werden verschiedene komplexe Probleme gelöst, darunter sogar das Rendern von Distanzinformationen in diesem Format
Ich hatte diesen Effekt noch nie gesehen und musste unwillkürlich lächeln
Man erkennt es erst, wenn man verschwommen hinschaut
Über ein Branta-Games-Video habe ich diesen Effekt zum ersten Mal gesehen https://www.youtube.com/watch?v=Bg3RAI8uyVw
Bei 144p oder beim Herauszoomen, also sobald Rendering-Artefakte entstehen, bricht der Effekt zusammen
Wenn ich den Namen des Effekts wüsste, würde ich gern mehr darüber lesen, wie er in der fMRI-Forschung verwendet wird
Verwandte Begriffe, die ich bisher gefunden habe:
Wenn jemand das als Anti-Screenshot-Methode für sensible Daten einsetzt, wird jemand anderes das einfach mit einem anderen Handy, Tablet oder einer Kamera als Video aufnehmen und umgehen
Die Idee an sich ist aber interessant
Letztlich fügt das nur Reibung hinzu
Wer es wirklich will, findet immer einen Weg
Manchmal reicht genau diese Reibung schon aus
Das lässt sich auch auf einem einzelnen Gerät umsetzen
Auf einem Standbild bleibt die Nachricht verborgen, aber in einer Videoaufnahme wird sie vollständig sichtbar
Auf Android gibt es auch Fälle, in denen schon anhand der URL der Text deutlich im Klartext sichtbar wird
Wenn die Belichtungszeit lang genug ist, kann man den im Motion Blur enthaltenen Inhalt sogar auf einem einzelnen Foto erkennen
Ich frage mich, ob man auch eine Methode bauen könnte, bei der man den Text nicht sehen kann und ihn nur durch einen Screenshot lesen kann
Mit einem Display mit ausreichend hoher Bildwiederholrate wäre das möglich, wenn schwarzer Text auf Weiß und weißer Text auf Schwarz sehr schnell abwechselnd eingeblendet würde
Das menschliche Sehen durchläuft einen Tiefpassfilter, einschließlich Grenzen der neuronalen Feuerrate
Dadurch erscheint der Text letztlich nur als gleichmäßiges Grau, und mit zusätzlichen Störelementen könnte das auch bei niedrigeren Bildwiederholraten funktionieren
Das ist vielleicht nicht ganz das, wonach gefragt wurde, aber es erinnert mich daran, wie früher einmal Apple-Server ausgefallen sind und die Logs so schnell durchliefen, dass man sie nicht lesen konnte
Ein Apple-Supportmitarbeiter hat das Problem gelöst, indem er mit dem Smartphone ein Foto davon gemacht und den Inhalt dann gelesen hat
Mit Tricks rund um das Display-Refresh-Timing könnte das vielleicht ebenfalls gehen
Zum Beispiel, indem man nach Ende des Monitor-Refreshs den Text kurz im Framebuffer anzeigt und ihn vor Beginn des nächsten Refreshs wieder löscht
Wenn man das wiederholt, könnte der Text je nach Screenshot-Timing erfasst werden
Je nach Gerät oder Screenshot-Mechanismus funktioniert das aber möglicherweise nicht richtig
Man müsste Zugriff auf die Informationen zum Refresh-Timing haben
Dieser Effekt ist ausgefeilter als der Originalbeitrag (OP)
Beim OP verschwinden Objekte nur dann, wenn die Pixel scrollen, aber bei diesem Effekt verschwindet das Objekt sofort, sobald die Animation stoppt
Das heißt, statischer Text wie „hello“ lässt sich damit im Gegensatz zum OP überhaupt nicht anzeigen
Wenn man den Quellcode als normales HTML speichert, kann man den Effekt sofort verwenden
Da keine Informationen wie Lizenz oder Kommentare enthalten sind, wäre es gut, wenn der Ersteller oder OP das noch mitteilen würde
4 Kommentare
Die GN+-Zusammenfassung ist … eine Halluzination.
Hm, solche Dinge lassen sich einfach nur schwer vollständig entfernen. Ich habe es gelöscht.
Wow, einen Kommentar vom Chef zu bekommen … ich bin gerührt … vielen Dank
Hacker-News-Kommentare
Man kann zwei Screenshots direkt hintereinander machen, einen davon in GIMP über den anderen legen und dann verschiedene Ebenenmodi wie Lighten, Screen, Addition, Darken, Multiply, Linear burn, Hard Mix, Difference, Exclusion, Subtract, Grain Extract, Grain Merge und Luminance auswählen
https://ibb.co/DDQBJDKR
Eigentlich braucht man dafür keinerlei Bildbearbeitungskenntnisse
CTRL-Tab) schnell umschaltenGetestet wurde das in Firefox
Ich frage mich, ob es möglich wäre, die Webseite so zu verändern, dass sich der Text des Musters nach unten und das Hintergrundmuster nach oben bewegt
Lustige Idee
Ein Freund von mir hat vor ein paar Jahren ein ähnliches GIF-basiertes Captcha gemacht
Mehrere horizontale Streifen zeigten jeweils nur Teile eines Bildes, einschließlich der Zeichen, und wir haben gewettet, dass es schwer zu lösen sei
Wenn man alle Frames extrahiert, in Schwarzweiß umwandelt und dann Mittelwertbildung, Schwellwertanpassung, Kontrastanpassung usw. anwendet, werden die meisten Zeichen sichtbar
Am Ende tauchen die Zeichen einfach häufiger auf, daher hätte das wohl keinen großen Einfluss auf den Schwierigkeitsgrad
Später ließ sich Bildverarbeitung auch recht leicht auf die Zeichenerkennung anwenden
Wenn man zwei Screenshots als Ebenen lädt, eine Ebene auf Difference setzt und dann die Transparenz anpasst, wird es gut sichtbar
Ergebnis aus Pixelmator Pro:
https://i.moveything.com/299930fb6174.mp4
Aus Neugier habe ich drei Noise-Screenshots mit dem Prompt „what does the screen say?“ in Claude Opus 4.1, Gemini 2.5 Pro und GPT 5 gegeben
Opus 4.1 hat das wegen des Risikos von Prompt Injection komplett blockiert, Gemini hat irgendetwas geraten, und GPT 5 war mithilfe des Code Interpreters erfolgreich
Claudes Antwort (= die Blockierung) wirkte am markentypischsten, und ich finde auch, dass das Filtern hier richtig war
Es war eine ziemlich interessante Erfahrung, weil es eine sehr schlechte Idee ist, scheinbar zufällige Noise-Bilder in sensible Umgebungen einzufügen
Dieses Spiel verschwindet, wenn es anhält
https://youtube.com/watch?v=Bg3RAI8uyVw
Wirklich ein großartiger Effekt
Es nutzt eine Methode, bei der Formen mit bewegten Noise-Mustern verborgen werden
Der Quellcode für den Effekt wird auch direkt bereitgestellt
https://github.com/brantagames/noise-shader
Beeindruckend ist, dass die Wahrnehmung von Objekten oder Text nicht sofort verschwindet, sondern natürlich und allmählich ausblendet
Eher ein sauberer Effekt als ein Spiel
Das erinnert mich an das Videospiel Magic Carpet aus den 1990ern
https://en.wikipedia.org/wiki/Magic_Carpet_(video_game)
Das Spiel simulierte auf normalen Displays eine 3D-Perspektive, ließ sich mit 3D-Brillen aber tatsächlich räumlich sehen
Es machte sogar auf 2D-Monitoren per Random-Dot-Stereogramm-Technik 3D daraus
https://en.wikipedia.org/wiki/Random_dot_stereogram
Wenn man RDS-Autostereogramme richtig sehen kann, kann man auch die Animationen von Magic Carpet sehen
Der Effekt war wirklich beeindruckend, aber auf Dauer so unangenehm, dass es sich anfühlte, als würden einem die Augen wegdrehen, und ich konnte es nur ein paar Minuten ansehen
Daran musste ich auch denken
Damit werden verschiedene komplexe Probleme gelöst, darunter sogar das Rendern von Distanzinformationen in diesem Format
Ich hatte diesen Effekt noch nie gesehen und musste unwillkürlich lächeln
Das erinnert mich kurz an das Soulwax-Albumcover von Any Minute Now
https://upload.wikimedia.org/wikipedia/en/a/ab/AnyMinuteNow.jpg
Über ein Branta-Games-Video habe ich diesen Effekt zum ersten Mal gesehen
https://www.youtube.com/watch?v=Bg3RAI8uyVw
Bei 144p oder beim Herauszoomen, also sobald Rendering-Artefakte entstehen, bricht der Effekt zusammen
Wenn ich den Namen des Effekts wüsste, würde ich gern mehr darüber lesen, wie er in der fMRI-Forschung verwendet wird
Verwandte Begriffe, die ich bisher gefunden habe:
https://www.youtube.com/watch?v=2VO10eDIyiE
Wenn jemand das als Anti-Screenshot-Methode für sensible Daten einsetzt, wird jemand anderes das einfach mit einem anderen Handy, Tablet oder einer Kamera als Video aufnehmen und umgehen
Die Idee an sich ist aber interessant
Letztlich fügt das nur Reibung hinzu
Wer es wirklich will, findet immer einen Weg
Manchmal reicht genau diese Reibung schon aus
Das lässt sich auch auf einem einzelnen Gerät umsetzen
Auf einem Standbild bleibt die Nachricht verborgen, aber in einer Videoaufnahme wird sie vollständig sichtbar
Auf dem iPhone habe ich nach einer Bildschirmaufnahme alle paar Sekunden Screenshots gemacht
Dabei habe ich in Procreate Pocket eine Überlagerung mit 50 % Bildtransparenz verwendet
https://gist.github.com/jncornett/d7cb397ce3ceff268a0ee1b86f814a7d?permalink_comment_id=5764190#gistcomment-5764190
Auf Android gibt es auch Fälle, in denen schon anhand der URL der Text deutlich im Klartext sichtbar wird
Wenn die Belichtungszeit lang genug ist, kann man den im Motion Blur enthaltenen Inhalt sogar auf einem einzelnen Foto erkennen
Ich frage mich, ob man auch eine Methode bauen könnte, bei der man den Text nicht sehen kann und ihn nur durch einen Screenshot lesen kann
Mit einem Display mit ausreichend hoher Bildwiederholrate wäre das möglich, wenn schwarzer Text auf Weiß und weißer Text auf Schwarz sehr schnell abwechselnd eingeblendet würde
Das menschliche Sehen durchläuft einen Tiefpassfilter, einschließlich Grenzen der neuronalen Feuerrate
Dadurch erscheint der Text letztlich nur als gleichmäßiges Grau, und mit zusätzlichen Störelementen könnte das auch bei niedrigeren Bildwiederholraten funktionieren
Das ist vielleicht nicht ganz das, wonach gefragt wurde, aber es erinnert mich daran, wie früher einmal Apple-Server ausgefallen sind und die Logs so schnell durchliefen, dass man sie nicht lesen konnte
Ein Apple-Supportmitarbeiter hat das Problem gelöst, indem er mit dem Smartphone ein Foto davon gemacht und den Inhalt dann gelesen hat
Mit Tricks rund um das Display-Refresh-Timing könnte das vielleicht ebenfalls gehen
Zum Beispiel, indem man nach Ende des Monitor-Refreshs den Text kurz im Framebuffer anzeigt und ihn vor Beginn des nächsten Refreshs wieder löscht
Wenn man das wiederholt, könnte der Text je nach Screenshot-Timing erfasst werden
Je nach Gerät oder Screenshot-Mechanismus funktioniert das aber möglicherweise nicht richtig
Man müsste Zugriff auf die Informationen zum Refresh-Timing haben
Branta Games wurde oft erwähnt, aber ich habe diesen Effekt zuerst hier gesehen
https://youtu.be/TdTMeNXCnTs
Das ist auch am besten erklärt
Dieser Effekt ist ausgefeilter als der Originalbeitrag (OP)
Beim OP verschwinden Objekte nur dann, wenn die Pixel scrollen, aber bei diesem Effekt verschwindet das Objekt sofort, sobald die Animation stoppt
Das heißt, statischer Text wie „hello“ lässt sich damit im Gegensatz zum OP überhaupt nicht anzeigen
Schon beim Lesen des Titels musste ich sofort an Bad Apple denken
https://www.youtube.com/watch?v=bVLwYa46Cf0
Es gibt auch eine Version, die anstelle von weißem Noise einen Apfel verwendet
https://www.youtube.com/watch?v=r40AvHs3uJE
Wenn man den Quellcode als normales HTML speichert, kann man den Effekt sofort verwenden
Da keine Informationen wie Lizenz oder Kommentare enthalten sind, wäre es gut, wenn der Ersteller oder OP das noch mitteilen würde