Mehrere Kommentatoren fanden die Idee interessant, eine „russische Tastatur“ zu installieren, und einige versuchten tatsächlich, sie zu installieren oder die Registry zu manipulieren.
Ein Nutzer installierte 14 Sprachen, äußerte jedoch Bedenken wegen verschwendetem Speicherplatz.
Manche sahen darin eine „einfache Verteidigungsmaßnahme, um russische Hacker auszutricksen“.
💬 2. Bedenken und Skepsis
Viele meinten, dass dies nur ein vorübergehender Workaround sei und Hacker ihn bald umgehen könnten.
Zum Beispiel könnte die Überprüfung, ob die Tastatur tatsächlich verwendet wird oder kürzlich geändert wurde, den Verteidigungstrick aushebeln.
Es gab auch Kritik, dass „der Versuch, sich durch Spracheinstellungen zu schützen, Hackern eher noch eine Schwachstelle offenbart“.
💬 3. Alternative Vorschläge und technische Diskussion
Einige erwähnten, dass es auch eine Möglichkeit sei, das System so erscheinen zu lassen, als laufe es in einer virtuellen Maschine (VM).
Es wurde darauf hingewiesen, dass Malware verschiedene Methoden zur „Lokalisierungsprüfung“ nutzen kann, etwa System-Zeitzone, IP oder die Nutzungshistorie der Tastatur.
Manche schlugen vor, Spuren von Security-Tools wie Wireshark zu hinterlassen, damit Malware das System irrtümlich für eine Analyseumgebung hält.
💬 4. Debatte über Betriebssysteme
Es gab viel Kritik an den Sicherheitslücken von Windows. Einige plädierten auch für einen Wechsel zu Mac oder Linux.
Es wurde auch Unmut darüber geäußert, dass „Windows viele Sicherheitslücken hat und Unternehmen es nur aus Kostengründen weiter verwenden“.
Andererseits gab es Gegenstimmen, dass auch Mac nicht völlig sicher sei und nur deshalb seltener angegriffen werde, weil sein Marktanteil geringer sei.
💬 5. Weitere Meinungen
Einige berichteten, dass nach der Installation einer russischen Tastatur Probleme beim Login auftraten.
Es gab auch skeptische Stimmen, dass Hacker diese Methode am Ende sogar zu ihrem Vorteil nutzen könnten, wenn der Tastatur-Bypass weit verbreitet werde.
Abschließend reagierte ein Nutzer bitter mit der Frage, ob nun die Zeit gekommen sei, in der wir Hacker besänftigen müssen, um ihnen aus dem Weg zu gehen.
17 Stunden, Wahnsinn. Wirklich beeindruckend.
Ich denke, das wird eine große Hilfe sein, wenn man sich daran orientiert und einen Service entwickelt. Vielen Dank.
Ich hätte allerdings noch eine Frage: Gab es dabei schwierige Punkte oder etwas, das besonders problematisch war? (Ich habe das Video noch nicht gesehen ... werde es mir aber bald anschauen.)
Der Beitrag, den ich heute geschrieben habe, hat eine ähnliche Perspektive.
Letztlich war der entscheidende Punkt, die Produktivität durch AI zu steigern und zugleich die Organisationsstruktur so zu verändern, dass die gesunkene Stabilität wieder erhöht wird.
In dieser Zusammenfassung fehlen die Ausführungen zum Slowdown-Ende und zum Race-Ende. Danach gibt es je nach den beiden Verläufen noch weitere Inhalte, daher empfehle ich, den Text direkt aufzurufen und zu lesen.
Ich dachte, es wäre extrem teuer, wenn man das Szenario simuliert, GPUs On-Premises anzuschaffen und zu nutzen oder GPUs in der Cloud zu mieten,
aber wenn man Skaleneffekte erreicht, scheint es durchaus machbar zu sein.
Zur Info: Bei der Modellentwicklung gibt es auch die Belastung, auf mlx portieren zu müssen, und selbst wenn man mps aktiviert, fühlt es sich so an, als wären die Berechnungen nur geringfügig schneller als auf der CPU, daher ist es derzeit noch umständlich.
Es ist töricht, Geld zu verbrennen, wenn man auch ohne ein ruinöses Hühnerspiel Geld verdienen kann. Dass LLMs keinen Burggraben haben, ist doch der branchenweite Konsens unter den führenden Köpfen.
Wann wird Pattern Matching wohl hinzugefügt?
Es gibt zwar Signals in Stage 1, aber bis zur offiziellen Einführung scheint es noch ein weiter Weg zu sein.
Die Antworten eines MCP-Servers sind häufig natürliche Sprache ohne festgelegtes Schema.
Diese natürlichsprachigen Antworten ohne LLM programmatisch zu verarbeiten, dürfte schwierig sein.
https://de.news.hada.io/topic?id=21726
Das scheint mit diesem Artikel zusammenzuhängen.
Ich habe geschaut, ob es als Alternative zu n8n taugt ... aber die neueste Veröffentlichung ist offenbar aus dem Jahr 2024.
💬 1. Reaktionen auf den Trick
💬 2. Bedenken und Skepsis
💬 3. Alternative Vorschläge und technische Diskussion
💬 4. Debatte über Betriebssysteme
💬 5. Weitere Meinungen
Alle schwierigen Punkte oder Hürden werden im Video vollständig erwähnt. Vielen Dank.
17 Stunden, Wahnsinn. Wirklich beeindruckend.
Ich denke, das wird eine große Hilfe sein, wenn man sich daran orientiert und einen Service entwickelt. Vielen Dank.
Ich hätte allerdings noch eine Frage: Gab es dabei schwierige Punkte oder etwas, das besonders problematisch war? (Ich habe das Video noch nicht gesehen ... werde es mir aber bald anschauen.)
Stimmt. Schon wenn man nur sucht, sind die Artikel alle so nach dem Muster aeo vs. geo vs. seo.
Der Beitrag, den ich heute geschrieben habe, hat eine ähnliche Perspektive.
Letztlich war der entscheidende Punkt, die Produktivität durch AI zu steigern und zugleich die Organisationsstruktur so zu verändern, dass die gesunkene Stabilität wieder erhöht wird.
https://softycho.co/57
In dieser Zusammenfassung fehlen die Ausführungen zum Slowdown-Ende und zum Race-Ende. Danach gibt es je nach den beiden Verläufen noch weitere Inhalte, daher empfehle ich, den Text direkt aufzurufen und zu lesen.
Ich dachte, es wäre extrem teuer, wenn man das Szenario simuliert, GPUs On-Premises anzuschaffen und zu nutzen oder GPUs in der Cloud zu mieten,
aber wenn man Skaleneffekte erreicht, scheint es durchaus machbar zu sein.
Zur Info: Bei der Modellentwicklung gibt es auch die Belastung, auf mlx portieren zu müssen, und selbst wenn man mps aktiviert, fühlt es sich so an, als wären die Berechnungen nur geringfügig schneller als auf der CPU, daher ist es derzeit noch umständlich.
Nun ja. Ob man CUDA überhaupt direkt verwenden wird? Besonders in Korea.
Ist zwar Alpha, aber gut..
Danke für die gute Information.
Krass … Das wusste ich nicht …
Ich bereite gerade ein SaaS vor … Vielen Dank .. ^^;
Ich hatte Zweifel, ob sich LLMs monetarisieren lassen, deshalb überrascht es mich, dass die Einschätzung positiv ausfällt.
Ja, deshalb habe ich es verehrt.
Es ist töricht, Geld zu verbrennen, wenn man auch ohne ein ruinöses Hühnerspiel Geld verdienen kann. Dass LLMs keinen Burggraben haben, ist doch der branchenweite Konsens unter den führenden Köpfen.
Während andere Geld verbrennen und einen ruinösen Verdrängungswettbewerb um Sprachmodelle führen
Dass sie eine derart edle Glas-UI erschaffen haben, die nur Apple umsetzen kann
Ich verehre es, GOAT