Sehe ich genauso
Bisher hatte ich oft das Gefühl einer Diskrepanz, weil meine tatsächliche Erfahrung und die Reaktionen der Community einander widersprachen.

 

Dass ich mein Jahresabo nicht verlängert habe, war echt ein genialer Schachzug.
Bevor ich es mit dem 27-fachen Opus-Multiplikator bezahle und nutze, nehme ich lieber gleich den Claude-API-Tarif.

 

Ich habe es direkt am ersten Tag angebracht, als das Badge rauskam, haha. Es wäre schön, wenn es mehr Produkte wie Tailscale gäbe.

 

Ich habe mir schon längst das Geld zurückerstatten lassen..

 

Scheint ein Tool zu sein, das von u/Total_Nectarine_3623 erstellt wurde.

https://www.reddit.com/r/ClaudeAI/s/9VO1vzO2zp

Wenn man sich andere Beiträge ansieht, scheint die Person an ONIST oder CTF interessiert zu sein, also offenbar auch an Informationssicherheit. Die erste Veröffentlichung erfolgte mit einem einzigen riesigen Commit. Das wirkt so, als wäre im ursprünglichen Repository sehr viel Vibe-Coding betrieben und anschließend alles in zahlreiche Commits aufgeteilt worden, sodass man es nicht einfach so veröffentlichen wollte und deshalb zu einem einzigen Commit zusammengefasst hat. Auch der GitHub-Handle h4ckfOr0day deutet darauf hin; bei ONIST oder Tools, die nicht unbedingt über ganz reguläre Wege zugänglich sind, gibt es so etwas wie die Tradition, sie über Wegwerf-Accounts hochzuladen.

Vertrauen in Open Source muss natürlich erst aufgebaut werden, aber es scheint keine besondere Absicht dahinterzustecken.

 

Bei aktuellen Modellen werden Details zur internen Implementierung meist nicht offengelegt, weshalb bei der Recherche wohl ältere Modelle herangezogen wurden. Es ist gut möglich, dass Modelle, die nach GPT-5 erschienen sind, alle die MoE-Struktur übernommen haben. Das liegt daran, dass Open-Source-Parallelmodelle als MoE-Struktur aufgebaut sind. Bei neueren Closed-Modellen wird die Architektur jedoch nicht veröffentlicht, daher ist das keine gesicherte offizielle Aussage.

 

Heißt das, dass gpt5.5 bei den wichtigsten Frontier-Modellen, die MoE verwenden, kein MoE nutzt?

 

Meine ehrliche Meinung: Seit Cloudflare damit angefangen hat zu sagen, dass sie Meshnet herausbringen, habe ich Folgendes gehört

  1. Tailscale experimentiert mit einer Rust-Implementierung (sehnlichster Wunsch)
  2. und jetzt diese Ankündigung der Kostenlosstellung
 

Seit Version 3.5 habe ich immer Claude als Hauptmodell genutzt, aber seit 5.5 nutze ich GPT als Hauptmodell. Es ist ziemlich gut.

 

Von Remotion inspiriert und fast identisch, aber ein Tool, das React entfernt und stattdessen komplett mit HTML arbeitet.
Im Moment nutzen wir es einfach weiter, weil wir ein kleines Unternehmen sind.
Remotion ist nur bis zu 3 Personen kostenlos, daher scheint HyperFrames für etwas größere Teams die bessere Wahl zu sein.

 

Eher hatte ich das Gefühl, dass Opus 4.6 und 4.7 anfingen, auf Koreanisch seltsam zu werden, haha.

 

So mache ich das in letzter Zeit auch. Allerdings sind die Sandbox-Richtlinien von Codex CLI viel zu streng, sodass es ziemlich unpraktisch ist, ihm auch noch Build und Tests zu überlassen.

 

Tailscale ist Liebe. Es ist das Beste!

 

Nur zur Einordnung: Es handelt sich um eine Schwachstelle, die bereits vor langer Zeit (2020) gepatcht wurde, und auch im ursprünglichen Blog wird wie unten erwähnt, dass es sich um einen Fernseher handelt, der auf älteren Versionen des Browsers und des Kernels basiert.
Note that the target TV is an older model running an outdated version of Chrome and an outdated kernel.

 

Wie wäre es, mit Claude nur den Plan zu erstellen und mit Codex nur die Ausführung zu übernehmen?

 

Keine Ahnung, warum man so einen dummen Fehler macht und dann auch noch damit prahlt. Ich kann diese Twitter-Kultur nicht verstehen.

 

Wenn jetzt noch Cloudflares von KI geschriebene OAuth-Bibliothek genauer anschauen angewendet wird
und nur noch so etwas wie Drive, Kalender, Chat und Videoanrufe gebaut werden, dann ist das eine Office-Suite-Lösung, die auf der Cloudflare-Infrastruktur läuft!