Ich habe beide ausprobiert und dachte eher das Gegenteil, aber offenbar ist das nicht so.
Als ich es benutzt habe, hat Codex die Anweisungen nämlich oft ignoriert.
Vielleicht hat sich das geändert, weil Anthropic kürzlich die Leistung von 4.6 Opus gesenkt hat.

 

Es heißt, auch die Technologie zum Aufspüren von Sicherheitslücken habe enorme Fortschritte gemacht.
Dass diese Schwachstellen entdeckt wurden, bedeutet aber auch, dass die Notwendigkeit entstanden ist, Wege zu ihrer Absicherung zu finden.
Daher ist zu erwarten, dass auch die Sicherheitsmaßnahmen weiter verbessert werden.

 

das chronische Problem von Claude Code haben Sie offenbar noch nicht erlebt. Auf Reddit ist deswegen ständig die Hölle los.

 

Ich hatte mit Codex die bessere Erfahrung.

 

Ah, ich hatte mich schon gefragt, woher ich OpenBMB kenne — das war ja das Team hinter dem MiniCPM-o-Modell.
MiniCPM-o ist ein Omni-Modell ähnlich wie GPT-4o, und die Leistung war wirklich ziemlich ordentlich.

Schaut euch auf jeden Fall mal das MiniCPM-o-Demovideo an,

ich war mit dem Modell ziemlich zufrieden, deshalb bin ich auch auf das neue Voice-Cloning-Modell gespannt.

 

Wenn der Preis kostenlos ist und die Sicherheit stimmt, nutzt man so etwas natürlich sofort, haha.

Wenn man so etwas sieht, bekommt man auch eine ungefähre Ahnung davon, in welche Richtung sich DevOps verändern wird.

 

Egal welches von beiden, HITL ist nötig. (Zumindest bis heute)
Bitte hört auf mit diesem Gerede über irgendwelche Ralph Loops.

 

Tja, schon wenn man auf GitHub nach OPENAI_API_KEY sucht, findet man jede Menge Treffer ...

 

Ach so. Dann gebe ich mich einfach mit Static zufrieden, haha.

 

Welchen Internetanbieter nutzen Sie, der die Ports blockiert?

 

Ist es nicht eher umgekehrt? Der Senior ist wohl weniger kompetent als gedacht.

 

Wenn man es tatsächlich benutzt, bekommt man wohl Krebs.

 

Als ich „Mesh“ gelesen habe, dachte ich erst, das sei so etwas Ähnliches wie Tailscale, aber es ist doch leicht anders.
Es ist keine P2P-Struktur wie bei Tailscale, sondern läuft über das CF-Edge-Netzwerk,
dadurch werden Sicherheitsfunktionen wie Gateway-Richtlinien oder DLP automatisch angewendet,
und dass man aus dem Workers-/Agents-SDK mit einer einzigen fetch()-Zeile einen privaten Service aufrufen kann, ist der eigentliche Unterschied.
Ich bleibe einfach bei Tailscale..

 

Die Qualität der Codex-Desktop-App war so gut, dass ich eine Zeit lang nur Codex benutzt habe, aber jetzt sollte ich wohl auch Claude Code wieder ausprobieren.

 

Auch auf der Microsoft-QnA-Seite passiert das: Wenn man sie besucht und dann auf „Zurück“ klickt, landet man in einer Endlosschleife. Ich wünschte wirklich, solche Seiten würden das endlich beheben.

Ob es nun Redirects gibt oder nicht, aus Sicht der Nutzer sollte man die Seite verlassen können, wenn man auf „Zurück“ klickt.
Bei solchen Seiten muss man die Zurück-Taste immer gedrückt halten, um mehr als 2 Ebenen zurückzugehen.

 

Es wird sich wohl so ändern, dass man die Entschädigung nur noch erhält, wenn man nachweisen kann, dass keine hohe Nutzung durch andere Geräte vorlag und keine Aktivitäten wie Gaming oder Downloads liefen.

 

https://x.com/dani_avila7/status/2044136770992791778

Empfohlene Funktionen laut jemandem, der sie einige Wochen vorab genutzt hat

  • Panels lassen sich erstellen und Agenten gleichzeitig ausführen
  • Sitzungen lassen sich anheften und per Drag-and-drop neu anordnen
  • Sitzungen lassen sich direkt aus einem PR starten
  • Vorschau, Pull-Request-Diff, Aufgaben, Pläne und ein separates Terminal lassen sich jeweils als Panel öffnen
    Insgesamt wird das Design dafür gelobt, dass es für Entwickler auf die Ausführung von Agenten optimiert ist
 

Mit ollama lässt sich eine lokale LLM-Konfiguration zwar einfach aufsetzen, aber offenbar ist die Wahrscheinlichkeit hoch, dass Tool-Aufrufe je nach Open-Source-Modell fehlschlagen. Das liege wohl an einer Kombination aus lockeren internen Vorgaben in ollama und Parser-Problemen bei modellabhängigen Tool-Aufrufen.
Das eigentliche Grundproblem von Local LLMs ist jedoch, dass für den Betrieb mittelgroßer bis großer Modelle teure Hardware nötig ist. Ein Mac Studio mit 32 GB kostet etwa im mittleren 300er-Bereich, ein GB10 ungefähr 500 bis 600, sodass die Anschaffung für Privatpersonen als Hobby(?) eher belastend ist. Für Local LLMs bleiben kleine Modelle, und für mittelgroße bis große Modelle gibt es außer der Cloud kaum eine Alternative.