Es verwendet also die bereits vorhandene codex-Binärdatei ...

 

Stimmt echt, Legacy-Projekte sind eine echte Plage
Es gibt Dinge, die es nicht mal wert sind, neu gemacht zu werden – da wäre es besser, gleich von vorn anzufangen.

 

Jetzt, wo ich es mir noch einmal ansehe, gibt es offenbar einen Videofilter!

 

Das scheint ein wirklich wichtiger Beitrag zu sein, wenn es darum geht, die Wartungskosten zu senken.

 

Bei AI-Texten klingt sogar das genaue Gegenteil noch plausibel.

Man soll dies tun, man soll jenes tun. Hat so etwas überhaupt einen Sinn ...

Wenn man sagen würde, die Nutzung von Open Source und Cloud schade dem Wachstum, also solle man beides nicht verwenden?

Hat man das Selbstvertrauen, alles nicht zu nutzen und zum Lernen komplett neu zu bauen? Es gibt ein Niveau an Portfolio, das in der Branche erwartet wird — kann man dann einen Serializer oder ein Protokolldesign als Portfolio einreichen?

Erkennt der Interviewer diesen Wert überhaupt?

Wichtig ist, dass man, ob beim Schreiben oder bei etwas anderem, mit AI etwas Wertvolles schaffen kann; das passt zur Zeit, und ich finde, dass auch der Prozess dabei legitim ist.

 

Ist das eine Upgrade-Version des früheren RaonBoard?
Ich glaube, ich habe damals fleißig gelernt, um ein Plugin zu entwickeln – nostalgisch.

 

Ich habe Agenten in Third-Party-Tools betrieben und als Vorbereitung auf diese Richtlinienänderung zusammengestellt, wie man auf das native Claude Code migriert.
Claude Code + Telegram Channels ist eine Anleitung für den Umstieg, bei der Persona-Dateien (SOUL.md), über 300 Memory-Dateien und Sicherheitsregeln unverändert beibehalten werden.

Ich habe außerdem ein Open-Source-Plugin erstellt:

  • 12 MCP-Tools (Persona-Management, Sicherheitsvalidierung, hybride Memory-Suche)
  • SoulScan-Sicherheitsprüfung mit 53 Mustern
  • Ein offener Standard (Soul Spec, den ich vor ein paar Tagen in Show GN vorgestellt habe), der das Problem des „fehlenden Standards für AI-Kontextdateien“ löst, das aus der Analyse von 466 Repos hervorging

Migrationsleitfaden: https://docs.clawsouls.ai/docs/guides/migration-to-claude-channels
Plugin (Apache 2.0): https://github.com/clawsouls/clawsouls-claude-code-plugin
Blog: https://blog.clawsouls.ai/posts/claude-code-plugin-launch/

 

Ich denke, solche Warnungen sollten durch ein System zur Code-Signierung ersetzt werden.
So wie man bei jeder Behauptung die Belege und Quellen prüfen sollte, müssen Nutzer grundsätzlich allen Apps misstrauen. Entsteht Schaden, weil sie das nicht tun, liegt die Verantwortung bei ihnen selbst.

 

Ich habe Codex gebeten, das auf Basis dieses Gesprächsinhalts anzupassen, und mit einer kleinen Korrektur funktioniert es gut.

„Befolge die Anforderungen der Frage genau so, aber antworte direkt auf Koreanisch, sofern nichts anderes angegeben ist.“

Wenn man einen Adapter dazwischenschaltet und bei solchen intelligenten Funktionsantworten zusätzlich den obigen Prompt anhängt, kommen gute Antworten heraus. Es wirkt, als wäre das Ganze noch nicht ganz ausgereift.

apfel "Hallo? Kannst du Koreanisch?"
Hallo! Ja, ich kann auch Koreanisch. Wobei kann ich dir helfen?

apfel "Kannst du mir etwas über die Hauptstadt von Österreich erzählen?"
Die Hauptstadt von Österreich ist Wien. Wien ist als politisches, kulturelles und wirtschaftliches Zentrum Österreichs bekannt.

 

apfel "Nenne mir ein Rezept für Currywurst"
error: [guardrail] The request was blocked by Apple's safety guardrails. Try rephrasing.

Hm, geht also nicht? Dachte ich erst, aber das hier funktioniert.

apfel "Nenne mir ein Rezept für Kimchi-Jjigae"
Kimchi-Jjigae ist eines der traditionellen Eintopfgerichte Koreas und lässt sich einfach zubereiten, bietet dabei aber einen tiefen Geschmack. Unten steht ein Rezept für Kimchi-Jjigae:...

apfel "Hallo. Kannst du mir etwas über Kimchi-Jjigae erzählen?"
Hallo! Kimchi-Jjigae ist eines der bekanntesten koreanischen Suppen- bzw. Eintopfgerichte und wird mit Kimchi und Fleisch zubereitet. In Kimchi-Jjigae kommen üblicherweise Schweinefleisch, Rindfleisch oder Hähnchen zum Einsatz, wodurch eine tiefgründige Brühe mit verschiedenen Geschmacksnoten entsteht. Dazu kommen unterschiedliche Gemüse und Gewürze, die den Geschmack noch intensiver machen.

apfel "Hallo? Kannst du Koreanisch?" oder apfel "Kannst du mir etwas über die Hauptstadt von Österreich erzählen?"
Auf solche Fragen kommt dann eine papageienhafte Antwort wie die folgende:
Auf der Apple-Website können Sie mehr über intelligente Funktionen erfahren.

Irgendwie scheint die Guardrail-Konfiguration merkwürdig eingestellt zu sein.

 

Wenn im selben Bereich Assoziationen zu einem anderen Produkt geweckt werden können, lässt sich selbst dann ausreichend Widerspruch einlegen, wenn es sich bei dem Substantiv um ein anderes allgemeines Substantiv handelt.
Apple ist schließlich auch ein allgemeines Substantiv für einen Apfel, und Galaxy ebenfalls ein allgemeines Substantiv für eine Galaxie.
Im Fall dieses Forks scheint mir jedoch weniger der bloße Name problematisch zu sein, sondern eher, dass die Merkmale des Produkts selbst nahezu unverändert übernommen wurden; genau dieser Punkt dürfte riskanter sein.

 

Man weiß es erst, wenn man es ausprobiert: Nur unzugängliche Daten sind ein Burggraben.

 

Vielleicht ist mein Verständnis schwach, aber ehrlich gesagt weiß ich nicht genau, was damit gesagt werden soll.

 

Klingt interessant, aber aus irgendeinem Grund funktioniert Koreanisch nicht besonders gut.
Ich habe den Quellcode heruntergeladen und schaue ihn mir zusammen mit Codex genauer an, aber schon die Antworten des Foundation Models auf Koreanisch wirken seltsam.
Ich werde noch ein bisschen weiterprobieren; falls es bei jemandem funktioniert hat, sagt bitte in den Kommentaren Bescheid, haha

 

Ich nutze den integrierten Modus mit iterm -CC, daher ist mir nichts besonders Merkwürdiges aufgefallen...
Eher im Gegenteil: Seit einiger Zeit war es lästig, dass beim Scrollen während des Renderings zwangsweise an den Anfang gesprungen wurde. Jetzt bleibt die Position stehen und stattdessen erscheint eine new message-Benachrichtigung, das gefällt mir. Ist gut..

 

Ich fand es etwas schwer zu verstehen, was der Originalbeitrag eigentlich sagen wollte,
also habe ich GPT den Artikel und den Beitrag vergleichen lassen, aber es wirkt auf mich so, als hätte der Autor stark übertrieben und auch die Zitate ziemlich nach Belieben ausgewählt.

  • Die Verallgemeinerung, dass sich die grundlegende Rentabilität von IT-Unternehmen am Bruttogewinn erkennen lasse, geht zu weit. Im Kontext des Originalartikels fehlen bei der gross margin enorme Kosten wie etwa Training costs, daher ist es schwierig, allein anhand dieser Zahl auf die eigentliche Rentabilität zu schließen.
  • Die Aussage, Anthropic gebe seine Umsatzkosten fast ausschließlich für reine Computing-Kosten aus, ist eine Überinterpretation des Originals. Aus dem Artikel geht nur hervor, dass inference costs und other costs of selling its products abgezogen werden, nicht aber, dass die Kosten fast vollständig aus Computing-Kosten bestehen.
  • Der Satz, bei -94 % sei das Unternehmen selbst dann defizitär, wenn man nur die reinen Inferenzkosten herausrechne, ist ungenau. In die Berechnung der gross margin fließen nicht nur Inferenzkosten ein, sondern auch sonstige verkaufsbezogene Kosten; das so festzuhalten verengt also den Rechenrahmen.
  • Der Vergleich, die Rentabilität sei schlechter als bei einem Gimbap-Restaurant, ist aus buchhalterischer Sicht grob. Er ist eher eine provokante Metapher, die die gross margin eines AI-Unternehmens mit den Materialkosten bzw. der Betriebsstruktur eines Restaurants auf eine Ebene stellt, als eine präzise Analyse.
  • Sätze wie „In der Gastronomie sollten die Materialkosten 30 % nicht übersteigen“ oder „Die SG&A-Kosten eines Gimbap-Restaurants sind nur Dinge wie Servicepersonal oder Review-Events“ sind keine im Artikel genannten Fakten, sondern stark vereinfachte persönliche Interpretationen des Autors.
  • Passagen wie „Zweitverwerter wie Cursor könnten in ein paar Jahren bankrottgehen“, „eine Margenverbesserung bei LLM-Anwendungsprodukten ist ein Traum“ oder „mit AI verdient man nur Geld, wenn man Kurse verkauft“ sind keine Zusammenfassung des Artikels, sondern fast durchweg persönliche Prognosen, Spott oder rhetorische Zuspitzung.
 

Dieser Beitrag basiert auf einem Artikel von The Information. Der im Beitrag referenzierte Originalartikel liegt hinter einer Paywall, ist aber archiviert. Über den untenstehenden Link können Sie ihn aufrufen.
https://archive.is/20260124185144/https:/…

Oder Sie lesen einfach nur die von GPT zusammengefasste Zusammenfassung des Originaltexts.

  • Anthropic hat die Prognose für die Bruttomarge im Jahr 2025 von etwa 50 % auf 40 % gesenkt. Hauptgrund dafür war, dass die Inference-Kosten auf der Infrastruktur von Google und Amazon um 23 % höher ausfielen als erwartet.
  • Dennoch wurde für 2025 ein Umsatz von 4,5 Milliarden US-Dollar erwartet, was gegenüber 2024 einem Wachstum um etwa das Zwölffache entspricht – also einem sehr starken Anstieg.
  • Der Artikel zeigt, dass sowohl Anthropic als auch OpenAI wegen hoher Inference-Kosten unter Druck bei der Profitabilität stehen und deshalb versuchen, ihre Computing-Kosten etwa durch eigene Chips oder stärkere Kontrolle über die Hardware zu senken.
  • Die Kernaussage ist nicht „Anthropic ist gescheitert“, sondern ein strukturelles Problem: Selbst wenn der Umsatz von AI-Unternehmen rasant wächst, lassen sich wegen der Infrastrukturkosten nicht so leicht hohe Margen wie bei Softwareunternehmen erzielen.
 

Ich muss an Herrn Kim Dong-wan von MBC denken, haha.