Ich habe das Gefühl, dass der Aktienkurs noch weiter steigen wird.....

 

Sie ist zwar ins Streaming zurückgekehrt, hat ihren Namen aber in Hoshino Rina geändert und zeigt dort einfach unabhängige Open-Source-Beiträge.
In letzter Zeit hat sie daran gearbeitet, dass eine Streaming-Auslieferungs-App?Bibliothek? namens Spout2 unter Linux gut läuft.

 

Erstaunlich, dass überhaupt noch ein Update gekommen ist.

 

Persönlich denke ich, dass es kaum einen Unterschied macht, solange man CS-Wissen hat.
Oder vielleicht liegt es daran, dass ich es derzeit so nutze, als würde ich Pair Programming mit einem Freund machen, der extrem schnell tippt und den gesamten Code für mich schreibt...

 

Ich habe das Gefühl, dass zu 100 % Claude die Arbeit macht? Was ist da los?

 

Ich weiß nicht, ob das ein Bericht oder ein Roman ist. Vor zehn Jahren wäre es eindeutig Science-Fiction gewesen.

 

Wow … sie bieten wirklich lange Support.

 

Wenn man sich bemüht, den erzeugten Code zu analysieren und zu verstehen, scheint das in Ordnung zu sein.

Bei Compilern ist das ein etwas anderes Konzept: Da sie regelbasiert Assembly erzeugen, bewegen sie sich in einem deterministischen Bereich. Deshalb tritt ein Problem, wenn es einmal überprüft wurde, danach in der Regel nicht erneut auf. LLMs hingegen befinden sich in einem probabilistischen Bereich, sodass Probleme erneut auftreten können.

Ob sich diese probabilistische Genauigkeit weiterentwickelt und nahezu 100 Prozent erreicht, weiß ich nicht. Wenn jedoch schon die natürlichsprachige Anforderung selbst ungenau ist, wird am Ende auch das Ergebnis ungenau sein. Daher hängt eine gute fertige Lösung letztlich doch vom Menschen ab, denke ich.

 

Letztlich kommt beim tieferen Entwickeln unweigerlich der Punkt, an dem man wissen muss, was innerhalb der Abstraktionsschicht passiert.
Die Kluft zwischen natürlichsprachlichem Prompt und generiertem Code ist jedoch zu groß, sodass es schwierig erscheint, vom Prompt aus in das Innere der LLM-Abstraktionsschicht vorzudringen.

Im Moment übermitteln wir dem LLM das Konzept der Spezifikation aus unserem Kopf per Prompt und lesen den geschriebenen Code anschließend erneut, um ihn zu verifizieren.
Das kommt eher einer Review von Code nahe, den jemand anderes geschrieben hat, sodass es sich nicht so anfühlt, als würde man in das Innere der Abstraktion eintauchen.

 

Unterstützte Geräte
Apple Watch Series 9 und spätere Modelle oder Apple Watch Ultra 2 und spätere Modelle.

 

Ich wusste das schon, bevor die Ankündigung erschien.
Denn ich hatte bereits eine Benachrichtigung von meiner Watch erhalten, dass bei mir der Verdacht auf Bluthochdruck besteht.. schluchz schluchz
Ich muss Sport machen. Leute

 

Ich habe den Eindruck, dass OpenAI immer noch keinen klaren Kurs findet.

 

Ist nicht nur Ddongi TV zurückgekehrt? Was ist das denn für ein Team Hongcheol ohne Hongcheol..

 

Ich mache mir auch Sorgen um Junioren, die schon seit ihrer Studienzeit mit LLMs in Berührung gekommen sind. Ich habe auch den Eindruck, dass sich der Pool für die Einstellung von Junioren etwas verschlechtert hat, aber das ist wiederum schwer zu belegen...

 

Auf Grundlage des Inhalts dieses Beitrags wurde offenbar auch eine Skills-Version veröffentlicht, die das Verhalten von Claude Code verbessert.

Karpathy-Inspired Claude Code Guidelines : https://github.com/forrestchang/andrej-karpathy-skills

 

Das frage ich mich immer wieder: Es ist sicher gut, wenn Leute, die bereits durch manuelles Codieren geprägt wurden, LLMs überwachen. Aber für Menschen, die gerade erst anfangen zu lernen, dürfte es schwer sein zu beurteilen, ob etwas richtig ist oder nicht, wenn sie nur auf den Code schauen, den das LLM erzeugt.
Haben sich die Leute, die früher in Assembler programmiert haben, wohl beim Aufkommen der Compiler gefragt, wie man einem Compiler vertrauen soll, der so miserablen Assembler-Output ausspuckt?
Damals haben sie wahrscheinlich auch in C programmiert und dabei so codiert, dass der erzeugte Assembler-Output möglichst so ausfiel, wie sie es wollten.
Ich frage mich, ob sich das im KI-Zeitalter so weiterentwickeln wird, dass am Ende auch ohne menschliche Aufsicht per natürlicher Sprache ein fertiges Ergebnis zuverlässig herauskommt.

 

Nun ja. Wie erwartet reichen Wahrheit und Erkenntnis offenbar in einem einzigen Satz aus.

 

Aber Tests und toter Code müssen weiterhin gepflegt werden, und es braucht Details zu Testfällen und zu den Kriterien, wann Tests als bestanden gelten. Wichtig ist die Steuerung dessen, was bis zu welchem Grad erledigt werden soll. Dafür müssen nicht nur die Pläne, sondern auch die Architektur, die die Harness bereitstellt, sowie die Einstellungen von Rules und Ähnlichem kontinuierlich aktualisiert werden.

 

Dem stimme ich weitgehend zu. Im aktuellen Projekt habe ich etwa 100.000 Zeilen committet (die tatsächliche Code-Menge ist noch größer) und nutze im Schnitt 2–3 Agenten. Ich würde sagen, dass etwa 95 % von Agenten geschrieben werden.