Ich mache mir auch Sorgen um Junioren, die schon seit ihrer Studienzeit mit LLMs in Berührung gekommen sind. Ich habe auch den Eindruck, dass sich der Pool für die Einstellung von Junioren etwas verschlechtert hat, aber das ist wiederum schwer zu belegen...
Das frage ich mich immer wieder: Es ist sicher gut, wenn Leute, die bereits durch manuelles Codieren geprägt wurden, LLMs überwachen. Aber für Menschen, die gerade erst anfangen zu lernen, dürfte es schwer sein zu beurteilen, ob etwas richtig ist oder nicht, wenn sie nur auf den Code schauen, den das LLM erzeugt.
Haben sich die Leute, die früher in Assembler programmiert haben, wohl beim Aufkommen der Compiler gefragt, wie man einem Compiler vertrauen soll, der so miserablen Assembler-Output ausspuckt?
Damals haben sie wahrscheinlich auch in C programmiert und dabei so codiert, dass der erzeugte Assembler-Output möglichst so ausfiel, wie sie es wollten.
Ich frage mich, ob sich das im KI-Zeitalter so weiterentwickeln wird, dass am Ende auch ohne menschliche Aufsicht per natürlicher Sprache ein fertiges Ergebnis zuverlässig herauskommt.
Aber Tests und toter Code müssen weiterhin gepflegt werden, und es braucht Details zu Testfällen und zu den Kriterien, wann Tests als bestanden gelten. Wichtig ist die Steuerung dessen, was bis zu welchem Grad erledigt werden soll. Dafür müssen nicht nur die Pläne, sondern auch die Architektur, die die Harness bereitstellt, sowie die Einstellungen von Rules und Ähnlichem kontinuierlich aktualisiert werden.
Dem stimme ich weitgehend zu. Im aktuellen Projekt habe ich etwa 100.000 Zeilen committet (die tatsächliche Code-Menge ist noch größer) und nutze im Schnitt 2–3 Agenten. Ich würde sagen, dass etwa 95 % von Agenten geschrieben werden.
Offenbar gab es von Anthropic eine Bitte in Sachen Markenrecht. Das wurde wohl recht humorvoll gelöst und dann geändert.
Weil der Hummer sich gehäutet hat (molt), heißt er jetzt Moltbot. Den Titel habe ich ebenfalls angepasst.
Stimmt. Man könnte einen Hook einbauen, damit nach Abschluss der Implementierung auch die Spezifikation aktualisiert wird, und selbst wenn nicht, könnte man noch einen Befehl oder eine Skill hinzufügen, um die Spezifikation manuell zu aktualisieren, haha
Ich halte das für etwas anderes.
Natürlich kann man versuchen, nützlich zu werden, weil man denkt: „Wenn ich nicht nützlich bin, wird mich niemand lieben.“
Ich bin aber jung, groß, gut aussehend und auch noch wohlhabend, und ich schöpfe meine Motivation daraus, dass andere mein Produkt mögen.
Im Gegenteil hatte ich oft den Eindruck, dass Menschen mit geringem Selbstwertgefühl eher zurückhaltend beim Helfen und defensiv sind und sichtbare Ergebnisse stärker gewichten.
Es gab also auch eine Anti-Stalking-Funktion.
Ich habe es ganz normal problemlos benutzt.
Zur Diebstahlsicherung kann man ohnehin nicht nur AirTag, sondern auch keine anderen Produkte verwenden, also spielt das keine Rolle.
Ich mache mir auch Sorgen um Junioren, die schon seit ihrer Studienzeit mit LLMs in Berührung gekommen sind. Ich habe auch den Eindruck, dass sich der Pool für die Einstellung von Junioren etwas verschlechtert hat, aber das ist wiederum schwer zu belegen...
Auf Grundlage des Inhalts dieses Beitrags wurde offenbar auch eine Skills-Version veröffentlicht, die das Verhalten von Claude Code verbessert.
Karpathy-Inspired Claude Code Guidelines : https://github.com/forrestchang/andrej-karpathy-skills
Das frage ich mich immer wieder: Es ist sicher gut, wenn Leute, die bereits durch manuelles Codieren geprägt wurden, LLMs überwachen. Aber für Menschen, die gerade erst anfangen zu lernen, dürfte es schwer sein zu beurteilen, ob etwas richtig ist oder nicht, wenn sie nur auf den Code schauen, den das LLM erzeugt.
Haben sich die Leute, die früher in Assembler programmiert haben, wohl beim Aufkommen der Compiler gefragt, wie man einem Compiler vertrauen soll, der so miserablen Assembler-Output ausspuckt?
Damals haben sie wahrscheinlich auch in C programmiert und dabei so codiert, dass der erzeugte Assembler-Output möglichst so ausfiel, wie sie es wollten.
Ich frage mich, ob sich das im KI-Zeitalter so weiterentwickeln wird, dass am Ende auch ohne menschliche Aufsicht per natürlicher Sprache ein fertiges Ergebnis zuverlässig herauskommt.
Nun ja. Wie erwartet reichen Wahrheit und Erkenntnis offenbar in einem einzigen Satz aus.
Aber Tests und toter Code müssen weiterhin gepflegt werden, und es braucht Details zu Testfällen und zu den Kriterien, wann Tests als bestanden gelten. Wichtig ist die Steuerung dessen, was bis zu welchem Grad erledigt werden soll. Dafür müssen nicht nur die Pläne, sondern auch die Architektur, die die Harness bereitstellt, sowie die Einstellungen von Rules und Ähnlichem kontinuierlich aktualisiert werden.
Dem stimme ich weitgehend zu. Im aktuellen Projekt habe ich etwa 100.000 Zeilen committet (die tatsächliche Code-Menge ist noch größer) und nutze im Schnitt 2–3 Agenten. Ich würde sagen, dass etwa 95 % von Agenten geschrieben werden.
> LLM-Coding führt dazu, dass sich Ingenieure in diejenigen aufteilen, die das Programmieren selbst lieben, und diejenigen, die das Bauen lieben.
Wenn ich die Dinge zusammennehme, die ich auch in meinem Umfeld höre, scheint es am Ende tatsächlich genau auf diese Unterscheidung hinauszulaufen.
https://laravel-news.com/clawdbot-rebrands-to-moltbot-after-trademark-…
Offenbar gab es von Anthropic eine Bitte in Sachen Markenrecht. Das wurde wohl recht humorvoll gelöst und dann geändert.
Weil der Hummer sich gehäutet hat (
molt), heißt er jetzt Moltbot. Den Titel habe ich ebenfalls angepasst.Die Person hat Asahi verlassen … schluchz
Stimmt. Man könnte einen Hook einbauen, damit nach Abschluss der Implementierung auch die Spezifikation aktualisiert wird, und selbst wenn nicht, könnte man noch einen Befehl oder eine Skill hinzufügen, um die Spezifikation manuell zu aktualisieren, haha
Aktualisieren Sie die Spezifikation.
Ach, ich will nicht alt werden.
Ich halte das für etwas anderes.
Natürlich kann man versuchen, nützlich zu werden, weil man denkt: „Wenn ich nicht nützlich bin, wird mich niemand lieben.“
Ich bin aber jung, groß, gut aussehend und auch noch wohlhabend, und ich schöpfe meine Motivation daraus, dass andere mein Produkt mögen.
Im Gegenteil hatte ich oft den Eindruck, dass Menschen mit geringem Selbstwertgefühl eher zurückhaltend beim Helfen und defensiv sind und sichtbare Ergebnisse stärker gewichten.
Das Konzept des Vibecoding gibt es noch nicht einmal seit einem vollen Jahr, was für ein typisches SNS-Gepose lol
Vortasten??
Ist das ein KI-generierter Text?
Haha, 90 190, haha
Anscheinend haben sie den Namen jetzt plötzlich in Moltbot geändert, vielleicht weil Anthropic wegen der Ähnlichkeit des Namens Einwände erhoben hat.
Hat Spaß gemacht zu lesen, danke.
Es gab also auch eine Anti-Stalking-Funktion.
Ich habe es ganz normal problemlos benutzt.
Zur Diebstahlsicherung kann man ohnehin nicht nur AirTag, sondern auch keine anderen Produkte verwenden, also spielt das keine Rolle.