65 Zeilen Text haben AI-Coding verändert? Was hinter der Datei steckt, die an einem Tag 400 Stars bekam
(tildeweb.nl)Eine nur 65 Zeilen lange Markdown-Datei (CLAUDE.md), die die von Andrej Karpathy aufgezeigten Probleme beim LLM-Coding lösen soll, hat auf GitHub explosionsartig an Popularität gewonnen und unter Claude-Code-Nutzern für Aufsehen gesorgt: „Wenn man nur diese eine Datei hinzufügt, wird die AI deutlich klüger.“
Die explosionsartige Popularität der Datei
- die Datei
CLAUDE.mdim GitHub-Repositoryforrestchang/andrej-karpathy-skills - innerhalb eines Tages kamen über 400 Stars hinzu → insgesamt fast 4.000
- auch als VS-Code- und Cursor-Erweiterung portiert und dadurch leicht nutzbar
Inhalt der Datei: 4 Kernprinzipien (inspiriert von Karpathys Kritik am LLM-Coding)
- Think Before Coding (erst denken, dann Code tippen): Annahmen offenlegen, bei Unsicherheit nachfragen, bei Verwirrung anhalten
- Simplicity First (Einfachheit zuerst): keine nicht angeforderten Features, Abstraktionen oder Error-Handling hinzufügen
- Surgical Changes (präzise Änderungen wie bei einer Operation): nur die angeforderten Stellen ändern und den Rest unberührt lassen
- Goal-Driven Execution (zielorientierte Ausführung): statt „Feature hinzufügen“ in konkrete Ziele wie „Tests zum Bestehen bringen“ übersetzen
→ Werden diese Prinzipien als Prompt eingespeist, berichten viele Nutzer, dass Claude weniger zu übertriebener Kreativität, abwegigen Annahmen und unnötigem Refactoring neigt und stattdessen stabileren und besser vorhersehbaren Code schreibt.
Was Michiel Beijen (Autor des ursprünglichen Blogposts) getan hat
- obwohl er Claude Code nicht nutzt, hielt er die Datei für gut
- er erstellte selbst Erweiterungen für Cursor und VS Code und veröffentlichte sie
- nach eigener Nutzung lautete sein Fazit sinngemäß: „Vielleicht wirkt es, vielleicht auch nicht …“ (wegen der Nichtdeterministik schwer sicher zu sagen)
- dennoch räumt er ein, dass viele Menschen eine spürbare Wirkung berichten
Was die Leute daran so schockiert hat
- riesige LLM-Unternehmen haben Modelle über Jahre hinweg mit Investitionen in Billionenhöhe trainiert
- und doch kann ein Text von gerade einmal 65 Zeilen die Qualität sichtbar verbessern
- das wird als extremer Fall interpretiert, in dem „der Prompt das Modell selbst schlagen kann“
- die einfachen Richtlinien fangen offenbar einige der chronischen LLM-Probleme auf, die Karpathy benannt hat (zu viele Annahmen, Ignorieren von Verwirrung, kein Aufzeigen von Trade-offs usw.)
Fazit
- Ob der Effekt wirklich existiert, lässt sich nicht mit 100%iger Sicherheit sagen, aber viele Entwickler empfinden einen klaren Unterschied
- Ein symbolträchtiges Beispiel dafür, wie mächtig Prompt-Hacking / Context Engineering im LLM-Zeitalter sein kann
Noch keine Kommentare.