34 Punkte von darjeeling 2025-03-12 | 1 Kommentare | Auf WhatsApp teilen

1. Realistische Erwartungen setzen (Set reasonable expectations)

  • Kernaussage:
    Man sollte sich bewusst machen, dass LLMs im Wesentlichen fortgeschrittene Autovervollständigungswerkzeuge sind. Vertraut man vollständig auf sie, kann das zu Fehlern oder ungenauen Ergebnissen führen.
  • Anwendung:
    Nutze sie als Hilfswerkzeug, das die eigenen Programmierfähigkeiten ergänzt, und behalte eine Haltung bei, die überzogene Erwartungen vermeidet und Fehler überprüft.

2. Den Cut-off-Zeitpunkt der Trainingsdaten berücksichtigen (Account for training cut-off dates)

  • Kernaussage:
    Die Aktualität der Trainingsdaten des Modells kann begrenzt sein, daher ist bei neuen Bibliotheken oder technischen Änderungen Vorsicht geboten.
  • Anwendung:
    Bevorzuge Bibliotheken, deren Stabilität und allgemeine Nutzbarkeit belegt sind. Wenn aktuelle Technologien nötig sind, gleiche das durch selbst bereitgestellte Beispiele aus.

3. Die Bedeutung des Kontexts (Context is king)

  • Kernaussage:
    Die gesamte Gesprächshistorie (Prompts und Antworten) beeinflusst das Ergebnis, daher ist Kontext-Management wichtig.
  • Anwendung:
    Bei komplexen Aufgaben solltest du bestehenden Code in die Unterhaltung einbeziehen, damit das Modell ihn berücksichtigen kann, und bei Bedarf ein neues Gespräch zur Zurücksetzung starten.

4. Nach verschiedenen Optionen fragen (Ask them for options)

  • Kernaussage:
    In der frühen Recherchephase kann man das LLM nach mehreren Implementierungsoptionen und Beispielen fragen, um mögliche Wege zu erkunden.
  • Anwendung:
    Stelle Fragen wie „Welche Optionen gibt es?“, um technische Möglichkeiten zu prüfen, und arbeite danach auf Basis der gewählten Option weiter ins Detail.

5. Genaue Anweisungen geben (Tell them exactly what to do)

  • Kernaussage:
    Beim Schreiben von produktionsreifem Code sollte man detaillierte und klare Anweisungen geben, damit die gewünschte Funktion präzise umgesetzt wird.
  • Anwendung:
    Gib konkrete Vorgaben wie Funktionssignaturen, zu verwendende Bibliotheken oder Exception-Handling an, damit das LLM den Code entsprechend den Anforderungen schreibt.

6. Den geschriebenen Code unbedingt testen (You have to test what it writes!)

  • Kernaussage:
    Auch bei von LLMs erzeugtem Code muss unbedingt geprüft werden, ob er tatsächlich funktioniert; dafür sind automatisierte Tests und manuelle Verifikation nötig.
  • Anwendung:
    Überprüfe den erzeugten Code mit Test-Frameworks wie pytest, um sicherzustellen, dass er korrekt funktioniert.

7. Die Interaktion als Gespräch verstehen (Remember it’s a conversation)

  • Kernaussage:
    Die Interaktion mit einem LLM ist kein einmaliger Vorgang, sondern ein iterativer Gesprächsprozess, durch den sich Ergebnisse verbessern lassen.
  • Anwendung:
    Wenn das erste Ergebnis unzureichend ist, verbessere und refaktoriere den Code durch zusätzliche Anweisungen oder Feedback.

8. Werkzeuge nutzen, die den Code für dich ausführen können (Use tools that can run the code for you)

  • Kernaussage:
    Mit ausführbaren Sandbox-Umgebungen oder integrierten Entwicklungswerkzeugen lässt sich der vom LLM geschriebene Code tatsächlich ausführen.
  • Anwendung:
    Nutze Tools mit sicheren Ausführungsumgebungen wie ChatGPT Code Interpreter oder Claude Artifacts, um in Echtzeit zu prüfen.

9. Mit „Vibe-Coding“ lernen (Vibe-coding is a great way to learn)

  • Kernaussage:
    Das ist eine Methode, bei der man durch wiederholte und freie Experimente lernt, wie man LLMs nutzt, und unterschiedliche Ideen schnell ausprobiert.
  • Anwendung:
    Beginne mit einfachen Funktionen und verbessere sie iterativ, um die Grenzen des LLM kennenzulernen und dein eigenes Programmiergefühl zu schärfen.

10. Detailliertes Beispiel mit Claude Code (A detailed example using Claude Code)

  • Kernaussage:
    Anhand eines realen Projektbeispiels wird gezeigt, wie Claude Code konkrete Anforderungen aufgreift und Aufgaben ausführt.
  • Anwendung:
    Orientiere dich an dem Prozess, bei dem über schrittweise Prompts und Feedback komplexe Aufgaben wie das Erstellen eines Python-Skripts und einer HTML-Seite umgesetzt werden.

11. Notwendigkeit menschlichen Eingreifens (Be ready for the human to take over)

  • Kernaussage:
    Auch in von LLMs generiertem Code können Fehler oder ungeeignete Stellen vorkommen, deshalb müssen die abschließende Prüfung und Korrektur unbedingt von Menschen übernommen werden.
  • Anwendung:
    Prüfe Details und subtile Fehler, die das LLM übersehen könnte, selbst und ergänze sie, um ein hochwertiges Ergebnis zu erhalten.

12. Maximierung der Entwicklungsgeschwindigkeit (The biggest advantage is speed of development)

  • Kernaussage:
    Mit LLMs lassen sich Prototyping und wiederkehrende Arbeiten deutlich beschleunigen.
  • Anwendung:
    Nutze LLMs aktiv für die Validierung früher Ideen und für einfache Code-Erstellung, um Entwicklungszeit zu sparen.

13. Verstärkung vorhandener Fachkenntnisse (LLMs amplify existing expertise)

  • Kernaussage:
    Erfahrene Entwickler können mit LLMs ihre Fachkompetenz weiter verstärken und ihre Produktivität steigern.
  • Anwendung:
    Gib dem LLM auf Grundlage deiner Erfahrung und deines Wissens klare Anweisungen, um präzisere Ergebnisse zu erhalten.

14. Zusatzfunktion: Fragen zu Codebases beantworten (Bonus: answering questions about codebases)

  • Kernaussage:
    LLMs lassen sich auch nützlich einsetzen, um Fragen zu einer Codebase zu beantworten oder bestimmte Teile des Codes zu erklären.
  • Anwendung:
    Stelle Fragen zur Struktur des Codes oder zu einzelnen Funktionen und nutze das Modell, um Erklärungen oder Dokumentation dazu zu erzeugen.

1 Kommentare

 
junghan0611 2025-03-27

Dieser Blog ist wirklich beeindruckend. Danke.