Es gibt bereits gut strukturierte Frameworks und reichlich Material, an dem KI trainiert wurde. Muss man da wirklich noch etwas völlig Eigenes neu bauen? Mir scheint das eher die Produktivität zu verringern.
Ich denke nicht, dass man etwas wieder verwerfen muss, das die Kosten für die Architektur gesenkt hat und es ermöglicht, sich auf das Wesentliche (den Service) zu konzentrieren.

 

Ich habe auch den Eindruck, dass es eine gewisse Verklärung von „handgeschriebenem Code“ gibt.

Die Richtung „mit wenig Schreibaufwand viel erreichen“ gab es schon immer,
und selbst unabhängig von AI war die Stimmung zur Zeit des Aufkommens von GC wohl ähnlich.

Auch wenn man Code von Hand schreibt, denkt man oft, mit dem eigenen Code sei alles in Ordnung, aber wenn Probleme auftreten, schaut man sich am Ende doch den internen Code oder den Speicher an.
Selbst wenn man Prompts von Hand schreibt und denkt, mit den eigenen Prompts sei alles in Ordnung, wird es bei Problemen wohl genauso sein, dass man in den internen Code schaut.
Natürlich wird vermutlich auch das größtenteils durch AI-Services gelöst werden.

Ich stelle mir auch vor, dass handgeschriebener Code in gewisser Weise zu moderner Kunst werden könnte … haha

 

Hm ... ist diese Praxis nicht eher aus der Zeit, als Cursor unbegrenzte Nutzung angeboten hat ...? Eher scheint mir zumindest vorerst die Richtung zu sein: Wie kann man Token sparen und AI gut unterstützen?

Auch ohne teure Tokenpreise kann man Duplikate beseitigen — warum sollte man dann keinen Frameworks verwenden?

 

DoNotNotify – Benachrichtigungen auf Android protokollieren und intelligent blockieren

Als das Thema damals erstmals gepostet wurde, gab es Bedenken, dass es riskant sei, wenn eine nicht Open-Source-Third-Party-App sämtliche meiner Textnachrichten sehen kann; das wurde nun berücksichtigt, und die App wurde gleich komplett Open Source gemacht.

 

Es scheint, als gäbe es wegen der Aufmerksamkeit einige Missverständnisse, deshalb wurde ein separates FAQ zusammengestellt.
https://x.com/mitchellh/status/2020628046009831542

  • Für Anfänger und neue Mitwirkende ist die Teilnahme schwierig
    • Es gibt überhaupt keinen Grund, warum es schwierig sein sollte, ein Vouch zu bekommen
    • Der Hauptzweck von Vouch ist es, eine gedankenlose Teilnahme ohne eigenen Einsatz zu verhindern
    • In meinen Projekten (einschließlich dieses Projekts) kann man ein Vouch erhalten, wenn man sich in einem Issue kurz vorstellt und knapp erklärt, wie man beitragen möchte
    • Kurz gesagt: Wenn man sich wie im normalen sozialen Miteinander kurz vorstellt, kann man ein Vouch bekommen
    • Wer jedoch seine Rechte innerhalb der Gruppe missbraucht, wird sanktioniert
  • Anfällig für Social Engineering
    • Nutzer mit einem Vouch erhalten nur die Berechtigung, am Projekt teilzunehmen
    • Sie erhalten keine Rechte zum Mergen von Pull Requests, zum Pushen von Code oder für Releases
    • All diese Aktionen bleiben durch bestehende Reviews und Systemkontrollen eingeschränkt
    • Außerdem können nur Administratoren/Mitwirkende Nutzer empfehlen
    • Deshalb kann ein problematischer Nutzer, selbst wenn er empfohlen wurde, keine anderen Nutzer empfehlen
  • Es gibt kein Einspruchsverfahren für Denouncing.
    • Das Einspruchsverfahren unterscheidet sich je nach Unterprojekt
    • In meinen Projekten gilt: Wenn ihr uns über Discord, E-Mail oder irgendeinen anderen Weg kontaktiert, wie Menschen mit uns sprecht und euren Fehler einräumt, geben wir euch erneut eine Chance. Das ist nicht schwierig
  • Der Kern dieses Projekts ist, dass AI Menschen über API-Aufrufe Informationen bereitstellt und dadurch bestehende natürliche Hürden minimiert
  • In einem menschenzentrierten Community-Projekt ist menschliche Interaktion nur an den Grenzen erforderlich
 

Keine besonders gelungene Übersetzung...
Ich werde es künftig etwas lesbarer aufbereitet teilen..
Danke für den Kommentar

 

Ich bin eher froh darüber, dass die Menge dessen, was ich lernen kann, explosionsartig zugenommen hat.
Selbst Dinge, die für mich schwer zu schreiben sind, schreibe ich danach und lerne dann fleißig weiter.

Von Anfang an denke ich, dass in großen Unternehmen oder bei wirklich wichtigen Projekten am Ende ohnehin alles von Menschen geprüft werden muss, daher könnte das Lernen aus meiner Sicht kaum spannender sein.

 

„Welche Aufgabe wäre als Nächstes gut?“
Auf einmal wurden zusätzlich 3,46 $ berechnet, und es scheint nicht durch das Abo-Modell abgedeckt zu sein.
Vor Kurzem haben sie wohl auch die 50 $ gegeben, damit man genau das hier mal ausprobiert, lol

 

Selbst wenn Sie sagen, dass ein Unternehmen, das 40 % des weltweiten Speichers hortet, sich um das Gemeinwohl der Erde kümmert ...

 

Wenn ein geomagnetischer Sturm die Erde trifft und zurücksetzt, kommt das goldene Zeitalter.

 

Der Vergleich mit Excel-Funktionen und einem Taschenrechner scheint mir falsch zu sein.
Wenn ein LLM eine Genauigkeit von 100 % hätte, würde ich das akzeptieren..

 

Erstaunlich, wie viele negative Meinungen es hier gibt.

 

Was ist das denn jetzt schon wieder … Aus der Sicht von OpenAI, die von Chipsätzen bis zu Rechenzentren nichts selbst herstellen oder betreiben, gilt doch: Wenn der Software-Stack optimiert wird, kann man um den freiwerdenden Spielraum entsprechend hochskalieren, daher ist eher die Gewinnmaximierung als Umweltschutz das Ziel (wie im HN-Kommentar: Jevons-Paradoxon).

Es ist ein so stark auf Selbst-PR getrimmter Post, dass das Lesen schon peinlich ist.

 

Ich bin ein Entwickler für Hardwaresteuerung, eher ein paar Ebenen über Embedded angesiedelt und vor allem mit Python unterwegs. Bis vor ein paar Wochen war ich sogar irgendwie stolz darauf, mich dem Vibe Coding zu widersetzen, und wenn es umständlich war, eine Debugging-Session aufzusetzen, war das Höchste der LLM-Nutzung, zu der ich mich durchgerungen habe, den heruntergeschriebenen Code bei GPT einzufügen und zu sagen: „Finde hier meinen Fehler.“

Ich habe Claude eingerichtet, gemeinsam mit ihm Schritt für Schritt eine CLAUDE.md geschrieben, während ich mir alles freundlich erklären ließ, und nachdem ich ihn ein- oder zweimal genutzt hatte, merkte ich irgendwann, dass ich mich wirklich auf ihn zu verlassen begann.

Selbst bei einfachen Schleifen muss ich mir keine Gedanken mehr darüber machen, ob ich mich bei break/continue vertan habe; wenn es mir zu lästig ist, etwas in Worte zu fassen, schreibe ich es eben erst einmal grob runter und sage dann: „Schau mal nach Tippfehlern“; und allein mit der in CLAUDE.md geordneten Struktur findet er den Kontext erstaunlich schnell von selbst. Und wenn ich dann ein neues Subsystem implementieren will, denke ich plötzlich: „Dafür gibt es ohnehin noch keinen Kontext, auf den er sich stützen könnte, also kann er es doch einfach selbst schreiben, oder?“

Und dann fängt es wirklich langsam an, mir Angst zu machen. Die Sorge „Was, wenn ich so gedankenlos code und ich vor Ort am Ende diesen Code — nicht von mir geschrieben, sondern von ihm — selbst nicht mehr verstehe?“ ist noch die leichtere Sorge. Viel schlimmer ist diese Unruhe, dass ich tatsächlich von der Welle des Vibe Coding abgehängt werde, und dazu kommt, dass ich eigentlich jemand war, dem es Spaß gemacht hat, Handbücher zu lesen. Schon dass ich immer seltener in Handbücher schauen muss, ist seltsam genug — aber noch mehr löst es in mir eine existenzielle Angst aus, als würde das Wissen, das ich mir durch diese Handbücher aufgebaut habe, entwertet.

Wirklich, ich habe gerade solche Angst..

 

Dass auch macOS-Apps unterstützt werden, finde ich interessant.
iOS: Ich habe bislang https://github.com/joshuayoes/ios-simulator-mcp verwendet – gibt es hier vielleicht Unterschiede? (z. B. läuft es schneller?)

 

Tatsache ist, dass sogar das Debugging künftig die KI von selbst erledigen wird.

 

Es ist nicht vollständig identisch, aber zugleich auch nicht völlig verschieden.
Wenn es ähnlich ist, bedeutet das, dass es gemeinsame Teile gibt,
am Ende hängt es also wohl vom Blickwinkel darauf ab, wie ähnlich es ist, dass Menschen unterschiedlicher Meinung sind.

Man kann es nicht als identisch ansehen, aber ich halte es für ähnlich,
und ich denke, dass das aus der Perspektive von geek12356s Kommentar über Vorhersage und Denken so ist.

Gleichzeitig vertrete ich auch die Sichtweise, dass es sich vom Menschen unterscheidet, weil seine Intelligenz höher ist als die des Menschen.

 

Bei Claude Code sind sowohl das Modell als auch der Agent de facto in einer dominanten Position. Zum jetzigen Zeitpunkt ist die Wahl von etwas anderem als Claude immer nur die zweitbeste Option, und man wird auch Google und OpenAI verwenden.

 

Bei Embedded-Systemen debuggen wir wegen ein oder zwei Zeilen immer noch bis 2 Uhr morgens ... haha. Und was nicht in der Dokumentation steht, weiß selbst Claude Code nicht ..

 

Bitte behandeln Sie auch Comonaden!