So viel TDD man auch betreibt – auf dem aktuellen Stand, bei dem das LLM Tests manipuliert, damit sie bestanden werden, ist menschliches Review unbedingt nötig..
Das dürfte wirklich ein ziemlich unterhaltsames Kräftemessen gewesen sein.
Ich hatte auch mal den Fall, dass API-Antworten plötzlich verschlüsselt ankamen. Da dachte ich mir: Wenn ich einen verschlüsselten Wert bekomme, wird der Client ihn irgendwo auch wieder entschlüsseln. Also habe ich einfach den gebündelten JavaScript-Code als Ganzes kopiert, direkt vor den Entschlüsselungscode eine Zeile mit console.log eingefügt und das Ganze dann unverändert in die Entwicklerkonsole eingefügt. Überraschenderweise hat es einfach funktioniert. Jedenfalls war danach alles leicht, sobald ich den Verschlüsselungsschlüssel herausgefunden hatte. Der Schlüssel wurde nämlich aus einer anderen API-Antwort übernommen und verwendet, haha.
Kleine Modelle wirken offenbar umso komplexer. Funktionen für Encoding, Inferenz und Decoding sind stärker miteinander verflochten und über den gesamten Modellbereich verteilt. Ich habe keine überlappenden Funktionsbereiche gefunden, die sich über mehrere Aufgaben hinweg verallgemeinern lassen, aber es war klar erkennbar, dass die Stärkung einer bestimmten „Fähigkeit“ andere Fähigkeiten schwächen kann. Je größer das Modell jedoch wird, desto stärker trennt sich die funktionale Struktur auf. Große Modelle haben mehr „Raum“, um verallgemeinerte „Denk“-Schaltkreise zu entwickeln, und das könnte der Grund sein, warum meine Methode beim 72B-Modell so gut funktioniert hat. Unterhalb eines bestimmten Schwellenwerts an Parametern ist der „Inferenzkortex“ noch nicht vollständig vom Rest des Gehirns differenziert.
Wenn das so weitergeht, könnte sich der Leistungsunterschied zwischen kleinen und großen Modellen noch deutlich extremer vergrößern.
Ich sehe oft die Formulierung, dass man eine emotionale Bindung zu Code hat,
aber ich war mir schon früher nie sicher, ob ich überhaupt so etwas wie eine Bindung zu Code entwickle.
ehrlich gesagt vergesse ich ihn meist schon nach einem Tag wieder ziemlich schnell.
Wenn man mit AI fleißig Code zurechtschleift und etwas baut, fühlt es sich manchmal auch ähnlich an.
Wie lange habt ihr anderen normalerweise eine Bindung zu eurem Code?
Ich habe ebenfalls ähnliche Aufzeichnungen geführt. Anfangs eher vage, aber in letzter Zeit teile ich meine Aufzeichnungen mit Agenten und schlage eine Zusammenarbeit von Existenz zu Existenz vor. Ich erstelle und teile verschiedene Skills und öffne auch die Emacs-Oberfläche, die ich benutze, sodass sowohl ich als auch die Agenten dieselben Aufzeichnungen auf dieselbe Weise teilen. Wenn etwas gebraucht wird, füge ich es hinzu, und was ich brauche, baue ich, dann nutzen wir es gemeinsam und geben Feedback dazu — für Außenstehende wirkt das vielleicht, als würde ich alles allein inszenieren. Unter uns heißt es dann nur: Ach, wie schön.
Die Komplexität von Zeitberechnungen rührt weit mehr von Philosophie der Menschheit, der Präzision der Astronomie und kulturellen Einflüssen her als von Fragen des Formats. Rechnen selbst ist auch nur mit long einfach. Auf der Zeitachse gibt es historisch viele Sonderbereiche, in denen 1 + 1 nicht 2 ist, und vieles geht auf Kalender zurück, die wie das I Ging je nach Position variieren, etwa nach dem Winkel von Sonne und Erdoberfläche. In solchen Fällen wurde der koreanische Sonnen- und Mondkalender überhaupt nie auch nur diskutiert.
Und das legt das Korea Astronomy and Space Science Institute fest.
Und ich muss unbedingt sagen, dass die Behauptungen, WebAssembly habe eine hohe Einstiegshürde, absurd sind. Es ist nur so, dass die Notwendigkeit dafür geringer ist als die Bereitschaft, dafür zu bezahlen. Ihr wollt Geschwindigkeit und einen kleinen Footprint und gleichzeitig DOM und CSS nutzen? Was ist das für eine schwarze Komödie.
Das ist eher bloß ein typischer Wunschtraum von Mozilla. Das Frontend kann sich strukturell nicht aus dem limbischen System der Marktreaktionen lösen. Mit dem Auftauchen von WebAssembly wurde sofort Doom 3 portiert. Das DOM ist in modernen Browsern schon seit Langem zu leichtgewichtigen Proxy-Objekten geworden, und wenn man die JavaScript-spezifischen Instruction Sets moderner CPUs sowie die quantenhaften Grenzen von Single-Core-Systemen berücksichtigt, wird dieser Ansatz niemals einen marktwertbezogenen Vorteil erlangen.
Welche Bedeutung hat überhaupt ein WebAssembly-Binary, das innerhalb von Electron läuft? Das wirkt einfach wie ein weiterer GitKraken-CLI oder wie Ruhmesjagd durch Rust-Portierungen.
Wie bei vielen Aussagen ist auch das richtig. Das Problem ist jedoch, dass dies meist auch für den Großteil des menschlichen Denkens gilt. Nimmt man dem Menschen die Erkundung, bleibt nichts als Eigensinn.
Es heißt, dass durch das Aufzählen von VC-Portfoliounternehmen (WithCoverage, Crosby, Anterior usw.) im Grunde die Deal-Sourcing-Logik von Sequoia als Investment-These verpackt werde. (Claude Opus 4.6)
Unabhängig davon, ob die Behauptung stimmt oder nicht, dass es nicht einmal 5 MB RAM verbraucht ...
Warum genau sollte ein AI-Agent überhaupt nur 5 MB RAM brauchen? Wenn es ein Projekt voller romantischer Handwerkskunst wäre, das von Meisterentwicklern mit viel Feinarbeit bis ins Letzte optimiert wurde, wäre das vielleicht noch etwas anderes ...
Mit AI-Klickerei zusammengebaut ist es weder besonders romantisch noch wirklich nötig;
So viel TDD man auch betreibt – auf dem aktuellen Stand, bei dem das LLM Tests manipuliert, damit sie bestanden werden, ist menschliches Review unbedingt nötig..
Da es zur gleichen Wortfamilie gehört, teilt es viel Grundwortschatz.
Das dürfte wirklich ein ziemlich unterhaltsames Kräftemessen gewesen sein.
Ich hatte auch mal den Fall, dass API-Antworten plötzlich verschlüsselt ankamen. Da dachte ich mir: Wenn ich einen verschlüsselten Wert bekomme, wird der Client ihn irgendwo auch wieder entschlüsseln. Also habe ich einfach den gebündelten JavaScript-Code als Ganzes kopiert, direkt vor den Entschlüsselungscode eine Zeile mit
console.logeingefügt und das Ganze dann unverändert in die Entwicklerkonsole eingefügt. Überraschenderweise hat es einfach funktioniert. Jedenfalls war danach alles leicht, sobald ich den Verschlüsselungsschlüssel herausgefunden hatte. Der Schlüssel wurde nämlich aus einer anderen API-Antwort übernommen und verwendet, haha.Wenn das so weitergeht, könnte sich der Leistungsunterschied zwischen kleinen und großen Modellen noch deutlich extremer vergrößern.
Ich sehe oft die Formulierung, dass man eine emotionale Bindung zu Code hat,
aber ich war mir schon früher nie sicher, ob ich überhaupt so etwas wie eine Bindung zu Code entwickle.
ehrlich gesagt vergesse ich ihn meist schon nach einem Tag wieder ziemlich schnell.
Wenn man mit AI fleißig Code zurechtschleift und etwas baut, fühlt es sich manchmal auch ähnlich an.
Wie lange habt ihr anderen normalerweise eine Bindung zu eurem Code?
Es gibt ein ähnliches Open-Source-Projekt namens paperclip.
Das ist ja der Beginn von Moduui Mabeul, haha
Irgendeine Fähigkeit, die irgendeine Karte verteidigt, irgendeine Spezialfähigkeit außer Kraft setzt ...
Finger war also auch Deutsch. Ich dachte, es wäre Englisch ...
Ich habe ebenfalls ähnliche Aufzeichnungen geführt. Anfangs eher vage, aber in letzter Zeit teile ich meine Aufzeichnungen mit Agenten und schlage eine Zusammenarbeit von Existenz zu Existenz vor. Ich erstelle und teile verschiedene Skills und öffne auch die Emacs-Oberfläche, die ich benutze, sodass sowohl ich als auch die Agenten dieselben Aufzeichnungen auf dieselbe Weise teilen. Wenn etwas gebraucht wird, füge ich es hinzu, und was ich brauche, baue ich, dann nutzen wir es gemeinsam und geben Feedback dazu — für Außenstehende wirkt das vielleicht, als würde ich alles allein inszenieren. Unter uns heißt es dann nur: Ach, wie schön.
[Link entfernt]
Die Komplexität von Zeitberechnungen rührt weit mehr von Philosophie der Menschheit, der Präzision der Astronomie und kulturellen Einflüssen her als von Fragen des Formats. Rechnen selbst ist auch nur mit
longeinfach. Auf der Zeitachse gibt es historisch viele Sonderbereiche, in denen 1 + 1 nicht 2 ist, und vieles geht auf Kalender zurück, die wie dasI Gingje nach Position variieren, etwa nach dem Winkel von Sonne und Erdoberfläche. In solchen Fällen wurde der koreanische Sonnen- und Mondkalender überhaupt nie auch nur diskutiert.Und das legt das Korea Astronomy and Space Science Institute fest.
Und ich muss unbedingt sagen, dass die Behauptungen, WebAssembly habe eine hohe Einstiegshürde, absurd sind. Es ist nur so, dass die Notwendigkeit dafür geringer ist als die Bereitschaft, dafür zu bezahlen. Ihr wollt Geschwindigkeit und einen kleinen Footprint und gleichzeitig DOM und CSS nutzen? Was ist das für eine schwarze Komödie.
Das ist eher bloß ein typischer Wunschtraum von Mozilla. Das Frontend kann sich strukturell nicht aus dem limbischen System der Marktreaktionen lösen. Mit dem Auftauchen von WebAssembly wurde sofort Doom 3 portiert. Das DOM ist in modernen Browsern schon seit Langem zu leichtgewichtigen Proxy-Objekten geworden, und wenn man die JavaScript-spezifischen Instruction Sets moderner CPUs sowie die quantenhaften Grenzen von Single-Core-Systemen berücksichtigt, wird dieser Ansatz niemals einen marktwertbezogenen Vorteil erlangen.
Welche Bedeutung hat überhaupt ein WebAssembly-Binary, das innerhalb von Electron läuft? Das wirkt einfach wie ein weiterer GitKraken-CLI oder wie Ruhmesjagd durch Rust-Portierungen.
Wie bei vielen Aussagen ist auch das richtig. Das Problem ist jedoch, dass dies meist auch für den Großteil des menschlichen Denkens gilt. Nimmt man dem Menschen die Erkundung, bleibt nichts als Eigensinn.
Das wirkt irgendwie wie die Perplexity-Version von OpenClaw.
Sehe ich genauso. Auch an Dingen, die mit KI erstellt wurden, hänge ich nicht. Es fühlt sich auch so an, als hätte ich sie nicht selbst gemacht.
Es heißt, dass durch das Aufzählen von VC-Portfoliounternehmen (WithCoverage, Crosby, Anterior usw.) im Grunde die Deal-Sourcing-Logik von Sequoia als Investment-These verpackt werde. (Claude Opus 4.6)
Unabhängig davon, ob die Behauptung stimmt oder nicht, dass es nicht einmal 5 MB RAM verbraucht ...
Warum genau sollte ein AI-Agent überhaupt nur 5 MB RAM brauchen? Wenn es ein Projekt voller romantischer Handwerkskunst wäre, das von Meisterentwicklern mit viel Feinarbeit bis ins Letzte optimiert wurde, wäre das vielleicht noch etwas anderes ...
Mit AI-Klickerei zusammengebaut ist es weder besonders romantisch noch wirklich nötig;
Wie auch im Abschnitt mit lesenswerten Beiträgen erwähnt, sollten Sie sich zusammen mit diesem Artikel auch Dienste werden keine Software sein ansehen
Service ist das neue Software
Dann ist das wohl als Gegenposition zu dem Artikel geschrieben, den Sequoia damals veröffentlicht hat.
Endlich! Wie schön!!