Es wirkt so, als laufe am Ende alles auf Analytics-Werbung hinaus. Klingt zwar plausibel, ist letztlich aber doch Werbung, und ich habe auch das Gefühl, dass der Betreiber von hada.io das etwas zu sehr sich selbst überlässt.
Letztlich ist es ein Trade-off mit der Qualität, und ich frage mich auch, ob es am Ende nicht zu einer Struktur wird, bei der man mehr Tokens verbraucht, um die verlorene Qualität wiederherzustellen.
Im großen Kontext geht es um das Durchsuchen vergangener Gespräche; wenn man nur die Frage der Strukturierung gut ordnet, scheint es eine gute Idee zu sein. Tatsächlich fand ich, dass es mir auch sehr bei der Organisation von Projekten geholfen hat.
Ich habe das auch umgesetzt. Wenn mehrere Hardware-Geräte im Einsatz sind, habe ich ein wenig ergänzt, damit sich der Obsidian-Vault mit einem GitHub-Backup verknüpfen lässt. Außerdem habe ich Parser für Codex und Gemini erstellt und hinzugefügt. https://github.com/hang-in/seCall
Soweit ich gehört habe, haben Kernel-Entwickler den PostgreSQL-Entwicklern wohl schon seit fast 10 bis 20 Jahren gesagt: „Spinlocks im Userland sind nicht empfehlenswert, vielleicht solltet ihr das noch einmal überdenken.“
Wenn man bereits das Claude Code Agent Team verwendet hat, gab es nichts besonders Neues.
Praktisch war jedoch, die Infrastruktur mit Agents oder Skills so aufzubauen, dass sich Teamkonfigurationsinformationen und Ähnliches auch in neuen Sitzungen weiterverwenden lassen.
Wenn man das Team manuell zusammengestellt hat, wiederholten sich boilerplateartige Dinge für das Team nämlich immer wieder.
Es gab allerdings ein Problem: Da die Umgebung sowohl Subagents als auch Agent Teams berücksichtigt, kommt es im Supervisor-Muster oft zu der seltsamen Situation, dass der Supervisor Aufgaben an einen Subagent delegiert, obwohl bereits ein Team erstellt wurde.
Anscheinend ist die Exynos-Kompatibilität nicht besonders gut. Auf dem Galaxy Quantum 5 (A55) gibt es das Problem, dass es als Antwort endlos chinesische Schriftzeichen wiederholt.
Soweit ich weiß, sind mit Ausnahme einiger Modelle auf Basis von Diffusionsmodellen alle seit GPT veröffentlichten großen Sprachmodelle in einer Form aufgebaut, die das nächste Token vorhersagt. Falls es Modelle gibt, die auf andere Weise arbeiten, wäre ich dankbar, wenn Sie mich darauf hinweisen könnten.
Ich habe es früher ausprobiert, aber wieder entfernt, weil Claude ständig noch mehr Tokens verbraucht hat, um Probleme zu lösen, die durch rtk verursacht wurden.
(Zum Beispiel erzeugt es bei einer JSON-Anfrage per curl ungültiges JSON, woraufhin jq einen Fehler ausgibt; dann debuggt Claude das, verbrennt dabei Tokens und am Ende holt es sich doch wieder die rohe curl-Anfrage und parst sie mit jq.)
Trotzdem halte ich die Grundidee für einen guten Ansatz, daher könnte es sich lohnen, es zu verwenden, sobald es stabiler geworden ist.
Ich bin mir nicht sicher, ob es wirklich etwas reduziert. Der Agent sagt mir ständig, ich solle den Befehl rtk ls.. verwenden, macht es dann aber selbst nicht.
Dann ist das neueste Modell also ein anderes? Falls etwas daran falsch ist, wäre ich dankbar, wenn Sie mich darauf hinweisen könnten — das würde nicht nur mir, sondern auch anderen helfen, haha.
Es gibt auch Spam, bei dem Suchergebnis-URLs für nach Spam klingende Formulierungen als Backlinks in Beiträge anderer Blogs eingetragen werden;
letztlich muss man so etwas ohnehin alles manuell löschen...
Es wirkt so, als laufe am Ende alles auf Analytics-Werbung hinaus. Klingt zwar plausibel, ist letztlich aber doch Werbung, und ich habe auch das Gefühl, dass der Betreiber von hada.io das etwas zu sehr sich selbst überlässt.
Letztlich ist es ein Trade-off mit der Qualität, und ich frage mich auch, ob es am Ende nicht zu einer Struktur wird, bei der man mehr Tokens verbraucht, um die verlorene Qualität wiederherzustellen.
Da BM25 bei der Suche auf Koreanisch schwach ist, habe ich zusätzlich Guardrails eingebaut, die auch Koreanisch gut durchsuchen können.
Im großen Kontext geht es um das Durchsuchen vergangener Gespräche; wenn man nur die Frage der Strukturierung gut ordnet, scheint es eine gute Idee zu sein. Tatsächlich fand ich, dass es mir auch sehr bei der Organisation von Projekten geholfen hat.
Ich habe das auch umgesetzt. Wenn mehrere Hardware-Geräte im Einsatz sind, habe ich ein wenig ergänzt, damit sich der Obsidian-Vault mit einem GitHub-Backup verknüpfen lässt. Außerdem habe ich Parser für Codex und Gemini erstellt und hinzugefügt. https://github.com/hang-in/seCall
Wenn man moderne LLMs als „Vorhersage des nächsten Worts“ abtut, dann ist auch AlphaGo nichts weiter als „Vorhersage des nächsten Zugs“.
Seit ChatGPT ist die Vorhersage des nächsten Worts zudem nur ein einfaches Pre-Training.
Im Kern ist es ein Modell, das ein Ziel erreicht.
Soweit ich gehört habe, haben Kernel-Entwickler den PostgreSQL-Entwicklern wohl schon seit fast 10 bis 20 Jahren gesagt: „Spinlocks im Userland sind nicht empfehlenswert, vielleicht solltet ihr das noch einmal überdenken.“
https://x.com/kosaki55tea/status/2040458791536497035
Wenn man bereits das Claude Code Agent Team verwendet hat, gab es nichts besonders Neues.
Praktisch war jedoch, die Infrastruktur mit Agents oder Skills so aufzubauen, dass sich Teamkonfigurationsinformationen und Ähnliches auch in neuen Sitzungen weiterverwenden lassen.
Wenn man das Team manuell zusammengestellt hat, wiederholten sich boilerplateartige Dinge für das Team nämlich immer wieder.
Es gab allerdings ein Problem: Da die Umgebung sowohl Subagents als auch Agent Teams berücksichtigt, kommt es im Supervisor-Muster oft zu der seltsamen Situation, dass der Supervisor Aufgaben an einen Subagent delegiert, obwohl bereits ein Team erstellt wurde.
https://github.com/google-ai-edge/gallery/issues/437
Anscheinend ist die Exynos-Kompatibilität nicht besonders gut. Auf dem Galaxy Quantum 5 (A55) gibt es das Problem, dass es als Antwort endlos chinesische Schriftzeichen wiederholt.
Soweit ich weiß, sind mit Ausnahme einiger Modelle auf Basis von Diffusionsmodellen alle seit GPT veröffentlichten großen Sprachmodelle in einer Form aufgebaut, die das nächste Token vorhersagt. Falls es Modelle gibt, die auf andere Weise arbeiten, wäre ich dankbar, wenn Sie mich darauf hinweisen könnten.
Ich wusste nicht einmal, dass es symmetrisches 25-Gigabit-LAN gibt. Ich dachte, selbst 10-Gigabit ist für Privathaushalte schon mehr als genug ...
Ich habe es früher ausprobiert, aber wieder entfernt, weil Claude ständig noch mehr Tokens verbraucht hat, um Probleme zu lösen, die durch rtk verursacht wurden.
(Zum Beispiel erzeugt es bei einer JSON-Anfrage per
curlungültiges JSON, woraufhinjqeinen Fehler ausgibt; dann debuggt Claude das, verbrennt dabei Tokens und am Ende holt es sich doch wieder die rohecurl-Anfrage und parst sie mitjq.)Trotzdem halte ich die Grundidee für einen guten Ansatz, daher könnte es sich lohnen, es zu verwenden, sobald es stabiler geworden ist.
Das fand ich an der Stelle auch schade!
Vor Kurzem gab es ein Update: Die vollständige Ausgabe wird jetzt in einer separaten Datei gespeichert, damit das LLM sie bei Bedarf lesen kann~
Die offizielle Website wurde bereits vor der Veröffentlichung von Gnuboard 7 überarbeitet.
Deshalb kommt es manchmal vor, dass es schneller ist, es neu zu schreiben.
Danke für Ihre Antwort!
Ich bin mir nicht sicher, ob es wirklich etwas reduziert. Der Agent sagt mir ständig, ich solle den Befehl
rtk ls..verwenden, macht es dann aber selbst nicht.Dann ist das neueste Modell also ein anderes? Falls etwas daran falsch ist, wäre ich dankbar, wenn Sie mich darauf hinweisen könnten — das würde nicht nur mir, sondern auch anderen helfen, haha.
Es gibt auch Spam, bei dem Suchergebnis-URLs für nach Spam klingende Formulierungen als Backlinks in Beiträge anderer Blogs eingetragen werden;
letztlich muss man so etwas ohnehin alles manuell löschen...
> Ein LLM ist ein Modell zur Vorhersage des nächsten Wortes, das „für eine gegebene Eingabe die passendste Ausgabe erzeugt“
Da ist wohl von GPT-3 die Rede.