Vor Kurzem wurde offenbar auf Reddit in r/programming eine Richtlinie eingeführt, die LLM-bezogene Posts verbietet.
Wenn man solche Beiträge sieht, kann man meiner Meinung nach zumindest erahnen, warum das eingeführt wurde.

Man baut nicht einmal einen echten produktiven Service, sondern hypt nur PoC-Websites, die Supabase nutzen, behandelt Tech-Unternehmen und professionelle Entwickler wie Idioten und zeigt sogar ein Ethikverständnis, das im Kern nur darauf abzielt, irgendwie einmal durch Technologieleaks Einfluss zu gewinnen.
Ich halte das für ein völliges Gesamtchaos.

 

Sauber zusammengefasst, aber letztlich bleibt die Arbeit dieselbe und geändert hat sich nichts; am Ende läuft es darauf hinaus: Lasst uns Wissen teilen, damit auch ich mit AI arbeiten kann.

 

In openclaw ist das aufgetaucht, was ich implementieren wollte. Das werde ich einfach übernehmen.

 

Jeder weiß, dass das Aufräumen der Codebasis langfristig der Weg zu mehr Geschwindigkeit ist,
aber das ist ungefähr so eine Binsenweisheit wie die, dass man gesünder wird, wenn man gut isst, Sport treibt und genug schläft.

 

Das ist durchaus ein bedenkenswerter Ansatz, aber offenbar überwiegt derzeit noch die Ansicht, dass es dafür noch zu früh ist.

 

So ein Mist landet also schon wieder bei GN … Was für eine Welt, in der Diebstahl viral geht …

 

Nachdem ich die grundlegende Vault-Initialisierung vorgenommen und diese eine Datei einlesen ließ, sagte ich, dass ich diese Idee konkretisieren möchte. Mit der Brainstorming-Funktion von superpowers wurde dann der gesamte Rahmen ausgearbeitet, und sogar CLAUDE.md sowie die Einstellungen des Obsidian-Plugins wurden fertig eingerichtet.

 

Ach so. Danke für den Hinweis. Da muss man wohl in vielerlei Hinsicht darauf achten.

 

Wenn man zu Claude Code wechselt, kann man dann Agent Teams verwenden?

 

Danke fürs Teilen. Ich habe es ausprobiert, und es ist beeindruckend.
Ich erwarte, dass die Community weiterhin noch bessere Methoden hervorbringen wird.

 

Apple ignoriert Legacy-Support geradezu (pathologisch). Aber wenn es keinen Legacy-Support gibt, bedeutet das letztlich doch auch, dass es weniger Faktoren gibt, um die man sich kümmern muss — warum treten dann trotzdem weiterhin Instabilitäten auf?

 

Es wird nicht nur kritisiert, um zu kritisieren, sondern es gibt tatsächlich sehr viele Menschen, die echte Unannehmlichkeiten empfinden. (Wenn man Apple mit einer Religion vergleichen würde, dann in dem Maße, dass sogar der Glaube daran erkaltet ist)

 

Ich verstehe, worauf Sie hinauswollen, aber der Vergleichsmaßstab ist falsch gewählt.
Was die Probleme mit der Profitabilität und den chronischen Defiziten von LLM-basierten Unternehmen angeht, stimme ich Ihnen teilweise zu,
aber selbst wenn man eher die Umsatzkosten der Big Tech heranziehen würde, ist es keine stichhaltige Argumentation, die Finanzlage eines multinationalen LLM-Unternehmens eins zu eins mit der von Kimbap Cheonguk zu vergleichen.

 

Das ist ein Agent, der schon vor etwa einem Jahr veröffentlicht wurde. Goose - 오픈소스 AI 코딩 에이전트
Er wird passend zu den jüngsten Fortschritten Schritt für Schritt weiter aktualisiert, daher scheint er inzwischen ziemlich gut geworden zu sein.
Da @jack, der Gründer von Twitter und heute CEO von Block, damit angegeben hat, trage ich ihn hier noch einmal ein.
https://x.com/jack/status/2039897468775604711

 

Das hier wurde dafür verwendet: Farzapedia: eine persönliche Wikipedia aus 2.500 Tagebucheinträgen, Notizen und Nachrichten

  • Mithilfe von LLMs wurden aus 2.500 Einträgen aus Tagebüchern, Apple Notes und iMessage-Konversationen als Input automatisch 400 detaillierte Wiki-Dokumente erzeugt
  • Enthält Freunde, Startups, Forschungsgebiete von Interesse, Lieblings-Anime und sogar deren Einfluss und ist über Backlinks miteinander verknüpft
  • Das Wiki ist nicht für das persönliche Lesen gedacht, sondern als Wissensbasis für Agenten konzipiert; Dateistruktur und Backlinks sind so aufgebaut, dass Agenten sie leicht crawlen können
  • Claude Code ist mit dem Wiki verbunden, index.md dient als Einstiegspunkt, und bei Anfragen navigiert der Agent selbstständig zu den benötigten Seiten
  • Beispiel für die Nutzung: Wenn man bei der Arbeit an einer neuen Landingpage sagt: "Gib mir Copy- und Design-Ideen auf Basis von Bildern und Filmen, die mich zuletzt inspiriert haben", liefert der Agent eine Antwort, indem er ein auf einer Studio-Ghibli-Dokumentation basierendes Dokument zur "Philosophie", ein Dokument zu "Wettbewerbern" mit Screenshots von Landingpages von YC-Unternehmen und sogar gespeicherte Bilder von Beatles-Merch aus den 1970ern zusammenführt
  • Vor einem Jahr wurde ein ähnliches System auf RAG-Basis aufgebaut, aber die Leistung war nicht gut, und der direkte Navigationsansatz des Agenten über das Dateisystem erwies sich als deutlich effektiver
  • Wenn neue Einträge hinzukommen, etwa Artikel, Inspirationsbilder oder Meeting-Notizen, aktualisiert das System automatisch 2 bis 3 bestehende Dokumente oder erzeugt neue

Karpathys vier Vorteile personalisierter Nutzung auf Basis eines LLM-Wikis

  • Er nennt das obige Farzapedia als gutes Praxisbeispiel für den LLM-Wiki-Tweet und fasst im Vergleich zu bestehenden KI-Personalisierungsansätzen nach dem Motto "wird von selbst besser, je mehr man es benutzt" die Vorteile dieses Ansatzes in vier Punkten zusammen
  • Explizitheit (Explicit): Das Ergebnis des Gedächtnisses liegt klar in Form eines Wikis vor, und man kann direkt prüfen und verwalten, was die KI weiß oder nicht weiß – Wissen verschwindet nicht in einem intransparenten internen System, sondern existiert in sichtbarer Form
  • Dateneigentum (Yours): Die Daten werden auf dem lokalen Computer gespeichert statt in Systemen eines bestimmten KI-Anbieters und sind nicht in einer nicht exportierbaren Form eingeschlossen, sodass die vollständige Kontrolle über die Informationen erhalten bleibt
  • Datei vor App (File over app): Das Gedächtnis besteht aus einer Sammlung von Dateien in allgemeinen Formaten wie Markdown und Bildern und ist mit verschiedenen Tools und CLI kompatibel — Agenten können das gesamte Unix-Toolkit nutzen, und man kann es über gewünschte Oberflächen wie Obsidian öffnen
  • Freie KI-Wahl (BYOAI): Man kann beliebige KI wie Claude, Codex oder OpenCode frei anbinden — prinzipiell ist es auch möglich, Open-Source-KI auf das Wiki feinzujustieren, sodass persönliche Kenntnisse nicht nur referenziert, sondern direkt in den Gewichten verankert werden
  • Dieser Ansatz ist nicht der einfachste und erfordert die Verwaltung von Dateiverzeichnissen, aber Agenten können dabei einen großen Teil der Arbeit übernehmen
  • Dabei wird betont, dass "Agentenkompetenz (agent proficiency) eine Schlüsselkompetenz des 21. Jahrhunderts ist", und es wird empfohlen, dieses Werkzeug selbst auszuprobieren, das Computerarbeit auf englische Anweisung hin übernimmt
 

Bevor ich es ausprobiert habe, war ich etwas skeptisch, welchen Vorteil es im Vergleich zu anderen Tools haben sollte, mit denen sich lokale LLMs wie ollama betreiben lassen. Nachdem ich es tatsächlich selbst verwendet habe, wirkt es aber ziemlich halluzinationsanfällig und etwas dumm.
Allerdings nutzen andere lokale LLM-Tools zwar die GPU und sind dadurch leistungsstark, verbrauchen dafür aber auch viele Ressourcen. Dieses Modell scheint dagegen vergleichsweise ressourcenschonend zu sein, den Neural Engine gut zu nutzen und dadurch auch weniger Strom zu verbrauchen. In dieser Hinsicht sehe ich also durchaus einen Vorteil.
Soweit ich weiß, ist das Konzept von Apple Intelligence selbst, leichte AI auf verschiedenen Geräten einschließlich mobiler Geräte laufen zu lassen, und zu diesem Konzept passt es wohl ganz gut.
Trotzdem denke ich, dass die Leistung selbst für ein leichtgewichtiges Modell besser sein müsste, damit es auch nur ein bisschen nützlicher einsetzbar ist. Im Moment ist es einfach zu dumm.

 

Eigentlich sollte man das wohl kritisieren, aber ich frage mich, ob Claude überhaupt das Recht hat, anderen vorzuwerfen, etwas geklaut zu haben.
Wenn man daran denkt, dass man illegal Bücher eingescannt, zum Training verwendet, dafür verklagt wurde und Entschädigung zahlen musste, haha

 

Es muss nachvollziehbar bleiben, mit welcher Absicht man damals den Code geschrieben hat.

Mit der Zeit bleibt sonst nur noch die Frage: Zu welchem Zweck habe ich das so implementiert..?