Ich nutze derzeit hauptsächlich Codex, aber als ich Claude Code ausprobiert habe, um ein paar andere Dinge zu testen ...
kommt es mir nur so vor, oder ist der Token-Verbrauch extrem viel schneller geworden -.-? Es war kein besonders komplexer Code, deshalb war ich echt ziemlich überrascht.
Die zeitgemäße Positionierung als „Backend für AI-Agenten“ ist gut. Wenn man einen Agenten die komplette Full-Stack-Entwicklung machen lässt, wäre der Token-Verbrauch wohl ziemlich hoch, daher dürfte es zumindest etwas schneller gehen.
Allerdings ist die Frage … ob das wirklich besser ist als Supabase MCP. Entscheidend scheint zu sein, wie weit sich die Automatisierung für Agenten überhaupt entwickeln kann.
Angesichts der enormen Funktionsvielfalt und Sicherheitsanforderungen, die Browser unterstützen müssen, kann man moderne Browser fast schon als eigenständiges Betriebssystem betrachten.
Trotzdem ist ihr Speicherverbrauch wirklich übertrieben.
Ah, ich dachte, es sei irgendeine Nachricht oder Information und habe es deshalb gelesen, aber der Inhalt kam mir etwas seltsam vor, sodass ich einen Kommentar hinterlassen habe, ob es vielleicht Werbung sei. Vielen Dank für die ernsthafte Antwort.
Die "Gewinnrate" ist der Kernpunkt.
Mit bloßer Vorhersage des nächsten Worts kann man nicht einmal brauchbare Sätze erzeugen, geschweige denn ordentlich programmieren oder Mathematik betreiben.
Solche Verfahren stammen aus den 60er- oder 70er-Jahren.
Das scheint wohl auch so zu sein.
Letztlich ist das Modell selbst aber nur eine Ein-/Ausgabefunktion.
Unter der Annahme, dass ein geeignetes Harness und eine Agenten-Loop gegeben sind, scheint die Aussage zu gelten, dass das Modell das Ziel erreicht.
Ich bin der Betreiber.
GeekNews verfolgt das Ziel, Nachrichten und Informationen in verschiedenen Formen zu teilen, und erlaubt auch selbst zusammengestellte Beiträge in einem gewissen Rahmen.
Wenn jedoch von demselben Nutzer wiederholt eine bestimmte Domain gepostet wird, gelten je nach den Kriterien Einschränkungen.
Auch dieser Fall wird gemäß den Kriterien geprüft und angepasst.
Einige Maßnahmen sind von außen möglicherweise nicht sichtbar.
GPT-3: Vorhersage des nächsten Wortes -> richtig
Transformatorbasierte Modelle nach GPT-3: Vorhersage des nächsten Wortes -> richtig.
AlphaGo, AlphaZero, MuZero, ...: Vorhersage des nächsten Zugs -> richtig.
Ein Modell, das ein (bestimmtes) Ziel erreicht -> richtig.
Kann man das so zusammenfassen: „Nächste-Token-Vorhersage“ ist als Beschreibung auf Implementierungsebene zwar korrekt, aber als Erklärung der Fähigkeiten oder des Zwecks des Modells unvollständig?
Hm … vielleicht wurde mein Beitrag anders verstanden, als ich es beabsichtigt hatte. Falls es so wirkte, als würde ich in diesem Text den technischen Wert von LLMs herabsetzen, bitte ich um Entschuldigung.
Die Absicht dieses Textes war jedoch, übertriebene Verpackung und Mystifizierung abzulegen und die Sache nüchtern zu betrachten. Deshalb empfinde ich persönlich die Formulierung „ein Modell, das ein Ziel erreicht“ als bereits mystifizierend. Letztlich dienen sowohl gewöhnliche Software als auch Modelle dazu, irgendein „Ziel“ zu erreichen.
Deshalb möchte ich mit ehrlichem persönlichem Interesse noch einmal nachfragen, ob die von Ihnen verwendete Formulierung technisch präziser ist.
Es wirkt so, als laufe am Ende alles auf Analytics-Werbung hinaus. Klingt zwar plausibel, ist letztlich aber doch Werbung, und ich habe auch das Gefühl, dass der Betreiber von hada.io das etwas zu sehr sich selbst überlässt.
Es ist wohl besser,
dogfoodingnicht als Monopolisierung zu verstehen, sondern eher als „Dog Pudding“.Das ist ja das Schlimmste … So etwas Ähnliches gibt es bei uns bestimmt auch, oder …?
Ich nutze derzeit hauptsächlich Codex, aber als ich Claude Code ausprobiert habe, um ein paar andere Dinge zu testen ...
kommt es mir nur so vor, oder ist der Token-Verbrauch extrem viel schneller geworden -.-? Es war kein besonders komplexer Code, deshalb war ich echt ziemlich überrascht.
Ich fände es großartig, wenn sich das in der Form weiterentwickeln würde, dass noch mehr Tools hinzukommen, die sicherer arbeiten können.
Die zeitgemäße Positionierung als „Backend für AI-Agenten“ ist gut. Wenn man einen Agenten die komplette Full-Stack-Entwicklung machen lässt, wäre der Token-Verbrauch wohl ziemlich hoch, daher dürfte es zumindest etwas schneller gehen.
Allerdings ist die Frage … ob das wirklich besser ist als Supabase MCP. Entscheidend scheint zu sein, wie weit sich die Automatisierung für Agenten überhaupt entwickeln kann.
Angesichts der enormen Funktionsvielfalt und Sicherheitsanforderungen, die Browser unterstützen müssen, kann man moderne Browser fast schon als eigenständiges Betriebssystem betrachten.
Trotzdem ist ihr Speicherverbrauch wirklich übertrieben.
Ah, ich dachte, es sei irgendeine Nachricht oder Information und habe es deshalb gelesen, aber der Inhalt kam mir etwas seltsam vor, sodass ich einen Kommentar hinterlassen habe, ob es vielleicht Werbung sei. Vielen Dank für die ernsthafte Antwort.
Gefällt mir. Leute aus Frontend und Design erstellen so etwas offenbar schon im Voraus und starten dann damit.
Die "Gewinnrate" ist der Kernpunkt.
Mit bloßer Vorhersage des nächsten Worts kann man nicht einmal brauchbare Sätze erzeugen, geschweige denn ordentlich programmieren oder Mathematik betreiben.
Solche Verfahren stammen aus den 60er- oder 70er-Jahren.
(Streng genommen sind es nicht einmal Wörter.)
Das scheint wohl auch so zu sein.
Letztlich ist das Modell selbst aber nur eine Ein-/Ausgabefunktion.
Unter der Annahme, dass ein geeignetes Harness und eine Agenten-Loop gegeben sind, scheint die Aussage zu gelten, dass das Modell das Ziel erreicht.
Im Originaltext wurde nie behauptet, dass KI die gesamte Expertise ersetzen könne. Ich denke das auch nicht ...
Ich bin der Betreiber.
GeekNews verfolgt das Ziel, Nachrichten und Informationen in verschiedenen Formen zu teilen, und erlaubt auch selbst zusammengestellte Beiträge in einem gewissen Rahmen.
Wenn jedoch von demselben Nutzer wiederholt eine bestimmte Domain gepostet wird, gelten je nach den Kriterien Einschränkungen.
Auch dieser Fall wird gemäß den Kriterien geprüft und angepasst.
Einige Maßnahmen sind von außen möglicherweise nicht sichtbar.
GPT-3: Vorhersage des nächsten Wortes -> richtig
Transformatorbasierte Modelle nach GPT-3: Vorhersage des nächsten Wortes -> richtig.
AlphaGo, AlphaZero, MuZero, ...: Vorhersage des nächsten Zugs -> richtig.
Ein Modell, das ein (bestimmtes) Ziel erreicht -> richtig.
An dieser Aussage ist nichts falsch
Ist nicht ohnehin nicht die gesamte Expertise ersetzbar? Schon der Wortbildungsprozess wirkt seltsam.
Das ist verwirrend. Ist das ein Scherz, oder gibt es eine neue Methode oder Technik, von der ich nichts weiß??
Berechnet AlphaGo nicht auch einfach den nächsten Zug, für den die höchste Gewinnwahrscheinlichkeit vorhergesagt wird?????
Kann man das so zusammenfassen: „Nächste-Token-Vorhersage“ ist als Beschreibung auf Implementierungsebene zwar korrekt, aber als Erklärung der Fähigkeiten oder des Zwecks des Modells unvollständig?
Dann sollte man sich wohl in der Mitte mit einem Modell treffen, das besser vorhersagt 😄
Hm … vielleicht wurde mein Beitrag anders verstanden, als ich es beabsichtigt hatte. Falls es so wirkte, als würde ich in diesem Text den technischen Wert von LLMs herabsetzen, bitte ich um Entschuldigung.
Die Absicht dieses Textes war jedoch, übertriebene Verpackung und Mystifizierung abzulegen und die Sache nüchtern zu betrachten. Deshalb empfinde ich persönlich die Formulierung „ein Modell, das ein Ziel erreicht“ als bereits mystifizierend. Letztlich dienen sowohl gewöhnliche Software als auch Modelle dazu, irgendein „Ziel“ zu erreichen.
Deshalb möchte ich mit ehrlichem persönlichem Interesse noch einmal nachfragen, ob die von Ihnen verwendete Formulierung technisch präziser ist.
Es wirkt so, als laufe am Ende alles auf Analytics-Werbung hinaus. Klingt zwar plausibel, ist letztlich aber doch Werbung, und ich habe auch das Gefühl, dass der Betreiber von hada.io das etwas zu sehr sich selbst überlässt.