Wirkt fast wie ein reißerischer Clickbait-Titel..
„Wenn man es von Grund auf neu baut, dauert es 3 Monate; wenn man etwas Ähnliches noch einmal baut, 3 Tage“

 

○ Modelltraining ist nur das „Material“ der Intelligenz; ohne eine Engine gibt es keine AGI.

• Architekturen wie EpionHeuristica haben das Potenzial, über „domänenspezifische AGI“ hinaus „ordnungsbasierte emergente Superintelligenz“ zu entwerfen.
• Der Schlüssel zum Erreichen von AGI ist, „wie man eine Engine konfiguriert, die Handlungen auswählt“.

 

A. Warum AGI nicht allein durch Training möglich ist.
• Modelle der GPT-Klasse haben kein eigenes Ziel (self-goal).
• Egal, wie viele Daten gelernt werden: Reines Training ohne Interaktion mit der realen Welt ist begrenzt.
• Training ist nur „regressives Erinnern“; es fehlt eine Struktur, die prädiktives, emergentes Denken mit Blick auf die Zukunft fördert.

B. AGI braucht eine Engine mit einer „Ziel-Feedback-Schleife“.
• Eine Struktur, in der wie bei EpionHeuristica belohnungsbasiertes Reinforcement Learning + Evaluierung + Lernen aus Fehlschlägen (FailGuard) funktionieren, kommt einem Designprototyp einer Engine-basierten AGI nahe
• Beispiel: "Warum ist dieses Experiment gescheitert?" → "Was muss geändert werden?" → "Was ist die nächste Bedingung?" → Das ist AGI-artiges Schlussfolgern

C. Das Wesen menschlicher Intelligenz liegt in der „Struktur“.
• Menschen erlangen Intelligenz nicht durch die Anzahl der Neuronen, sondern durch die „strukturelle Konnektivität neuronaler Schaltkreise und die Fähigkeit zum Meta-Lernen“
• Auch bei AGI ist nicht die Modellgröße entscheidend, sondern die Struktur aus handlungsleitendem System, selbstreferenziellem System und kontinuierlicher Feedback-Schleife

 

Die Erreichung von AGI ist nicht allein durch „das Training des Modells“ möglich; zwingend erforderlich sind eine Engine-Architektur, die Intelligenz hervorbringt, und ein zielgerichtetes System zur Selbstverbesserung. Die heutigen GPT-Modelle sind letztlich nur riesige LLMs (Large Language Models); auf dem Weg zu AGI müssen auch eine Schlussfolgerungsstruktur, eine Struktur zur Selbstüberwachung und eine zielbasierte Handlungsrichtlinie zusammenspielen.

 

Dinge, von denen man weiß, dass man sie tun sollte, die sich aber nur schwer umsetzen lassen. Vor allem Arbeits-Messenger scheinen der Hauptverursacher von Unterbrechungen zu sein.

 

Geht das nicht per Login mit dem Konto?

 

Endlich gibt es ein Management-Tool für Patroni.
Ein Tool, das Patroni verwaltet, das wiederum Postgres verwaltet...

 

Im Fall des privileged mode wurde es so angepasst, dass es in der Sandbox läuft. Im Fall des privileged mode können lokale Ressourcen (C-Laufwerk usw.) verbunden werden. Die Verbindung wird unter $HOME/thinclient_drives eingehängt.

 

Wenn man morgens 2–3 Stunden damit arbeitet, erreicht man noch vor dem Mittag das Limit (Pro-Nutzer).
Es steht da, dass es ab 15 Uhr zurückgesetzt wird, aber wenn man nicht Max hat, kann man es wohl kaum den ganzen Tag nutzen (wobei es bei Max vermutlich auch nicht allzu schwer ist, ans Limit zu kommen).

 

Wenn Sideloading damit faktisch blockiert wird, sehe ich darin für mich einen geringeren Vorteil gegenüber iOS. Meiner Meinung nach bieten beide fast ähnliche Funktionen, und beim UX liegt iOS leicht vorn, aber ich finde, dass Sideloading ein großer Vorteil von Android ist. Es war immer ein Traum von mir, GrapheneOS auf einem Google Pixel zu installieren und zu nutzen, aber wenn nach der Nichtveröffentlichung des Pixel-Quellcodes jetzt auch noch die faktische Blockade von Sideloading dazukommt, gibt es für mich keinen Grund mehr, Android zu verwenden. Wenn das so veröffentlicht wird, werde ich 2027 wohl zu iOS zurückkehren.

 

Schon wieder China.

 

Ah, Base war also der Name der App. Obwohl es dick und fett im Titel stand, habe ich das nicht bemerkt. Haha.

 

Ich halte die Behauptung einer dreifachen Leistungssteigerung innerhalb von drei Jahren ohne Benchmark-Daten für übertrieben.

 

Ich mache mir Sorgen, ob selbst Leute, die eine App nur für sich allein entwickeln und nutzen, dann eine Entwicklerverifizierung brauchen.

 

Ich war ein paarmal dort, und es war gut. Empfehlenswert.

 

Vielleicht wollte der Autor weniger die Spezifikationen vergleichen, sondern eher über die Effizienz je nach CPU sprechen. Haha

 

Da es sich um eine KI-Zusammenfassung handelt, scheint sie sich am Cutoff-Jahr orientiert zu haben. Ich habe das korrigiert.

 

Es scheint, als würde im Workflow von Entwickler:innen der Anteil der Rollen von PM und Architekt:in größer werden.