In Korea ist am Ende doch alles Java-Land, deshalb wirkt das wohl ungewohnt, haha

 

Ich denke: Technologie aus anderen Ländern != Daten aus anderen Ländern

 
slowandsnow 2025-07-11 | übergeordneter Kommentar | in: Grok 4 ist jetzt das führende KI-Modell (twitter.com/ArtificialAnlys)

Ich glaube es erst, wenn es erstmal kostenlos verfügbar ist. Grok kostet sogar 30 Dollar, da habe ich Angst, ein Abo abzuschließen...

 

Hahahaha, der plötzlich aus dem Nichts getroffene Doktorand ist völlig verdattert ..

 

Nutzt Rails, seid glücklich

 

Den Versuch begrüße ich, aber ...
ich hoffe, sie machen nicht so etwas, dass sie eine neue Organization gründen und 1.0 einfach über Bord werfen.

 

(Koreanisch) Ist das das Arbeitsleben im Unternehmen? Haha

 

Ich würde mich freuen, wenn es auch als YCD erscheint~

 

Ich stimme der Kernaussage dieses Artikels zu. Heutzutage wird JavaScript viel zu exzessiv eingesetzt, sodass Websites oft ruckeln, selbst wenn man einen i9-9900k verwendet. Als Gaming- oder Arbeitsrechner sind die Spezifikationen zwar etwas unklar einzuordnen, aber in der Realität gibt es unzählige Bürocomputer mit noch schwächerer Ausstattung.

Deshalb mag ich Frameworks wie Astro und Hotwired, deren Philosophie darin besteht, JS nur dann zu verwenden, wenn es wirklich nötig ist, etwa für interaktive Bereiche oder interaktive Seitennavigation. Ich mag auch Server-Side Rendering, also den Ansatz, auf der Serverseite zu rendern. Dagegen kann ich CSR (einschließlich Fällen, in denen nur die Meta-Tags serverseitig gerendert und der Rest per CSR verarbeitet wird) überhaupt nicht leiden. Denn ich sehe darin, dass Aufgaben, die der Server übernehmen sollte, auf den Client abgewälzt werden. Meiner persönlichen Meinung nach sollte der traditionelle SPA-Ansatz mit CSR nur dann genutzt werden, wenn das Frontend lokal in einer App wie Electron ausgeführt wird. Wenn das Frontend jedoch vom Server geladen wird, sollte man natürlich SSR verwenden.

 

Sich Hilfe zu holen, ist auch eine Fähigkeit.

 

Ich glaube, dass es aufgrund der Struktur von LLMs unmöglich sein wird, Sicherheit vollständig zu garantieren. Meiner Meinung nach ist die Instabilität von LLMs unvermeidbar, und entscheidend ist wohl, wie man ihnen bei physischen Handlungen wie Agenten oder autonomem Fahren Befugnisse erteilt.

 

Schon der Name allein wirkt wenig vertrauenerweckend.
Warum hat man in die Mitte des Namens einen Doppelpunkt gesetzt? Gibt es dafür einen inhaltlichen Grund? Oder glaubt man am Ende wirklich, dass das cool aussieht?
Und wenn es mit:eum heißt, müsste man es im lateinischen Alphabet dann nicht als mid:m schreiben?

 

In letzter Zeit habe ich wegen des SETI-Brettspiels auch nach Dingen rund um SETI gesucht, deshalb freut es mich umso mehr, das jetzt als Nachricht zu sehen.

Das SETI-Brettspiel macht wirklich großen Spaß. Ich würde es auch Leuten empfehlen, die sich mit Brettspielen nicht gut auskennen.
Wenn man jungen Leuten, die SETI selbst gar nicht kennen, zuerst das Projekt erklärt, ist schon der Hintergrund spannend, und das Spielthema passt einfach perfekt.
Ein Brettspiel aus dem Jahr 2025 ist aktuell schon auf Platz 43 der Gesamtwertung aller Brettspiele gestiegen, also dürfte es bald in die Top 10 kommen.

 

Das scheint die Leistung eines Modells mit weniger Alignment-Prozess zu sein, aber vermutlich wird es nach Gegenwind etwas zurückrudern und an Leistung verlieren.

 

Nun, wirklich beurteilen lässt sich das wohl erst nach der tatsächlichen Nutzung, aber mit 200.000 GPUs und einem entsprechenden Talentpool ist ein derart aggressives Wachstum offenbar möglich.
Wenn Colossus auf 1 Million GPUs kommt, wie viel besser wird es dann wohl noch werden?

Rechnet man beim H100 mit 50 Millionen Won, kommt man allein beim GPU-Preis auf 50 Billionen Won. Dazu kommen noch der Bau von Datenzentren und die nötige Stromversorgung in der Umgebung, also wohl weitere 20 Billionen Won, insgesamt also 70 Billionen Won. KI scheint zunehmend zu einem Wettstreit des Kapitals zu werden.

 

> Ich halte es für eine völlig unproduktive Tätigkeit und ein Provisionsgeschäft, unter dem Vorwand eines AI-Service einen Wrapper zu bauen, der eine externe API nutzt,

ergänzend dazu: Selbst wenn man eine API verwendet, kann man es als Erfolg ansehen, wenn sie so gut genutzt wird wie bei Manus, aber in Korea scheint es bisher keinen Wrapper auf diesem Niveau zu geben.

 

Dem stimme ich teilweise zu.
Ich halte es zwar für völlig unproduktiv und letztlich für ein Provisionsgeschäft, wenn man unter dem Etikett eines AI-Service nur einen Wrapper baut, der externe APIs nutzt,
abers wenn Unternehmen ihre Modelle wenigstens feinabstimmen und dann veröffentlichen, setzen sie dafür am Ende ihre eigenen Ressourcen ein und machen sie öffentlich, daher sehe ich keinen Grund, das negativ zu bewerten.

Sobald allerdings externe Gelder ins Spiel kommen, etwa vom Staat, kann man das wohl nicht mehr nur positiv sehen...

 

Wenn man gemini cli nutzt, ist die User Experience dank des 1M-Kontexts auf einem ganz anderen Niveau.
Dass man eine komplette Codebasis in den Kontext laden kann, ist ein echter Gamechanger.

 

Ich frage mich, wie stark die Kontextgröße die Nutzung eines Modells beeinflusst, und worin es sich noch von viralem Marketing gegenüber Leuten unterscheidet, die es nicht besser wissen, wenn man immer noch anhand von Benchmarks und oberflächlichem Anschein behauptet, was auf Platz 1 ist.

 

Es mag viele unterschiedliche Meinungen dazu geben, aber ich denke grundsätzlich, dass alle KI-bezogenen Projekte, die im Inland versucht werden, sinnvoll sind. Statt ihr Niveau im Vergleich zu anderen zu bewerten, sind wir meiner Meinung nach in einer Situation, in der schon der Versuch selbst Anerkennung verdient.

Es stimmt, dass die Reaktion spät kam, und auch bei Geld und GPUs liegen wir im Vergleich zu den USA und China zurück, aber wenn wir das anerkennen, es gemeinsam nutzen und dabei verbessern, wird es dann nicht besser werden?