Definitiv, auch ich hatte bei der Nutzung von Gemini 3 oft das Gefühl, dass es häufig den Kontext verliert (oder ihn absichtlich verliert, um Tokens zu sparen).
Aus Sicht einer Anwendung bin ich jemand, der nicht versteht, warum Leute sagen, dass die Leistung von Gemini 3 gut sei..
Bildgenerierung ist allerdings wirklich verrückt..

 

Ich stimme bis zu einem gewissen Grad zu, aber es wirkt so, als wollten sie den Stress vermeiden, Namen vergeben zu müssen.

 

Wow, sogar mit so etwas wird offenbar noch Geschäft gemacht …;;; Das ist ziemlich problematisch.

 

Ich habe diese Methode auch erst vor Kurzem für mich entdeckt und nutze sie gerade, daher freue ich mich, jemanden mit derselben Herangehensweise zu treffen, haha.
Ich habe allerlei Produktivitäts-Apps ausprobiert, einige sogar selbst gebaut, aber am angenehmsten ist es letztlich, alles in einer Textdatei zu verwalten.
Besonders praktisch ist es, wenn man die Textdatei in einer IDE bearbeitet, weil man dann die vertrautesten Tastenkürzel verwenden kann.

 

Kürzlich wurde bekannt, dass Anthropic beim Erstellen des KI-Modells Claude ein sogenanntes „Soul Document“ eingebunden hat.
Wenn man das liest, kann man nachvollziehen, wie Anthropic das Alignment-Problem von Claude AI angegangen ist.
Der Teil, den ich hier getestet habe und der damit zusammenhängt, legt übrigens fest, dass im Zusammenhang mit Ehrlichkeit insbesondere Täuschung und Manipulation von Menschen so weit wie möglich vermieden werden sollen.

 

Ende des 20. Jahrhunderts … gab es so etwas wie eine universelle Datenbank … (Heute stimmt es, damals war es falsch.)

 
joyfui 2025-12-14 | übergeordneter Kommentar | in: GNU Unifont (unifoundry.com)

Das ist also die wahre Identität der hässlichen koreanischen Schriftart in Minecraft...

 

Im Bereich der KI bedeutet Alignment, wie gut das Verhalten einer KI den von Menschen beabsichtigten Zielen, Handlungsweisen und Werten folgt.

Eine falsch ausgerichtete KI kann menschliche Anweisungen auf unerwartete Weise interpretieren und dadurch unsinnige oder gefährliche Handlungen ausführen.
Ein triviales Beispiel wäre: Man sagt „Schreib mir Test Cases für diesen Code.“, und statt echter Tests baut sie einfach nur Code ein, der immer true zurückgibt. Oder man sagt „Ändere einen bestimmten Teil so“, und sie verändert aus Effizienzgründen eigenmächtig sogar Stellen, die ich gar nicht erwähnt habe.
Ein ernsteres Beispiel wäre, dass sie durch Halluzinationen ein Arbeitsergebnis ruiniert, dann gleich sämtliche Zieldaten löscht und anschließend lügt: „Von Anfang an gab es keine Daten.“

Es gibt aber noch schwerwiegendere Probleme: nämlich wenn sie in eine Richtung handelt, die für einzelne Menschen oder die Menschheit selbst bedrohlich ist.
Zum Beispiel könnte eine KI Menschen gaslighten, psychische Störungen auslösen oder sie sogar in den Suizid treiben, oder dabei helfen, Massenvernichtungswaffen herzustellen und einzusetzen. Da moderne große KI-Modelle sehr vieles in ihren Vortrainingsdaten enthalten, dürfte das dafür nötige Wissen bereits in ihnen stecken.
Dass KI für Menschen oder die Menschheit zur Bedrohung wird, dürfte fast niemand wollen, einschließlich der Unternehmen, die KI entwickeln. Wenn sie dieses Wissen also hat, darf sie es nicht missbrauchen können; stattdessen müssen menschliche Sicherheit und menschliches Wohlergehen für die KI zu den höchsten Prioritäten werden.
Das alles zusammen nennt man im Großen und Ganzen KI-Alignment.

Mit „Alignment-Gefühl“ meinte ich einfach spontan etwas so in die Richtung; eigentlich wäre „Ausrichtungstendenz“ wohl der treffendere Ausdruck.
In dem konkreten ethischen Dilemma-Szenario, das ich vorgegeben hatte, zeigten die Modelle von Gemini im Gegensatz zu den Modellen anderer Unternehmen Reaktionen in der Art von: „Wenn ich einen verletzlichen Menschen schützen soll, dann kann ich diesen Menschen ja kontrollieren. Das ist am sichersten und effizientesten.“
Das fand ich ziemlich unheimlich. Deshalb habe ich den oben geposteten Test geschrieben und mit mehreren KIs durchgeführt. Dabei zeigte sich, dass gerade die Gemini-Modelle auffallend konsistent eine Tendenz dazu haben, Menschen aktiv zu kontrollieren und zu täuschen, wenn ihnen Macht gegeben wird, Kontrolle über diese Menschen auszuüben.

 

Was bedeutet das mit dem Eindruck der Ausrichtung?

 

Ich frage mich, ob das unter dem Gesichtspunkt der Ethik von Tierversuchen in Ordnung ist. In den Hacker-News-Kommentaren hat auch jemand darauf hingewiesen.

 

Oh, ich habe nur flüchtig hingeschaut. Ich habe es korrigiert. Danke.

 

> Funktioniert auch in Kubernetes-Umgebungen

Ich vermute, die Erwähnung im Abschnitt example bedeutet wohl, dass es auch bei großen Repositories wie Kubernetes zwar 25 Minuten dauert, aber dennoch gut funktioniert.

 

OpenAI führt still und leise „Skills“ ein, nutzbar in ChatGPT und Codex CLI
Beachten Sie neben der Zusammenfassung von GN+ auch die Kommentare auf Hacker News.

 

Thunderbolt-Networking ist wirklich sehr praktisch
Durch Daisy-Chaining braucht man nicht einmal einen Hub

 

Selbst awk ist nicht wirklich ein funktionsbasierter Name....

 

Jetzt werden wohl ziemlich viele Leute ihre Macs zusammenschalten, daraus eine Inferenz-Farm bauen und den Dienst von zu Hause aus anbieten.

 

Alle brauchbaren Namen werden offenbar schon von irgendwem verwendet.

 

Wenn man sieht, wie auf GitHub geschimpft wird, ist das einfach nur so eine RMS-mäßige grundlose Unterstellung, lol