GeekNews Neu Kommentare Archiv
◀ Vorheriges Jahr | ◁ Vorheriger Monat | << Vorherige Woche | < Vorheriger Tag | 2026-02-23 | Nächster Tag > | Nächste Woche >> | Nächster Monat ▷
21
 

Chinas CXMT setzt Samsung und SK im HBM4-Wettlauf mit DDR4 zum halben Preis unter Druck

(koreaherald.com)
CXMT drückt mit DDR4 zum halben Preis in den Alt-DRAM-Markt und erhöht damit den Druck auf Samsung und SK hynix trotz deren HBM4-Führungsrolle.
3 Punkte von GN⁺ 2026-02-23 | 1 Kommentare
22
 

zclaw – Persönlicher AI-Assistent, der auf dem ESP32 mit 888 KB läuft

(github.com/tnm)
zclaw ist ein ultraleichter persönlicher AI-Assistent für den ESP32, der natürlichsprachige Steuerung, GPIO, Scheduling und LLM-Anbindung in weniger als 888 KiB Firmware vereint.
10 Punkte von GN⁺ 2026-02-23 | 1 Kommentare
23
 

AI-uBlock-Blacklist

(github.com/alvi-se)
Eine Open-Source-Blacklist für uBlock Origin blockiert KI-generierte Content-Farmen, um unzuverlässige und werbelastige Suchtreffer zu reduzieren.
6 Punkte von GN⁺ 2026-02-23 | 1 Kommentare
24
 

Die Website, die tote Multiplayer-Spiele wiederbelebt: GameDate

(gamedate.org)
GameDate ist eine communitygetragene Plattform, die Events organisiert, um verlassene oder inaktive Multiplayer-Spiele wieder spielbar zu machen.
1 Punkte von GN⁺ 2026-02-23 | 1 Kommentare
25
 

"Claws" laut Andrej Karpathy

(simonwillison.net)
Claws sind eine neue Orchestrierungs-Schicht über LLM-Agenten, die Persistenz, Scheduling und Tool-Aufrufe erweitert und sich als eigene Kategorie von AI-Agenten-Systemen etabliert.
6 Punkte von GN⁺ 2026-02-23 | 1 Kommentare
26
 

Taalas’ Methode, ein LLM auf einen Chip zu „drucken“

(anuragk.com)
Taalas prägt die Gewichte eines LLM direkt in Siliziumtransistoren ein und verspricht damit deutlich schnellere, günstigere und sparsamere Inferenz als GPU-Systeme.
23 Punkte von GN⁺ 2026-02-23 | 5 Kommentare
27
 

Alle Unternehmen, die AI-Assistenten entwickeln, sind jetzt Werbefirmen

(juno-labs.com)
Werbefinanzierte AI-Assistenten mit Always-on-Hardware gefährden die Privatsphäre, weshalb lokale On-Device- und Edge-Inferenz als einzige strukturell sichere Alternative dargestellt wird.
4 Punkte von GN⁺ 2026-02-23 | 1 Kommentare
28
 

ntransformer - NVMe-zu-GPU-Inferenz-Engine zum Ausführen von Llama 3.1 70B auf einer einzelnen RTX 3090

(github.com/xaskasdf)
Eine C++/CUDA-basierte LLM-Inferenz-Engine, die Llama 70B per direktem NVMe-zu-GPU-Streaming sogar auf einer einzelnen RTX 3090 ausführen kann.
15 Punkte von GN⁺ 2026-02-23 | 1 Kommentare
GeekNews | Über uns Bedingungen Datenschutz Kontakt
GeekNews ist eine Tech-News-Plattform, die Neues aus Technologie und KI kuratiert.