Wenn GitHub Copilot sich weiterentwickeln soll, wäre es wohl am sinnvollsten, wenn es in CoreAI integriert würde.

 

Auch Google Keep eignet sich gut für die einfache Nutzung.

 

Ich bin bei Things + Obsidian gelandet. Things nutze ich für langfristige, Obsidian für kurzfristige To-dos; für mich ist das am einfachsten. Im Notfall kann ich auch mit - [ ] ein To-do anlegen und es später einfach in Obsidian einfügen..

 

'Der Fokus dieses Teams liegt in der Entwicklung von KI-Plattformen und -Tools für Microsoft und unsere Kunden.'

Für mich persönlich wird das wohl wenig Auswirkungen haben, aber GitHub wird wohl eine neue Richtung einschlagen!

 

Auch ich bin durch verschiedene Tools geirrt und nutze aktuell Todoist + Obsidian.
Für die Kalender-Integration und um Gedanken jederzeit auf verschiedenen Geräten festzuhalten, ist Todoist für mich am praktischsten.

 

Das wirkt wie übertriebener Pessimismus.
Die Bedenken sind verständlich, aber der Fortschritt in der Technologie kann nicht zwingend immer nach oben steigen.

 

Ich bin ebenfalls von Ubuntu auf einem VPS mit 512 MB RAM für 2,5 USD im Monat zu Debian gewechselt, und es gefällt mir. Da ich von Ubuntu gekommen bin, ist es natürlich vertraut, und es verbraucht auch weniger Speicher.

 

Ich habe es wirklich sehr gerne gelesen. Es regt zum Nachdenken an, und zugleich ist es beruhigend zu sehen, dass es durchaus Bereiche gibt, die man ausprobieren kann.

 

Heutzutage schaue ich mir den vollständigen RSS-Feed in Feedly kaum noch an; wenn ich gelegentlich sehen möchte, was es gibt, nutze ich die folgenden zwei Angebote.

 

Wenn ich schon Zig nutzen soll, dann nehme ich lieber C, haha...

 

Dass mein Material auf GeekNews vorgestellt wird – eine Ehre für die ganze Familie.

 

Bei mir wird angezeigt: We haven’t opened ordering in your region yet, but we’re looking forward to getting there! We can notify you when ordering opens

 

https://frame.work/desktop?tab=overview

Scheint zwar möglich zu sein ... kommt offenbar im 4. Quartal auf den Markt?

 

Vor allem in den asiatischen Azure-Regionen liegt der von OpenAI genutzte AMD-Anteil ungefähr bei
Nvidia 8 / AMD 2.

 

Bei OpenAI wird für Inferenz nicht nur NVIDIA-Hardware, sondern auch AMDs MI300X eingesetzt; fürs Training allerdings ausschließlich NVIDIA.
Bei der Inferenz ist man geradezu besessen davon, im Verhältnis zu den Investitionskosten irgendwie möglichst viel VRAM zu sichern.
Bei Microsoft ist es ähnlich: Für Inferenz werden NVIDIA und AMD ebenfalls gemischt eingesetzt.

 

Ich unterstütze Zig :)

 

Nur weil der Autor des Beitrags Gary Marcus ist, der doch sowieso nur Blödsinn von sich gibt, ...

 

Und ich glaube, dass auch der wirklich peinliche Fehler, den sie bei der Präsentation beim Zeigen der Benchmarks gemacht haben, zu einem insgesamt schlechten Gesamteindruck beigetragen hat.

 

Wenn sie wie Google einfach nur leise auf show&prove gesetzt hätten, wäre es wohl nicht so weit gekommen. Diese ständigen Warnungen wie „zu gefährlich“, „wie bei der Death Star“ oder „als hätten wir eine Atombombe gebaut“, zusammen mit dem ganzen zusätzlichen Hype, den sie sich da aufgebaut haben, sind wohl eher selbstverschuldet.