Ich glaube, 505studio im latpeed-Link ist mobeah (https://x.com/mobeahmi). Es wäre wohl auch kein großes Problem gewesen, wenn die Person einfach gepostet hätte, dass sie die Übersetzung selbst gemacht hat.

 

Wenn es so etwas wie React oder Vue nicht gäbe,
müsste man selbst bei gleicher Funktionalität den Code deutlich komplexer umsetzen, oder?
Gerade beim Umgang mit Pop-ups wird schon das bloße Weiterreichen einer einzigen Prop in reinem JavaScript ziemlich kompliziert.
Wenn schon bei so einfachen Dingen der Code komplex wird, dann wird es bei wirklich
komplexen Funktionen schwer, sie überhaupt zu implementieren.

 

https://godotengine.org/article/godot-showcase-dogwalk/
Auch das Interview im Godot-Blog und

https://studio.blender.org/blog/our-workflow-with-blender-and-godot/
der Artikel darüber, wie das Blender-Entwicklungsteam den Workflow mit Godot aufgebaut und Ressourcen verwaltet hat, sind sehr interessant – klare Empfehlung.

 

https://drive.google.com/file/d/…

Hier einfach ohne Eingabe einer Nummer ansehen.

 

Ist die Person, die diesen Beitrag geschrieben hat, Herr Ahn Kwang-seop, CEO des Unternehmens ThreeBlocks.ai?

 

Warum werden Handynummern gesammelt?

 

Ich würde es gern sehen, aber die Tatsache, dass man eine Nummer eingeben muss, um es zu bekommen, lässt mich zögern.

 

Da die USA so groß sind, scheint so ein Versuch dort wohl möglich zu sein. Ziemlich interessant.

 

Gute Neuigkeiten, haha. Hoffentlich wird die CUDA-Unterstützung bald hinzugefügt, damit auch auf dem Mac schnelles Training möglich ist~!

 

Letztlich erkennt das Tool also schon im Voraus genau, welche Probleme beim Zusammenführen verzweigter Branches auftreten werden, und schließt die Entwicklung direkt ab.

 

So grundlegend wie die Frage, ob ein prototype vorhanden ist, ist auch ...
auch die Art, auf die Referenz der erzeugten Higher-Order-Funktion zuzugreifen, ...

 

Das ist zwangsläufige Komplexität. Es ist nicht mehr wie früher einfaches Template-HTML.

 

Wenn es sich um eine CPU-Laufzeit nur für einfache Inferenz handelt, ist die Lage noch etwas besser, aber wegen der heute geforderten LLM-Dienste steigen sowohl der Traffic als auch die benötigte Kapazität immer weiter, sodass einem bei der Kostenkalkulation echt das Fluchen kommt lol

 

Da ist viel Nachvollziehbares dabei.
Auch die Kommentare sind gut, aber wenn jemand das so ordnet und formuliert, also gewissermaßen den Rahmen dafür schafft, dann habe ich das Gefühl, dass es durch Widerspruch, Zustimmung und Ergänzungen noch vollständiger wird.

PS: Den Ausdruck „langweilige Technologie“ sehe ich in letzter Zeit häufig; auf Englisch ist das dann wohl boring technology.

 

> Umgekehrt kann der Einsatz von KI effizient sein, wenn es sich um Aufgaben handelt, bei denen es nur darum geht, „es einfach irgendwie zum Laufen zu bringen“.

Das gilt nicht nur für Entwickler, aber es gibt nun einmal Menschen mit sehr unterschiedlichen Neigungen. Deshalb habe ich den Eindruck, dass gerade diejenigen, die eher zufällig in der Softwareentwicklung gelandet sind und das Schreiben oder Lesen von Code nicht mögen oder sogar davor zurückschrecken, und die strukturierte Architektur oder Wartbarkeit weniger wichtig finden als die bloße Tatsache, dass es irgendwie läuft, besonders stark dazu neigen, sich auf KI zu verlassen oder ihr blind zu vertrauen. Vielleicht liege ich auch falsch.

 

Es gibt ein Paket, dessen Abhängigkeiten von pytorch+cuda sich nur in der Version unterscheiden … wirklich ein Trauerspiel.
Obwohl das Ding kaum Funktionen hat, werden für jeden kleinen Daemon fast 2 GB an Abhängigkeiten installiert …

 

Auch ich entwickle aus Bedarf eine RAG-Lösung und setze dafür die angeblich so schwer zu bekommenden vier H100-GPUs ein. Wenn man aber nicht nur die direkte Hardware-Investition, sondern auch Stromkosten, diverse Kühlungslösungen usw. berücksichtigt, denke ich immer wieder, dass es viel besser wäre, einfach eine API aufzurufen.

Ich habe anfangs ebenfalls mit Ollama getestet, dann festgestellt, dass damit nicht einmal drei gleichzeitige Nutzer ordentlich abgedeckt werden, und bin sofort zu vLLM gewechselt, um irgendwie eine RAG-Lösung zusammenzustellen. Aber schon dafür muss ich bei der Annahme von 10 gleichzeitigen Nutzern fast zwei H100-GPUs voll auslasten. Auch Embedding- und Suchaufgaben laufen bei mir über vLLM, und selbst mit vier H100-GPUs ist es wirklich knapp. Und das, obwohl eine Karte etwa 90 GB VRAM hat.

Natürlich kenne ich mich mit AI nicht besonders gut aus, und weil ich einfach etwas für die Abteilung gebraucht habe und dabei irgendwie die internen Sicherheitsvorgaben einhalten musste, probiere ich es eher mit dem Kopf durch die Wand ... aber ich frage mich wirklich, ob das so richtig ist. War es ChatGPT Enterprise? Das halte ich wirklich für extrem preiswert.

 

Ich hatte einen ähnlichen Gedanken, aber es war schwer, ihn in Worte zu fassen.
Mentales Modell ist wirklich eine passende Bezeichnung. Ich werde sie gelegentlich verwenden.

 

150 Dollar pro Stunde? Schon damit ist die Variablenkontrolle lolololol