Da ist viel Nachvollziehbares dabei.
Auch die Kommentare sind gut, aber wenn jemand das so ordnet und formuliert, also gewissermaßen den Rahmen dafür schafft, dann habe ich das Gefühl, dass es durch Widerspruch, Zustimmung und Ergänzungen noch vollständiger wird.
PS: Den Ausdruck „langweilige Technologie“ sehe ich in letzter Zeit häufig; auf Englisch ist das dann wohl boring technology.
> Umgekehrt kann der Einsatz von KI effizient sein, wenn es sich um Aufgaben handelt, bei denen es nur darum geht, „es einfach irgendwie zum Laufen zu bringen“.
Das gilt nicht nur für Entwickler, aber es gibt nun einmal Menschen mit sehr unterschiedlichen Neigungen. Deshalb habe ich den Eindruck, dass gerade diejenigen, die eher zufällig in der Softwareentwicklung gelandet sind und das Schreiben oder Lesen von Code nicht mögen oder sogar davor zurückschrecken, und die strukturierte Architektur oder Wartbarkeit weniger wichtig finden als die bloße Tatsache, dass es irgendwie läuft, besonders stark dazu neigen, sich auf KI zu verlassen oder ihr blind zu vertrauen. Vielleicht liege ich auch falsch.
Es gibt ein Paket, dessen Abhängigkeiten von pytorch+cuda sich nur in der Version unterscheiden … wirklich ein Trauerspiel.
Obwohl das Ding kaum Funktionen hat, werden für jeden kleinen Daemon fast 2 GB an Abhängigkeiten installiert …
Auch ich entwickle aus Bedarf eine RAG-Lösung und setze dafür die angeblich so schwer zu bekommenden vier H100-GPUs ein. Wenn man aber nicht nur die direkte Hardware-Investition, sondern auch Stromkosten, diverse Kühlungslösungen usw. berücksichtigt, denke ich immer wieder, dass es viel besser wäre, einfach eine API aufzurufen.
Ich habe anfangs ebenfalls mit Ollama getestet, dann festgestellt, dass damit nicht einmal drei gleichzeitige Nutzer ordentlich abgedeckt werden, und bin sofort zu vLLM gewechselt, um irgendwie eine RAG-Lösung zusammenzustellen. Aber schon dafür muss ich bei der Annahme von 10 gleichzeitigen Nutzern fast zwei H100-GPUs voll auslasten. Auch Embedding- und Suchaufgaben laufen bei mir über vLLM, und selbst mit vier H100-GPUs ist es wirklich knapp. Und das, obwohl eine Karte etwa 90 GB VRAM hat.
Natürlich kenne ich mich mit AI nicht besonders gut aus, und weil ich einfach etwas für die Abteilung gebraucht habe und dabei irgendwie die internen Sicherheitsvorgaben einhalten musste, probiere ich es eher mit dem Kopf durch die Wand ... aber ich frage mich wirklich, ob das so richtig ist. War es ChatGPT Enterprise? Das halte ich wirklich für extrem preiswert.
Ich hatte einen ähnlichen Gedanken, aber es war schwer, ihn in Worte zu fassen.
Mentales Modell ist wirklich eine passende Bezeichnung. Ich werde sie gelegentlich verwenden.
Ich mag Django wirklich sehr! Auch ich verdanke ihm in vielerlei Hinsicht eine Menge und bin sehr dankbar. Django ist zwar weniger populär als früher. Aber wenn man ehrlich ist, frage ich mich, ob Django jemals wirklich besonders "heiß" war; ich glaube, dass es als Framework, das beständig und stabil geschätzt wird, noch sehr, sehr lange bestehen wird!
Genau so etwas wollte ich mir bauen, weil ich es unbedingt gebraucht habe – und jetzt hat es jemand umgesetzt ... Ich nutze Claude Code Max, und während ich mehrere Projekte gleichzeitig entwickle, war das wirklich eine Software, die ich gebraucht habe.
Ich hätte mir gewünscht, dass deutlich gezeigt wird, wie stark die Verbesserungen sind, wie gut das Modell ist und wie präzise es arbeitet – idealerweise anhand von Zahlen.
Dem Problem der Verschwendung von Speicherplatz kann ich ziemlich gut nachempfinden ...
Ich betreibe AKS, und jedes Mal, wenn ich eine Python-App mit einem Container-Image von über 1 GB sehe, bekomme ich Kopfschmerzen.
Im Moment nehme ich mir einfach das Dockerfile, reduziere die Größe selbst und lade es dann hoch; wenn ich es nicht unter 500 MB bekomme, gebe ich einfach auf, haha
Wow ...! Als ich es zum ersten Mal benutzt habe, war es ein Projekt, das ich wegen Python verwendet habe ...
Es ist eine lange Zeit vergangen!
Ich hoffe, ich kann wieder in einem Umfeld arbeiten, in dem ich es nutzen kann :) hehe
Vielleicht probiere ich es mal nebenbei aus ...
Da ist viel Nachvollziehbares dabei.
Auch die Kommentare sind gut, aber wenn jemand das so ordnet und formuliert, also gewissermaßen den Rahmen dafür schafft, dann habe ich das Gefühl, dass es durch Widerspruch, Zustimmung und Ergänzungen noch vollständiger wird.
PS: Den Ausdruck „langweilige Technologie“ sehe ich in letzter Zeit häufig; auf Englisch ist das dann wohl boring technology.
> Umgekehrt kann der Einsatz von KI effizient sein, wenn es sich um Aufgaben handelt, bei denen es nur darum geht, „es einfach irgendwie zum Laufen zu bringen“.
Das gilt nicht nur für Entwickler, aber es gibt nun einmal Menschen mit sehr unterschiedlichen Neigungen. Deshalb habe ich den Eindruck, dass gerade diejenigen, die eher zufällig in der Softwareentwicklung gelandet sind und das Schreiben oder Lesen von Code nicht mögen oder sogar davor zurückschrecken, und die strukturierte Architektur oder Wartbarkeit weniger wichtig finden als die bloße Tatsache, dass es irgendwie läuft, besonders stark dazu neigen, sich auf KI zu verlassen oder ihr blind zu vertrauen. Vielleicht liege ich auch falsch.
Es gibt ein Paket, dessen Abhängigkeiten von
pytorch+cudasich nur in der Version unterscheiden … wirklich ein Trauerspiel.Obwohl das Ding kaum Funktionen hat, werden für jeden kleinen Daemon fast 2 GB an Abhängigkeiten installiert …
Auch ich entwickle aus Bedarf eine RAG-Lösung und setze dafür die angeblich so schwer zu bekommenden vier H100-GPUs ein. Wenn man aber nicht nur die direkte Hardware-Investition, sondern auch Stromkosten, diverse Kühlungslösungen usw. berücksichtigt, denke ich immer wieder, dass es viel besser wäre, einfach eine API aufzurufen.
Ich habe anfangs ebenfalls mit Ollama getestet, dann festgestellt, dass damit nicht einmal drei gleichzeitige Nutzer ordentlich abgedeckt werden, und bin sofort zu vLLM gewechselt, um irgendwie eine RAG-Lösung zusammenzustellen. Aber schon dafür muss ich bei der Annahme von 10 gleichzeitigen Nutzern fast zwei H100-GPUs voll auslasten. Auch Embedding- und Suchaufgaben laufen bei mir über vLLM, und selbst mit vier H100-GPUs ist es wirklich knapp. Und das, obwohl eine Karte etwa 90 GB VRAM hat.
Natürlich kenne ich mich mit AI nicht besonders gut aus, und weil ich einfach etwas für die Abteilung gebraucht habe und dabei irgendwie die internen Sicherheitsvorgaben einhalten musste, probiere ich es eher mit dem Kopf durch die Wand ... aber ich frage mich wirklich, ob das so richtig ist. War es ChatGPT Enterprise? Das halte ich wirklich für extrem preiswert.
Ich hatte einen ähnlichen Gedanken, aber es war schwer, ihn in Worte zu fassen.
Mentales Modell ist wirklich eine passende Bezeichnung. Ich werde sie gelegentlich verwenden.
150 Dollar pro Stunde? Schon damit ist die Variablenkontrolle lolololol
Ich mag Django wirklich sehr! Auch ich verdanke ihm in vielerlei Hinsicht eine Menge und bin sehr dankbar. Django ist zwar weniger populär als früher. Aber wenn man ehrlich ist, frage ich mich, ob Django jemals wirklich besonders "heiß" war; ich glaube, dass es als Framework, das beständig und stabil geschätzt wird, noch sehr, sehr lange bestehen wird!
Von vornherein unterstützen Komponentenhersteller, die Geräte produzieren, weder Lua noch Python besonders gut. Eher noch C?
Wurde der Verfasser des Artikels gesperrt, nachdem er massenhaft generische Shorts per Klick produziert hat? lol
Für die Webentwicklung als Hobby nutze ich es sehr gern.
const a = (a: () => null): (() => () => null) =>() => aMessen des „AI-Impacts“ auf die Produktivität erfahrener Open-Source-Entwickler
() => ❤️
Genau so etwas wollte ich mir bauen, weil ich es unbedingt gebraucht habe – und jetzt hat es jemand umgesetzt ... Ich nutze Claude Code Max, und während ich mehrere Projekte gleichzeitig entwickle, war das wirklich eine Software, die ich gebraucht habe.
Herzlichen Glückwunsch zum Geburtstag, Django!
Die koreanische Übersetzung finden Sie unten.
https://roy-jung.github.io/250701-history-of-js/
Ich hätte mir gewünscht, dass deutlich gezeigt wird, wie stark die Verbesserungen sind, wie gut das Modell ist und wie präzise es arbeitet – idealerweise anhand von Zahlen.
Ich frage mich, wie sich Korea davon unterscheidet.
Dem Problem der
Verschwendung von Speicherplatzkann ich ziemlich gut nachempfinden ...Ich betreibe AKS, und jedes Mal, wenn ich eine Python-App mit einem Container-Image von über 1 GB sehe, bekomme ich Kopfschmerzen.
Im Moment nehme ich mir einfach das Dockerfile, reduziere die Größe selbst und lade es dann hoch; wenn ich es nicht unter 500 MB bekomme, gebe ich einfach auf, haha
Wow ...! Als ich es zum ersten Mal benutzt habe, war es ein Projekt, das ich wegen Python verwendet habe ...
Es ist eine lange Zeit vergangen!
Ich hoffe, ich kann wieder in einem Umfeld arbeiten, in dem ich es nutzen kann :) hehe
Vielleicht probiere ich es mal nebenbei aus ...