Wow … sogar im Video gibt es koreanische Untertitel.
Der Inhalt ist auch gut …
Ist zwar ein anderes Thema, aber die Welt ist wirklich besser geworden. Wir leben in einer Zeit, in der man MIT-Vorlesungen im Internet sogar auf Koreanisch mitverfolgen kann.
Dort steht, es sei eine vollständige Neuschreibung von co(lab), daher dachte ich, es gehe zusammen mit Google um die Verbesserung der Cloud-Stabilität für die Ausführung von ipynb, aber es ist ein Entwicklungsprojekt des Blackboard-Teams, das damit überhaupt nichts zu tun hat.
Trotzdem scheint es eine wichtige Erfahrung zu sein, dass sich das per npx installierte OOPIF ansprechen lässt.
Liegt das nicht vielleicht daran, dass es eine AI-native(?) Sprache ist?
Da sie nicht als Sprache gedacht ist, die Menschen direkt schreiben sollen, ist es letztlich bedeutungslos, wie lang der eigentliche Code ist oder sonst was,
und ich glaube, die Idee ist eher, die Kompilierzeit für einen Prompt zu messen, der eine bestimmte Funktion implementieren soll ... haha
Ich dachte erst, die Zuweisung würde automatisch erfolgen, aber offenbar trägt man sie einfach manuell ein.
Ich nutze Caddy, daher gibt es für mich keinen besonderen Grund, dafür umzusteigen.
Ich denke in letzter Zeit ähnlich und habe gestern auch einen Blogbeitrag über kognitive Schulden geschrieben. Offenbar machen sich viele ähnliche Gedanken.
Ich habe eine RTX Pro 6000 (96GB, effektiv 94GB), aber das 122B-Modell lässt sich mit ollama nicht laden. Ich vermute, das liegt daran, dass es ein Vision-Modell ist und an dem Teil, in dem der Vision-Transformer enthalten ist. Das GPT OSS 120b-Modell lässt sich dagegen problemlos laden.
Wow … sogar im Video gibt es koreanische Untertitel.
Der Inhalt ist auch gut …
Ist zwar ein anderes Thema, aber die Welt ist wirklich besser geworden. Wir leben in einer Zeit, in der man MIT-Vorlesungen im Internet sogar auf Koreanisch mitverfolgen kann.
Für mich klingt das so, als dürfte man E2E-Tests auf keinen Fall weglassen. Mich würde interessieren, wie andere das sehen.
Wie sollte man Codeverständnis angehen? Sollte man es vielleicht messen, indem man sogar Quizfragen auf Grundlage der internen Codebasis erstellt?
„Nicht das Engineering ist vorbei, sondern nur das Tippen“
Dem stimme ich zu. Haha
Dort steht, es sei eine vollständige Neuschreibung von co(lab), daher dachte ich, es gehe zusammen mit Google um die Verbesserung der Cloud-Stabilität für die Ausführung von
ipynb, aber es ist ein Entwicklungsprojekt des Blackboard-Teams, das damit überhaupt nichts zu tun hat.Trotzdem scheint es eine wichtige Erfahrung zu sein, dass sich das per
npxinstallierte OOPIF ansprechen lässt.Liegt das nicht vielleicht daran, dass es eine AI-native(?) Sprache ist?
Da sie nicht als Sprache gedacht ist, die Menschen direkt schreiben sollen, ist es letztlich bedeutungslos, wie lang der eigentliche Code ist oder sonst was,
und ich glaube, die Idee ist eher, die Kompilierzeit für einen Prompt zu messen, der eine bestimmte Funktion implementieren soll ... haha
Sie festigen ihre unangefochtene Spitzenposition.
Großartig.
Es passt nicht gut zu Worktrees innerhalb desselben Projekts, deshalb nutze ich es nicht.
Ich dachte erst, die Zuweisung würde automatisch erfolgen, aber offenbar trägt man sie einfach manuell ein.
Ich nutze Caddy, daher gibt es für mich keinen besonderen Grund, dafür umzusteigen.
Ich nutze das zwar bereits mit
docker+traefik+mkcert, aber das hier scheint bequemer zu sein.Es ist so gut, dass es einem Angst macht. Ich glaube nicht, dass es gut ist, sich noch stärker davon abhängig zu machen … Es muss Konkurrenz geben.
Anthropic wird immer besser, je mehr man sie lobt.
Ich glaube, sie geben anderen Unternehmen gerade enormen Ansporn.
Ich denke in letzter Zeit ähnlich und habe gestern auch einen Blogbeitrag über kognitive Schulden geschrieben. Offenbar machen sich viele ähnliche Gedanken.
Interessant. Haben Sie Pläne für die weitere Entwicklung in der Zukunft?
Wow, hahaha
Stimmt … sobald ein Vision-Encoder verwendet wird, braucht selbst ein 1B-Modell schon 9 GB VRAM.
Ich habe das Gefühl, Sam Altman ist ein soziopathisches Reptil.
„Der Akt, mit den Händen physische Dinge zu erschaffen, bringt eine innere Transformation mit sich“
Ich habe eine RTX Pro 6000 (96GB, effektiv 94GB), aber das 122B-Modell lässt sich mit ollama nicht laden. Ich vermute, das liegt daran, dass es ein Vision-Modell ist und an dem Teil, in dem der Vision-Transformer enthalten ist. Das GPT OSS 120b-Modell lässt sich dagegen problemlos laden.