Letztlich scheint es darauf anzukommen, wie die Person, die es nutzt, darüber denkt und es einsetzt.
Es ist zwar riskanter geworden, dass ein Umfeld entsteht, in dem man Aufgaben gedankenlos einfach nur abgibt und sich unbewusst davon treiben lässt, aber wenn man es gut nutzt, sind Lernen und Entwicklung deutlich schneller und präziser möglich als bisher.
Allerdings wäre es schön, wenn für Menschen, die gerade erst anfangen zu lernen, möglichst bald ein neues, vorbildliches System und eine passende Methode für das Lernen ausgearbeitet würden, die sich von den bisherigen Lern- und Erfahrungsweisen unterscheiden.
Auf der Installationsseite wird nach einer E-Mail-Adresse gefragt, daher dachte ich, es sei ein Private Repo, aber es ist ein Public Repo.
Über den untenstehenden Link kommt ihr dorthin.
> Bei Aktivierung des /fast-Modus in Codex bis zu 1,5-fach schnellere Token-Geschwindigkeit bei gleichem Modell und unverändertem Intelligenzniveau. In der API entspricht dies Priority Processing.
> Priority Processing kostet das Doppelte des Standardpreises
> Anfragen, die das standardmäßige Kontextfenster von 272K überschreiten, werden zum doppelten Preis abgerechnet
Was ist das, mir geht langsam der Wortschatz aus.
Ich sitze hier und schlage „emergent“, „slop“, „Quellenattribution“, „Framing-Effekt“ und „kambrische Explosion“ nach.
Ich habe überlegt, qmd auszuprobieren, und die AI mit der Recherche beauftragt. Dabei hieß es, dass der Embedding-Bereich ganz ordentlich sei, aber BM25 und Query Expansion wegen der schwachen Koreanisch-Unterstützung nicht empfohlen würden...
Als ich das letzte Mal versucht habe, über den Agenten ein Fine-Tuning laufen zu lassen, schien je nach Datenlage häufig ein Overfitting-Problem aufzutreten. Ich bin gespannt, ob das in diesem Notebook mit einer Kombination aus LoRA/QLoRA möglich ist.
Ich erwarte noch nicht einmal, dass Schlichtheit positiv bewertet wird. In der Realität wird man ja manchmal sogar befördert, weil man etwas unnötig komplex gemacht, damit einen Vorfall verursacht und ihn anschließend wieder bereinigt hat.
Wenn jemand in einer höheren Position wäre, der so etwas beurteilen kann, wäre alles in Ordnung. Aber genau das klappt von vornherein nicht, deshalb wird so etwas nicht fair bewertet, und deshalb können solche Leute nicht nach oben kommen...
Das ist ein Teufelskreis...
Aus Sicht des Unternehmens scheint es wichtig zu sein, dass man als ausgewogener Engineer erfolgreich ist und nach oben kommt, damit auch gute Engineer-/Engineering-Prinzipien gewahrt werden können.
Die durch WDD (Wife Driven Development) gewachsene und geschärfte Atmosphäre …
Letztlich scheint es darauf anzukommen, wie die Person, die es nutzt, darüber denkt und es einsetzt.
Es ist zwar riskanter geworden, dass ein Umfeld entsteht, in dem man Aufgaben gedankenlos einfach nur abgibt und sich unbewusst davon treiben lässt, aber wenn man es gut nutzt, sind Lernen und Entwicklung deutlich schneller und präziser möglich als bisher.
Allerdings wäre es schön, wenn für Menschen, die gerade erst anfangen zu lernen, möglichst bald ein neues, vorbildliches System und eine passende Methode für das Lernen ausgearbeitet würden, die sich von den bisherigen Lern- und Erfahrungsweisen unterscheiden.
Ich habe es meiner Frau sehr unterhaltsam vorgelesen...
Es wurde die Meinung geäußert, dass seine Frau ihn möglicherweise auf dieses Niveau gebracht hat.
Punkt 2. Bei den vernünftigen Standardwerten denke ich, dass ich mich selbst einmal reflektieren sollte.
Sowohl der Artikel als auch die Kommentare sind erstaunlich negativ. Haben denn wirklich alle noch nie Claude Code ausprobiert..
Der Grund, warum Entwickler keine Dates haben
Ist doch einfach nur RAG;
Wenn man nach nanoclaw sucht, wird nanoclaw.net immer noch unter Git angezeigt.
Der Entwickler eines Cheating-Tools hat also selbst betrogen und wurde dabei erwischt. Tja.
Auf der Installationsseite wird nach einer E-Mail-Adresse gefragt, daher dachte ich, es sei ein Private Repo, aber es ist ein Public Repo.
Über den untenstehenden Link kommt ihr dorthin.
https://github.com/ArtemXTech/personal-os-skills/…
Sieht super interessant aus, ich glaube, ich werde das mal ausprobieren.
> Bei Aktivierung des /fast-Modus in Codex bis zu 1,5-fach schnellere Token-Geschwindigkeit bei gleichem Modell und unverändertem Intelligenzniveau. In der API entspricht dies Priority Processing.
> Priority Processing kostet das Doppelte des Standardpreises
> Anfragen, die das standardmäßige Kontextfenster von 272K überschreiten, werden zum doppelten Preis abgerechnet
Hahahaha
Was ist das, mir geht langsam der Wortschatz aus.
Ich sitze hier und schlage „emergent“, „slop“, „Quellenattribution“, „Framing-Effekt“ und „kambrische Explosion“ nach.
Warum stirbt in letzter Zeit so viel?
Ich habe überlegt,
qmdauszuprobieren, und die AI mit der Recherche beauftragt. Dabei hieß es, dass der Embedding-Bereich ganz ordentlich sei, aber BM25 und Query Expansion wegen der schwachen Koreanisch-Unterstützung nicht empfohlen würden...Als ich das letzte Mal versucht habe, über den Agenten ein Fine-Tuning laufen zu lassen, schien je nach Datenlage häufig ein Overfitting-Problem aufzutreten. Ich bin gespannt, ob das in diesem Notebook mit einer Kombination aus LoRA/QLoRA möglich ist.
Ich erwarte noch nicht einmal, dass Schlichtheit positiv bewertet wird. In der Realität wird man ja manchmal sogar befördert, weil man etwas unnötig komplex gemacht, damit einen Vorfall verursacht und ihn anschließend wieder bereinigt hat.
Wenn jemand in einer höheren Position wäre, der so etwas beurteilen kann, wäre alles in Ordnung. Aber genau das klappt von vornherein nicht, deshalb wird so etwas nicht fair bewertet, und deshalb können solche Leute nicht nach oben kommen...
Das ist ein Teufelskreis...
Aus Sicht des Unternehmens scheint es wichtig zu sein, dass man als ausgewogener Engineer erfolgreich ist und nach oben kommt, damit auch gute Engineer-/Engineering-Prinzipien gewahrt werden können.
Wenn der RAM wenigstens 16 GB gewesen wäre, hätte ich es gekauft – schade.
DoD: Department of Defense
..W: ..Krieg