Das Gefühl, wenn in Windows nicht abschaltbare werbliche Benachrichtigungen erscheinen, ist ähnlich wie damals, als Samsung Werbung in die Standard-Apps seiner Galaxy-Smartphones eingebaut hat.

 

Ach, Sie müssen sich doch nicht entschuldigen … haha, vielen Dank für die überaus freundlichen Worte.

 

Ich denke, man muss beides ausreichend sorgfältig abwägen.

Für den Betrieb eines Unternehmens braucht man Entwickler, und aktuell ist es wohl eine Zeit, in der es für Junior-Entwickler schwer ist, eine Stelle zu finden. Öffentlich wird zwar die AI dafür verantwortlich gemacht, aber in der Corona-Zeit wurde massiv eingestellt, und verglichen mit dem Erfolg, der dazu im Verhältnis stand, sind in den Unternehmen insgesamt die Personalkosten gestiegen. Diese Belastung führt dazu, dass weniger eingestellt wird. In so einer Situation hat sich der Einsatz von LLMs als mindestens so effizient erwiesen, wie Junior-Entwicklern Aufgaben zu übertragen, weshalb ich denke, dass sich der Arbeitsmarkt selbst noch weiter verkleinert hat.

Wie auch im Artikel steht, braucht es jedoch Junior-Entwickler, damit daraus am Ende Senior-Entwickler werden können.
Wenn man keine Junior-Entwickler einstellt, können strukturell auch keine Senior-Entwickler entstehen.

Trotzdem denke ich, dass in diesem Prozess eine erhebliche Abstimmung nötig ist.
Bei Großunternehmen ist das vermutlich weniger ausgeprägt, weil die Strukturen dort stehen. Kommt ein Junior-Entwickler ins Unternehmen, wird man ihn eher mit kleineren Nebenaufgaben betrauen (Unternehmensaufgaben, bei denen auch ein Scheitern verkraftbar ist) und ihn dabei ausbilden, statt ihn direkt die Hauptarbeit des Unternehmens machen zu lassen.

Aus Sicht von Senior-Entwicklern ist es jedoch umso schwieriger, Junior-Entwickler anzuleiten, je weniger ausgereift diese Strukturen sind.

Und ironischerweise ist es bei der Nutzung von LLMs eher von Vorteil, wenn man mehr einschlägiges Wissen hat; nur weil jemand ein Entwickleranfänger ist, erreicht er nicht automatisch die gleiche Effizienz.
Es ist vielmehr unmöglich, sämtliche Entwicklungsaufgaben durch Junior-Mitarbeiter zu ersetzen. Sehr kluge Genies könnten es vielleicht irgendwie auch ohne Senior-Entwickler schaffen. Aber wenn sich dann die Arbeit bei dieser Person zu sammeln beginnt, wird sie das wirklich aushalten können?

Kurz gesagt: Es müssen sowohl Senior- als auch Junior-Entwickler eingestellt werden, und dabei braucht es eine flexible Personalpolitik, die Produktivität, Personalkosten des Unternehmens und Ähnliches berücksichtigt.

 

Ich verstehe die Behauptung, dass der LLM-Hype überzogen ist, und ich stimme auch zu, dass seine Funktionsweise keine deduktive oder induktive Schlussfolgerung im eigentlichen Sinne ist. Sind nicht eher die Leute das Problem, die künstliche Intelligenz und Intelligenz als Synonyme behandeln, beides gleichsetzen oder das Ganze vermenschlichen?

 

Soweit ich weiß, läuft Chrome sowohl unter Windows als auch unter Linux im Sandbox-Modus. Das heißt ... selbst wenn jemand etwa über JavaScript einen Exploit baut und eine Schwachstelle angreift, hat das keine Auswirkungen auf das eigentliche OS.

Im Container-Modus muss man dafür aber wahrscheinlich den privileged-Modus aktivieren.

Natürlich könnte man auch anweisen, diesen Modus einzuschalten, aber ich habe den Container selbst als eine Art Sandbox betrachtet. So ein bisschen wie ein Fenster, das man einfach ein- und ausschalten kann ...

Deshalb habe ich Chromium und das auf Electron basierende VS Code so konfiguriert, dass sie nicht im Sandbox-Modus laufen.

Das heißt nur: Wenn es in Chromium und VS Code Schwachstellen gibt und ein Angreifer diese ausnutzen kann, um einen Exploit zu bauen, dann könnte das gefährlich sein.

 

Ich habe mich gefragt, warum der Umstand, dass der Sandbox-Modus nicht angewendet wurde, als Sicherheitshinweis gilt.
Bedeutet das, dass Docker internen Prozessen keine Sandbox-Funktion bereitstellt? Deshalb lässt es sich zwangsläufig nur als Root ausführen, und selbst wenn es sich um eine durch Docker isolierte Umgebung handelt, besteht dann das Risiko, dass Schadsoftware in mit dem Host gemappte Volumes eindringen kann? Oder bedeutet es, dass vom Benutzer innerhalb des Docker-Containers erstellte Dateien im internen Dateisystem möglicherweise nicht sicher sind?

 

Schon damit, dass Sie sagen, ein LLM sei keine künstliche Intelligenz, liegen Sie wohl in vielem falsch.
Es wirkt, als wären Sie in Ihrer ganz eigenen Welt gefangen.

 

Und wenn LLMs keine künstliche Intelligenz sind, dann sollten Sie auch darlegen, was sie stattdessen sind. Sie sagen doch, das wisse man schon mit einem Bachelorstudium, oder?

 

Glauben Sie wirklich, dass diese Unternehmen mangels Erfahrung Hunderte Millionen ausgeben würden, um Talente abzuwerben? Das Wissen, das Sie für das Beste halten, ist für diese Leute vermutlich nutzlos.

 

Wow, da hat sich wirklich viel verändert.

 

Ich weiß nicht, ob der Ansatz von git-review gut ist, aber ich stimme zu, dass PR-Reviews auf GitHub-Basis furchtbar sind..

 

Warum werden solche Kommentare immer von Wegwerf-Accounts geschrieben?

 

Wenn das Ziel einer Organisation darin besteht, die Untergrenze anzuheben, dann erkenne ich an, dass funktionsorientierte Teams passend sind, etwa ein Team, das nur aus Web-Frontend-Entwicklern besteht, oder ein App-Entwicklerteam.

Aber für Teams oder Organisationen, die auf Spitzenleistung abzielen, hat eine funktionsorientierte Struktur zwangsläufig Grenzen.
Wie auch der Text des Artikels sagt, stellt sich die Frage, ob Planer, Designer, PMs und Ingenieure wirklich jeweils nur ihre eigene Arbeit übernehmen und wie an einem Fließband in einer Fabrik arbeiten müssen. Ideal ist nicht die typische „Zuständigen“-Arbeitsweise, bei der man nur einige wenige zugewiesene Aufgaben übernimmt, sondern ein Modell, in dem Mitglieder mit Spezialisierungen in den einzelnen Bereichen zusammenkommen, gemeinsam ein Ziel setzen und alle Mitglieder sich gegenseitig unterstützen.

In vielen Unternehmen werden Organisationen in Form von Taskforces aufgebaut, etwa durch Ausgründungen oder Teamzusammenstellungen. Doch auch dabei werden letztlich nur Menschen nach Funktionen zusammengebunden, weshalb es zu negativer Verstärkung kommen kann (zum Beispiel nach dem Muster: Ich versuche etwas zu tun, aber das Unternehmen unterstützt mich nicht, also gebe ich einfach auf). Dadurch kann man am Ende nur wichtige Talente wie Schlüsselmitglieder verlieren; deshalb braucht auch eine zielorientierte Organisation unbedingt die aktive Unterstützung durch die funktionsorientierte Organisation.

 

LLMs sind keine künstliche Intelligenz
 Dass LLMs keine Intelligenz sind, weiß man schon, wenn man KI nur im Grundstudium gelernt hat; das Problem ist, dass man auf den Marketing-Stunt eines jüdischen Highschool-Absolventen hereingefallen ist.
 Was derzeit in der LLM-Branche passiert, erinnert an Nikola, die mit Wasserstoff-Lkw betrogen haben.
 So wie ein Unternehmen scheiterte, das keine Wasserstoff-Brennstoffzellen bauen konnte, nur die Hülle eines Wasserstoff-Elektro-Lkw herstellte und damit betrog, ist das auf dem gleichen Niveau wie ein jüdischer Highschool-Absolvent, der keine Intelligenz schaffen kann, stattdessen nur einen LLM-Chatbot baut und dann großspurig so tut, als sei das Intelligenz.
 Die USA sind inzwischen in keinem Bereich mehr dazu in der Lage, Schlüsseltechnologien wirklich zu sichern, und sind zu einem Land abgestiegen, das keinen Existenzgrund mehr hat, wenn es nicht entweder ein Madoff-artiges Ponzi-System ist, das nur durch Marketing über SBS Geld anzieht.
 Das künftig profitable KI-Feld wird auf keinen Fall LLM sein, sondern Computer Vision AI, und diese wird die Kriegsführung und militärische Stärke der Zukunft bestimmen.
 Doch im Bereich Computer Vision AI steigt Rotchina rasant zur weltweiten Nummer 1 auf und wächst zu einer Hegemonialmacht heran.
 Wenn in den USA die massiven, auf LLMs konzentrierten Kapitalinvestitionen als Blase platzen, ist die Wahrscheinlichkeit sehr hoch, dass die USA die Führungsrolle im KI-Bereich an Rotchina verlieren.
 Die derzeitigen LLM-Investitionen durch die Wordcels, die in der westlichen Gesellschaft die Mehrheit stellen, stoßen bereits an eine Wand; ihre Vor- und Nachteile werden von Kapitalisten, die darüber gründlich Rechenschaft verlangen, zerpflückt werden, und die Auswirkungen könnten auf verwandte Bereiche wie Computer Vision AI übergreifen, sodass die KI-Industrie für geraume Zeit schrumpfen könnte.
 Im Vergleich dazu hat Rotchina, wo der Staat Forschung und Entwicklung vorantreibt, gute Chancen, vor dieser aus den USA kommenden KI-Blase relativ sicher zu sein.
 Daher könnte diese Überinvestition in LLMs zum Auslöser dafür werden, dass die USA sich von einer Hegemonialmacht zu einem Staat zweiter Klasse verfestigen.

 

Context Engineering – mit What+Why klug Anweisungen geben!
Außerdem wurden viele Punkte, die mich sonst immer interessiert haben, glasklar auf den Punkt gebracht :)
Es tut mir fast leid und ich bin zugleich dankbar, dass man solche hochwertigen Informationen kostenlos sehen kann!!!!

 

Der Docker-Name ist lancard/xwindow-korean.

 

Da es Wayland ist, habe ich den Repo-Namen in https://github.com/lancard/xwindow-korean geändert~

 

Da Ubuntu zur Debian-Familie gehört, können Sie apt und Ähnliches bequem nutzen. Ich fand Debian besser als das Standard-Ubuntu-Image.

 

Rust wirkt zwar irgendwie ganz ordentlich, ist für mich aber wohl die einzige Sprache, die ich wegen ihres toxischen Fandoms(?) meide.