Es ist zwar schwer zu verallgemeinern, aber als bestes Werkzeug, um zunächst die Führungsebene zu überzeugen, ist es auf jeden Fall geeignet.

 

Man sollte die Nutzung ablehnen, weil die Ausführung von Berechnungen auf den Servern anderer die Computerfreiheit der Nutzer beeinträchtigt.

Ist das nicht ein Argument dafür, nicht nur LLMs, sondern auch alle Cloud-Dienste und externen Services abzulehnen ...? Oder wurde die Übersetzung falsch wiedergegeben?

 

Das wirkt wie ein Artikel, den ich vor sehr langer Zeit schon einmal gelesen habe … und er hat mich erneut motiviert. Danke fürs Hochladen.

 

Beim Coden mit einem Sprachmodell zu glauben, es würde von selbst wie durch Magie maschinennahe Ausdrücke erzeugen, ist schon eine ziemlich dreiste Erwartung.
Je mehr Einschränkungen es gibt, desto besser arbeitet es innerhalb dieser Einschränkungen.

 

Heutzutage scheint ein Vortrag nur dann wirklich relevant zu sein, wenn er vor allem Tipps zum Umgang mit KI behandelt. Schade ist, dass sich dadurch das Wesen des Vortrags immer mehr vereinfacht und verblasst.

 

Mir ist noch einmal bewusst geworden, wie schwierig es ist, Aufgaben zu delegieren.

 

Dafür sind aber nicht mehrere Maintainer abgesprungen?

 

Es gibt genau ein einziges Buch zu diesem Thema auf Koreanisch, aber leider ist es mit aktuellen Kerneln überhaupt nicht vollständig kompatibel, weil sich die Art und Weise, wie Rust im Linux-Kernel verwendet wird, mehrfach durch Breaking Changes geändert hat. Es wäre wirklich schön, wenn das über GitHub oder Ähnliches ergänzt werden könnte.

 

Auch wenn eine KI den Code schreibt, muss doch der Entwickler die Verantwortung für den Service tragen. Ich bezweifle, dass man Verantwortung für Code übernehmen kann, den man selbst nicht versteht.

 

Trotzdem glaube ich, dass es sinnvolle Messgrößen gibt. Besonders effektiv wäre es wohl, wenn es jemanden gäbe, der für zwei gegensätzliche Kennzahlen gleichzeitig verantwortlich ist. Aus SRE-Sicht kann man sich zwar darüber freuen, die Zahl der Störungen gesenkt zu haben, aber wenn man dafür bei jedem Schritt übervorsichtig ist, verzögern sich Deployments und die Feature-Entwicklung wird langsamer. Und aus Dev-Sicht kann man sich zwar darüber freuen, viele Features entwickelt zu haben, aber dafür könnte auch die Zahl der Störungen entsprechend steigen.

Kennzahlen wie p99-Latenz, Erfolgsquote bei Antworten, Kosten pro Anfrage, MTTR oder die Anzahl der Störungen halte ich ebenfalls für gute Metriken, die sich nur schwer missbrauchen lassen. (Natürlich können auch sie missbraucht werden, aber ich glaube, dass das Nachverfolgen und Verwalten am Ende mehr Nutzen als Schaden bringt ...)

 

Dann ist dieser Graph vermutlich mit hoher Wahrscheinlichkeit anfällig für Verzerrungen.

Goodharts Gesetz: "Sobald eine Messgröße zum Ziel wird, taugt sie nicht länger als gute Messgröße."

 

Normalerweise fand ich es immer sinnlos, Erfolge in Prozenten herauszustellen, und dieser Artikel scheint meinen Gedanken zu vervollständigen.

Nicht „zum Umsatzanstieg von 5 Prozent beigetragen“, sondern man sollte sagen, um wie viel der Umsatz in welchem Zeitraum gestiegen ist und wie viel steiler dieser Anstieg im Vergleich zur Zeit vor dem eigenen Beitrag geworden ist.

 

Ein wirklich großartiger Inhalt.

 

Wenn man es so betrachtet, sehen die Farben alle hübsch aus.

 

Ich halte es ebenfalls für wünschenswert, dass Unternehmen in dem Maße, in dem sie vom Markt profitieren, auch zum Markt beitragen und der Gesellschaft etwas zurückgeben, deren Beitrag zum technischen Fortschritt solche Entwicklungen überhaupt erst möglich gemacht hat.

Die grundlegende Struktur generativer KI ist bereits öffentlich bekannt, und ich denke, dass die Teile, die OpenAI nicht offenlegt, zu den Geschäftsgeheimnissen des Unternehmens gehören. Dass Unternehmen oder Technologien der Gesellschaft etwas zurückgeben, ist vordergründig ein Ausdruck von Dankbarkeit und eine Botschaft des Miteinanders, in der Praxis sehe ich darin jedoch eine Reinvestition in den Markt für das nachhaltige Wachstum des Unternehmens. Aus dieser Perspektive wäre es wünschenswert, wenn KI-Unternehmen mit ihrem erwirtschafteten Geld zu Bildung oder sozialer Infrastruktur beitragen. Zu verlangen, dass sie sämtliche Kopien einer KI offenlegen, die praktisch als Vermögenswert des Unternehmens gelten können, hieße nicht, den Nutzen der goldenen Eier der Gans zu teilen, sondern zu fordern, man solle ihr zuerst den Bauch aufschneiden. Goldene Eier kommen immer wieder. Man kann diese teilen; wenn aber unbedingt die Gans selbst herausgegeben werden soll, frage ich mich nur, wer dann noch eine solche Gans aufziehen würde.

Wie KI funktioniert, ist bereits offengelegt, ähnlich wie die Elektromagnetik. In Smartphones stecken nicht nur grundlegende Kenntnisse der Elektromagnetik, sondern vermutlich auch technische Verfahren, die einzelne Unternehmen als Geschäftsgeheimnisse nicht offenlegen können. Ohne diesen Punkt zu respektieren, generative KI wie in einer Hexenjagd pauschal als etwas Schlechtes darzustellen, kann ich einfach nicht nachvollziehen.

Dank der Antworten derjenigen, die auf meinen Kommentar geantwortet haben, habe ich vieles nachgeschlagen und mir viele Gedanken gemacht. Vielen Dank.

 

Danke :)

 

(Zumindest im Gaming-Bereich) freue ich mich ebenfalls auf den Tag, an dem wir uns vollständig aus dem Schatten von Windows lösen können.