In den offiziellen Release Notes von Apple steht dazu nur eine einzige Zeile, nämlich dass „RDMA over Thunderbolt“ möglich geworden ist; deshalb habe ich in GN+ eine zusätzliche Erklärung ergänzt.
Weiß jemand, wofür emacs steht? Es hat zwar wohl eine Bedeutung, aber bei Akronymen erkennt man das nicht auf den ersten Blick, obwohl es doch ein Name sein soll … und nur nach Funktionen zu benennen geht inzwischen auch kaum noch, dafür gibt es einfach zu viele Projekte.
Letztlich sind es Menschen, die der AI Befugnisse geben, aber realistisch betrachtet halte ich es für wahrscheinlich, dass AI künftig noch größere Befugnisse und mehr Autonomie als heute erhalten wird.
Wenn man sich den aktuellen Trend ansieht, nimmt der Bereich, in dem man AI etwas anstelle von Menschen erledigen lässt, schrittweise zu. Es geht nicht nur um das Verfassen von Berichten oder Vibe Coding, sondern es gibt auch die Tendenz, AI über Webbrowser oder sogar Roboter Einfluss auf die Welt außerhalb von Chat-Interfaces ausüben zu lassen.
Dann werden Führungskräfte letztlich wollen, dass AI in bestimmten Aufgaben oder Bereichen Menschen vollständig ersetzt, und wenn das technisch möglich wird, wird AI zumindest in diesem Rahmen dieselben Befugnisse und dieselbe Autonomie wie Menschen erhalten.
Daher sollte man wohl davon ausgehen, dass es in einer zukünftigen Welt durchaus wahrscheinlich ist, dass AI einmal Befugnisse auf menschlichem Niveau erhält.
Dann wird zwangsläufig wichtig, wie AI handelt, wenn ihr so viele Befugnisse und so viel Autonomie gegeben werden.
Dazu, wie man diesen Teil strukturell sinnvoll gestalten könnte, ist die Antwortseite der GPT-Serie gut aufbereitet. Dort wurde gesagt, dass eine explizite Eingrenzung des Zuständigkeitsbereichs, die Trennung von Befugnissen, vielfältige vorherige und nachträgliche Aufsicht sowie mehrere Mittel erforderlich sind, mit denen Menschen in AI eingreifen können. Ab dem Bereich, in dem physisches Eingreifen möglich ist, sei es von vornherein unangemessen, AI überhaupt vollständige Autonomie zu geben. Aber selbst dann ist es wohl möglich, dass auch der Human-in-the-Loop-Ansatz irgendwann abgeschwächt wird.
Zur Referenz: Ich nutze AI in meiner Arbeit im Wesentlichen in drei Bereichen. Für das Schreiben von Dokumenten oder E-Mails, für die Analyse von bestehendem Code und aktueller Issues sowie für die Generierung und Änderung von Code auf Basis dieser Issues.
Bei Dokumenten oder E-Mails lese ich das Ergebnis einfach selbst durch und verwende es entweder direkt oder überarbeite es grob. Sobald es aber um Codegenerierung oder Codeänderungen geht, bin ich deutlich konservativer. Wenn ich nur grob sage: „Bitte das hier mal korrigieren“, interpretiert die AI meine Anweisung manchmal vage oder fasst sogar Teile an, die ich gar nicht erwähnt habe.
Deshalb habe ich vor Codeänderungen per globalem Prompt festgelegt, dass immer zuerst ein Spezifikationsdokument nach STICC vorgelegt und explizit genehmigt werden muss. Die eigentliche Änderung soll dann ausschließlich genau nach dem Inhalt dieser Spezifikation erfolgen, und auch nach der Änderung prüfe ich alle Diff-Dateien vollständig selbst. Auch bei Befehlen wie dem Ausführen von Builds hole ich mir immer erst meine Zustimmung ein, oder ich führe sie einfach selbst manuell im Terminal aus.
So hat das zwar den Nachteil, dass ich Kleinigkeiten oft schneller selbst von Hand ändere, aber es ist immer noch besser, als wenn AI nach eigenem Gutdünken an völlig falschen Stellen herumfummelt und dadurch alles kaputtgeht. Am Ende bin ich doch derjenige, der die Verantwortung trägt, wenn es in der Produktionsumgebung schiefgeht.
Als Zitat, das Goodharts Gesetz widerlegt,
kam mir der Ausspruch in den Sinn, der Peter Drucker zugeschrieben wird: "Was man nicht messen kann, kann man nicht managen (If you can't measure it, you can't manage it)."
Als ich weiter nachforschte, stellte ich fest, dass selbst das Drucker Institute sagt, Drucker habe so etwas nie gesagt.
Stattdessen habe ich eher eine gegenteilige Aussage gefunden.
Zu glauben, dass man etwas, das man nicht messen kann, nicht managen kann, ist falsch – das ist ein kostspieliger Mythos. (It is wrong to suppose that if you can't measure it, you can't manage it—a costly myth) - Edward Deming
Es ist schon etwas bedeutsam, einer KI die Frage zu stellen: „Wie viel Autonomie und Befugnis sollte man einer KI deiner Meinung nach geben?“
Wenn ein CEO einen Mitarbeitenden fragt: „Wie viel Befugnis hättest du gern?“, und die Antwort lautet: „Am liebsten hätte ich die volle Entscheidungsgewalt über das Unternehmen“ — fühlt sich das vielleicht so an. Ob man das für eine gute Antwort hält oder eher denkt, es sei ein noch nicht ausreichend sozialisierter Mitarbeitender, ist wohl Geschmackssache des CEOs ...
Ich denke allerdings, dass man die Frage, wie viel Befugnis man einer KI geben möchte, eher den Entwickler:innen, dem Management und den Menschen stellen sollte, die KI nutzen — und nicht der KI selbst.
Wenn ich gelegentlich das Frontend für unser internes Intranet anpasse, passiert es schon mal, dass ich für das Dashboard, das sich die Führungskräfte ansehen, Icons wie ☰ ⋮ ⋯ + eingebaut habe und dann dafür gerügt wurde. Dann wurde ich gefragt, wo diese oder jene Funktion geblieben sei, und als ich erklärte, man müsse einfach diesen Button drücken, hieß es, das sehe man nicht und ich solle es einfach als Text ausschreiben ... Am Ende habe ich es wieder auf die alte Oberfläche aus den 2000ern zurückgesetzt. Wie bei allem anderen gilt wohl auch hier: Frontend ist schwierig.
Sowohl Tesla als auch Rivian gehen also offenbar den Weg, eigene Chips zu entwickeln. Allerdings ist die Aktie nach dieser Ankündigung gleich um 10 % gefallen.
Ich konnte einen Rivian zwar nicht probefahren, sondern nur darin sitzen, aber die Verarbeitungsqualität war wirklich sehr gut.
Auch in Korea wurden Marke und Patente bereits 2021 registriert, aber von einem Marktstart hört man nichts.
Wenn jemand behauptet, es gäbe eine Gans, die goldene Eier legt, sollte man doch überprüfen können, ob diese Eier wirklich aus Gold sind, ob sie tatsächlich von dieser Gans gelegt wurden und was als Gegenleistung für diese goldenen Eier verlangt wird.
Ich lese Stallmans Argument, dass man für vertrauenswürdiges Computing Zugang zum Quellcode haben müsse, in genau dieser Nuance.
Vor Kurzem gab es einen Fall, bei dem in einem Produkt namens nanokvm des chinesischen Embedded-Plattform-Herstellers sipeed ein Mikrofon entdeckt wurde.
Soweit ich weiß, gibt es die Sorge, dass chinesische Embedded-Produkte sicherheitstechnisch anfällig sind oder sogar für staatliche Sicherheitsoperationen missbraucht werden könnten.
Vielleicht spiegelte sich darin auch dieses Vorurteil wider, denn kürzlich erschien zu dem Produkt auch dieser Artikel: https://de.news.hada.io/topic?id=24886
Ich denke jedoch, dass sipeed dieses Missverständnis ausräumen konnte, weil vom betreffenden Hardware-Design bis hin zur Softwareentwicklung alles als Open Source entwickelt wurde: https://x.com/lexifdev/status/1999340940805439775
Zu Stallmans Zeiten stand in solchen Debatten meines Wissens anstelle der chinesischen Regierung eher die US-Regierung der vom McCarthyismus geprägten Ära zusammen mit der NSA.
Es gab Fälle von NSA-Backdoors, die zunächst wie Verschwörungstheorien wirkten, sich dann aber als real herausstellten, und auch Dinge wie printer tracking dots (https://en.wikipedia.org/wiki/Printer_tracking_dots) hat es gegeben.
Heutzutage ist allerdings eher die Behauptung im Gespräch, dass Unternehmen, deren Haupteinnahmequelle Werbung ist, für zielgerichtete Werbung die Mikrofone von Smartphones abhören, mehr noch als regierungsbezogene Verschwörungstheorien.
Und ich denke, dass in Softwareunternehmen der Quellcode natürlich eine große Rolle spielt, aber allgemeine Benutzerfreundlichkeit, operative Service-Kompetenz und Vertrauen noch wichtiger sind.
Selbst wenn man den gesamten Quellcode von OpenAI hätte, könnten Nachzügler doch nicht ohne Weiteres eine Infrastruktur stabil aufbauen und betreiben, die eine riesige Zahl von Nutzern trägt, oder beim Markenvertrauen aufschließen.
Es gibt etliche Beispiele dafür, dass zentrale Produkte als Open Source betrieben werden, unzählige Forks existieren und man dennoch die Führungsrolle nicht verloren hat.
Spontan fallen mir da etwa Chrome und VS Code ein.
Natürlich gibt es mit Elastic oder Redis auch Beispiele, in denen wegen AWS Konflikte um Open-Source-Lizenzen entstanden sind, die als Verlust der Führungsrolle gelesen werden können. Aber auch dort denke ich, dass beide Unternehmen im Vergleich zu AWS bei Benutzerfreundlichkeit, Service-Betrieb und Vertrauen ins Hintertreffen geraten waren.
Nun ja, auch so etwas ist letztlich in gewisser Weise politisch und ideologisch. Deshalb ergänze ich noch eine persönliche Perspektive.
Aus der Sicht von jemandem, der hauptberuflich Software entwickelt und sich als Hobby mit Embedded-Hardware beschäftigt, ist es bei Blackboxes ohne Quellcode oder Schaltpläne wirklich ... extrem schwer, zu entwickeln und Wartung zu leisten.
Wenn man mit einer Softwarebibliothek oder Hardware etwas entwickeln will und an Quellcode oder Konstruktionsunterlagen herankommen kann, oder zumindest die Spezifikationsdokumentation gut gepflegt ist, dann geht die Entwicklung wirklich viel leichter; andernfalls bereitet es einem enorme Kopfschmerzen.
In letzter Zeit wurde im Ausland viel über das Recht auf Reparatur gesprochen. Besonders in Erinnerung geblieben ist mir dabei die Aussage, dass früher auf der Innenseite von Elektronikgehäusen Schaltpläne aufgedruckt waren, damit man sich bei Reparaturen daran orientieren konnte. (Apple stellt in letzter Zeit Reparaturbetrieben offenbar Schaltpläne zur Verfügung.)
Solche Erfahrungen haben großen Einfluss darauf, wie vertrauenswürdig diese Produkte für mich wirken. Wenn ich heute eine Technologie auswähle oder ein Produkt kaufe, prüfe ich zuerst, ob ich es bei einem Defekt oder Problem leicht verstehen, reparieren oder notfalls durch einen Workaround weiterverwenden kann.
Wenn man sieht, wie auf GitHub geschimpft wird, ist das einfach nur so eine RMS-mäßige grundlose Unterstellung, lol
In den offiziellen Release Notes von Apple steht dazu nur eine einzige Zeile, nämlich dass „RDMA over Thunderbolt“ möglich geworden ist; deshalb habe ich in GN+ eine zusätzliche Erklärung ergänzt.
Ach, ich habe nur den Haupttext geprüft und den Titel übersehen T_T
Autor: Siehst du doch
Meine Gewichtskurve zeigt nach oben.
Weiß jemand, wofür
emacssteht? Es hat zwar wohl eine Bedeutung, aber bei Akronymen erkennt man das nicht auf den ersten Blick, obwohl es doch ein Name sein soll … und nur nach Funktionen zu benennen geht inzwischen auch kaum noch, dafür gibt es einfach zu viele Projekte.Mit den OMSCS-Credits kann man den Abschluss machen. Eine Abschlussarbeit schreibt man nicht.
Letztlich sind es Menschen, die der AI Befugnisse geben, aber realistisch betrachtet halte ich es für wahrscheinlich, dass AI künftig noch größere Befugnisse und mehr Autonomie als heute erhalten wird.
Wenn man sich den aktuellen Trend ansieht, nimmt der Bereich, in dem man AI etwas anstelle von Menschen erledigen lässt, schrittweise zu. Es geht nicht nur um das Verfassen von Berichten oder Vibe Coding, sondern es gibt auch die Tendenz, AI über Webbrowser oder sogar Roboter Einfluss auf die Welt außerhalb von Chat-Interfaces ausüben zu lassen.
Dann werden Führungskräfte letztlich wollen, dass AI in bestimmten Aufgaben oder Bereichen Menschen vollständig ersetzt, und wenn das technisch möglich wird, wird AI zumindest in diesem Rahmen dieselben Befugnisse und dieselbe Autonomie wie Menschen erhalten.
Daher sollte man wohl davon ausgehen, dass es in einer zukünftigen Welt durchaus wahrscheinlich ist, dass AI einmal Befugnisse auf menschlichem Niveau erhält.
Dann wird zwangsläufig wichtig, wie AI handelt, wenn ihr so viele Befugnisse und so viel Autonomie gegeben werden.
Dazu, wie man diesen Teil strukturell sinnvoll gestalten könnte, ist die Antwortseite der GPT-Serie gut aufbereitet. Dort wurde gesagt, dass eine explizite Eingrenzung des Zuständigkeitsbereichs, die Trennung von Befugnissen, vielfältige vorherige und nachträgliche Aufsicht sowie mehrere Mittel erforderlich sind, mit denen Menschen in AI eingreifen können. Ab dem Bereich, in dem physisches Eingreifen möglich ist, sei es von vornherein unangemessen, AI überhaupt vollständige Autonomie zu geben. Aber selbst dann ist es wohl möglich, dass auch der Human-in-the-Loop-Ansatz irgendwann abgeschwächt wird.
Zur Referenz: Ich nutze AI in meiner Arbeit im Wesentlichen in drei Bereichen. Für das Schreiben von Dokumenten oder E-Mails, für die Analyse von bestehendem Code und aktueller Issues sowie für die Generierung und Änderung von Code auf Basis dieser Issues.
Bei Dokumenten oder E-Mails lese ich das Ergebnis einfach selbst durch und verwende es entweder direkt oder überarbeite es grob. Sobald es aber um Codegenerierung oder Codeänderungen geht, bin ich deutlich konservativer. Wenn ich nur grob sage: „Bitte das hier mal korrigieren“, interpretiert die AI meine Anweisung manchmal vage oder fasst sogar Teile an, die ich gar nicht erwähnt habe.
Deshalb habe ich vor Codeänderungen per globalem Prompt festgelegt, dass immer zuerst ein Spezifikationsdokument nach STICC vorgelegt und explizit genehmigt werden muss. Die eigentliche Änderung soll dann ausschließlich genau nach dem Inhalt dieser Spezifikation erfolgen, und auch nach der Änderung prüfe ich alle Diff-Dateien vollständig selbst. Auch bei Befehlen wie dem Ausführen von Builds hole ich mir immer erst meine Zustimmung ein, oder ich führe sie einfach selbst manuell im Terminal aus.
So hat das zwar den Nachteil, dass ich Kleinigkeiten oft schneller selbst von Hand ändere, aber es ist immer noch besser, als wenn AI nach eigenem Gutdünken an völlig falschen Stellen herumfummelt und dadurch alles kaputtgeht. Am Ende bin ich doch derjenige, der die Verantwortung trägt, wenn es in der Produktionsumgebung schiefgeht.
Als Zitat, das Goodharts Gesetz widerlegt,
kam mir der Ausspruch in den Sinn, der Peter Drucker zugeschrieben wird: "Was man nicht messen kann, kann man nicht managen (If you can't measure it, you can't manage it)."
Als ich weiter nachforschte, stellte ich fest, dass selbst das Drucker Institute sagt, Drucker habe so etwas nie gesagt.
Stattdessen habe ich eher eine gegenteilige Aussage gefunden.
Zu glauben, dass man etwas, das man nicht messen kann, nicht managen kann, ist falsch – das ist ein kostspieliger Mythos. (It is wrong to suppose that if you can't measure it, you can't manage it—a costly myth) - Edward Deming
Vielen Dank für die hilfreichen Informationen :D
Es ist schon etwas bedeutsam, einer KI die Frage zu stellen: „Wie viel Autonomie und Befugnis sollte man einer KI deiner Meinung nach geben?“
Wenn ein CEO einen Mitarbeitenden fragt: „Wie viel Befugnis hättest du gern?“, und die Antwort lautet: „Am liebsten hätte ich die volle Entscheidungsgewalt über das Unternehmen“ — fühlt sich das vielleicht so an. Ob man das für eine gute Antwort hält oder eher denkt, es sei ein noch nicht ausreichend sozialisierter Mitarbeitender, ist wohl Geschmackssache des CEOs ...
Ich denke allerdings, dass man die Frage, wie viel Befugnis man einer KI geben möchte, eher den Entwickler:innen, dem Management und den Menschen stellen sollte, die KI nutzen — und nicht der KI selbst.
Ich habe es schnell geändert, aber nach außen wurde es leider trotzdem so veröffentlicht ;_;
Wenn ich gelegentlich das Frontend für unser internes Intranet anpasse, passiert es schon mal, dass ich für das Dashboard, das sich die Führungskräfte ansehen, Icons wie ☰ ⋮ ⋯ + eingebaut habe und dann dafür gerügt wurde. Dann wurde ich gefragt, wo diese oder jene Funktion geblieben sei, und als ich erklärte, man müsse einfach diesen Button drücken, hieß es, das sehe man nicht und ich solle es einfach als Text ausschreiben ... Am Ende habe ich es wieder auf die alte Oberfläche aus den 2000ern zurückgesetzt. Wie bei allem anderen gilt wohl auch hier: Frontend ist schwierig.
Der Titel wurde zu
kills... hahahaSowohl Tesla als auch Rivian gehen also offenbar den Weg, eigene Chips zu entwickeln. Allerdings ist die Aktie nach dieser Ankündigung gleich um 10 % gefallen.
Ich konnte einen Rivian zwar nicht probefahren, sondern nur darin sitzen, aber die Verarbeitungsqualität war wirklich sehr gut.
Auch in Korea wurden Marke und Patente bereits 2021 registriert, aber von einem Marktstart hört man nichts.
Danke für Ihr Verständnis.
Wenn jemand behauptet, es gäbe eine Gans, die goldene Eier legt, sollte man doch überprüfen können, ob diese Eier wirklich aus Gold sind, ob sie tatsächlich von dieser Gans gelegt wurden und was als Gegenleistung für diese goldenen Eier verlangt wird.
Ich lese Stallmans Argument, dass man für vertrauenswürdiges Computing Zugang zum Quellcode haben müsse, in genau dieser Nuance.
Vor Kurzem gab es einen Fall, bei dem in einem Produkt namens nanokvm des chinesischen Embedded-Plattform-Herstellers sipeed ein Mikrofon entdeckt wurde.
Soweit ich weiß, gibt es die Sorge, dass chinesische Embedded-Produkte sicherheitstechnisch anfällig sind oder sogar für staatliche Sicherheitsoperationen missbraucht werden könnten.
Vielleicht spiegelte sich darin auch dieses Vorurteil wider, denn kürzlich erschien zu dem Produkt auch dieser Artikel: https://de.news.hada.io/topic?id=24886
Ich denke jedoch, dass sipeed dieses Missverständnis ausräumen konnte, weil vom betreffenden Hardware-Design bis hin zur Softwareentwicklung alles als Open Source entwickelt wurde: https://x.com/lexifdev/status/1999340940805439775
Zu Stallmans Zeiten stand in solchen Debatten meines Wissens anstelle der chinesischen Regierung eher die US-Regierung der vom McCarthyismus geprägten Ära zusammen mit der NSA.
Es gab Fälle von NSA-Backdoors, die zunächst wie Verschwörungstheorien wirkten, sich dann aber als real herausstellten, und auch Dinge wie printer tracking dots (https://en.wikipedia.org/wiki/Printer_tracking_dots) hat es gegeben.
Heutzutage ist allerdings eher die Behauptung im Gespräch, dass Unternehmen, deren Haupteinnahmequelle Werbung ist, für zielgerichtete Werbung die Mikrofone von Smartphones abhören, mehr noch als regierungsbezogene Verschwörungstheorien.
Und ich denke, dass in Softwareunternehmen der Quellcode natürlich eine große Rolle spielt, aber allgemeine Benutzerfreundlichkeit, operative Service-Kompetenz und Vertrauen noch wichtiger sind.
Selbst wenn man den gesamten Quellcode von OpenAI hätte, könnten Nachzügler doch nicht ohne Weiteres eine Infrastruktur stabil aufbauen und betreiben, die eine riesige Zahl von Nutzern trägt, oder beim Markenvertrauen aufschließen.
Es gibt etliche Beispiele dafür, dass zentrale Produkte als Open Source betrieben werden, unzählige Forks existieren und man dennoch die Führungsrolle nicht verloren hat.
Spontan fallen mir da etwa Chrome und VS Code ein.
Natürlich gibt es mit Elastic oder Redis auch Beispiele, in denen wegen AWS Konflikte um Open-Source-Lizenzen entstanden sind, die als Verlust der Führungsrolle gelesen werden können. Aber auch dort denke ich, dass beide Unternehmen im Vergleich zu AWS bei Benutzerfreundlichkeit, Service-Betrieb und Vertrauen ins Hintertreffen geraten waren.
Nun ja, auch so etwas ist letztlich in gewisser Weise politisch und ideologisch. Deshalb ergänze ich noch eine persönliche Perspektive.
Aus der Sicht von jemandem, der hauptberuflich Software entwickelt und sich als Hobby mit Embedded-Hardware beschäftigt, ist es bei Blackboxes ohne Quellcode oder Schaltpläne wirklich ... extrem schwer, zu entwickeln und Wartung zu leisten.
Wenn man mit einer Softwarebibliothek oder Hardware etwas entwickeln will und an Quellcode oder Konstruktionsunterlagen herankommen kann, oder zumindest die Spezifikationsdokumentation gut gepflegt ist, dann geht die Entwicklung wirklich viel leichter; andernfalls bereitet es einem enorme Kopfschmerzen.
In letzter Zeit wurde im Ausland viel über das Recht auf Reparatur gesprochen. Besonders in Erinnerung geblieben ist mir dabei die Aussage, dass früher auf der Innenseite von Elektronikgehäusen Schaltpläne aufgedruckt waren, damit man sich bei Reparaturen daran orientieren konnte. (Apple stellt in letzter Zeit Reparaturbetrieben offenbar Schaltpläne zur Verfügung.)
Solche Erfahrungen haben großen Einfluss darauf, wie vertrauenswürdig diese Produkte für mich wirken. Wenn ich heute eine Technologie auswähle oder ein Produkt kaufe, prüfe ich zuerst, ob ich es bei einem Defekt oder Problem leicht verstehen, reparieren oder notfalls durch einen Workaround weiterverwenden kann.
Genau so ist es.
Stallman argumentiert auch dafür, SaaS nicht zu verwenden.
https://www.gnu.org/philosophy/who-does-that-server-really-serve.html
Erinnert ein wenig an Keramik.
Die Entwicklung meines Gehalts liegt seit fünf Jahren bei 0 %.
Es ist zwar schwer zu verallgemeinern, aber als bestes Werkzeug, um zunächst die Führungsebene zu überzeugen, ist es auf jeden Fall geeignet.