Ich glaube, Sie haben missverstanden, wer Stallman ist und was er sagen will.
Die Absicht dieses Textes ist, darauf aufmerksam zu machen, dass LLMs aufgrund ihrer probabilistischen Natur kein semantisches Grounding haben und deshalb auch falsche Aussagen plausibel klingen lassen können. Nur weil jeder Fehler machen kann, kann man LLMs nicht mit Menschen auf eine Stufe stellen.
Die zugrunde liegenden Prinzipien zu verstehen und den Quellcode zu erhalten, sind völlig verschiedene Dinge. Das Problem ist, dass ChatGPT proprietäre Software ist und man ChatGPT deshalb selbst dann nicht direkt installieren, verändern oder weiterverbreiten kann, wenn es dazu technisch in der Lage wäre.
Stallman ist ein radikaler Libertärer, der das Konzept der freien Software geschaffen hat. Ich stimme bis zu einem gewissen Grad auch zu, dass er dogmatisch ist, aber ich kann nicht nachvollziehen, wie man von der Aussage, dass Rechenvorgänge auf dem Server eines anderen problematisch seien, zu der Schlussfolgerung kommt, Gedanken im Kopf eines anderen Menschen würden die Freiheit verletzen.
Stallman ist radikal und hat nicht immer recht, aber die in diesem Text aufgeworfenen Probleme werden bereits lebhaft diskutiert. Das ist keine Argumentation, die man einfach als Bullshit abtun kann.
„Erzeugt Ausgaben, unabhängig davon, ob sie wahr sind“
„Proprietäre Software, bei der der Nutzer weder die ausführbare Datei noch den Quellcode erhalten kann“
„Rechenvorgänge auf den Servern anderer auszuführen, beeinträchtigt die Computing-Freiheit des Nutzers“
Nach dieser Definition läuft es letztlich darauf hinaus, dass man auch Dienstleistungsbranchen, bei denen etwas nicht durch meine eigene Hand, sondern durch das Gehirn anderer Menschen geht – einschließlich Angestellten –, Cloud-Dienste und sogar das Telefon gar nicht benutzen dürfte.
Punkt 1: Alles, was in der Realität existiert, kann Ausgaben erzeugen, die unabhängig von der Wahrheit sind. Sogar Systeme, die eigentlich beabsichtigen, wahre Ausgaben zu liefern, können daran scheitern. Das nennen wir dann einfach „Fehler“.
Punkt 2: Wenn die Behauptung, man müsse die ausführbare Datei oder den Quellcode erhalten können, um etwas überhaupt nutzen zu dürfen, bedeutet, dass man die zugrunde liegenden Prinzipien eines Systems kennen muss, dann sollten alle Menschen, die nicht Physik oder Elektro- und Informationstechnik studiert haben, sofort die Finger von Smartphones und Computern lassen. Das hieße dann auch, dass man keine Ortungsfunktion verwenden dürfte, ohne die Relativitätstheorie gelernt zu haben. Hat Stallman denn etwa den Bauplan im Kopf des Friseurs, der ihm die Haare schneidet?
Punkt 3: Nimmt man diese Aussage wörtlich, dann ist diese Person ein Dogmatiker, der niemandes Denken vertraut. Denn jeder Gedanke anderer Menschen und jede daraus gezogene Schlussfolgerung würden ja die Freiheit von „mir“ beeinträchtigen, selbst zu denken.
Man kann zwar sagen, dass man generativer KI nicht vorschnell echte Intelligenz zuschreiben sollte. Aber die konstruierten Argumentationsketten, die hier danebenstehen, sind einfach Bullshit.
Wenn künstliche Intelligenz letztlich keine Seele haben kann, warum sollte ihre Intelligenz dann notwendigerweise der menschlichen Intelligenz ähneln, die nach Wahrheit strebt? Sogar ein beträchtlicher Teil dessen, was wir intellektuelle Tätigkeit nennen, beruht auf Lügen und Halluzinationen. Auch Menschen in der modernen Gesellschaft beeinflussen das Leben anderer durch Unwahrheiten, weil sie Phänomene nicht erkennen (oder absichtlich ignorieren).
Auch in Korea verursachen E-Scooter, die die Gehwege in Beschlag nehmen, dasselbe gesellschaftliche Problem, daher könnte das auch bei Lieferrobotern passieren. Trotzdem sind sie langsam und werden wohl nicht illegal abgestellt, also scheinen sie besser als E-Scooter zu sein … Ich denke, die Regulierung von E-Scootern sollte Vorrang haben.
Ich habe es mir gerade angesehen, und das wirkt wie eine Reaktion, die aus Misstrauen gegenüber MCP selbst entstanden ist.
Der Unterton ist: „Selbst wenn es jetzt viel genutzt wird, wie lange wird das schon halten?“
Aber ich denke, ab dem Zeitpunkt, an dem Google und OpenAI MCP unterstützen, ist so ein Widerstand eher ein Widerstand aus Gewohnheit.
Ich fand es am Anfang auch nicht besonders überzeugend, weil es mir wie bloßes Wortgeklingel ohne großen Unterschied zu Function Calling vorkam, aber als ich sah, dass Unternehmen sich darauf einigen, dachte ich, dass das dann schon ab der Lernphase Bedeutung haben würde.
Ich finde es erstaunlich, dass es immer noch Leute gibt, die einfach nur dagegen sind.
Es gab so viele gute Inhalte und so viele Sätze voller Einsicht, dass ich unwillkürlich begeistert war. Besonders gut fand ich, dass die wichtigsten Sätze fett hervorgehoben waren.
„Recht zu haben ist kurzfristig weit weniger wert als die langfristige Realität, gemeinsam mit kooperationsbereiten Kolleginnen und Kollegen etwas aufzubauen.“
„Man muss strategisch fokussiert handeln, und Energie, die man für Dinge aufwendet, die man nicht ändern kann, ist Energie, die man den Dingen stiehlt, die man ändern kann.“
Es gab viele Punkte, die sich nicht nur auf die Arbeit, sondern auch gut auf das Leben anwenden lassen. Vielen Dank für diesen guten Text.
„Code ist ein strategisches Memo für Fremde, die ihn während einer Störung um 2 Uhr morgens warten müssen; daher sollte er auf maximale Verständlichkeit optimiert sein.“
„Vorwärtsdrang schafft Klarheit, und Analyseparalyse bringt nichts hervor.“
Das ist so etwas, das man seinen Nichten und Neffen gern erzählen würde, aber das einem nicht unbedingt einfach so flüssig über die Lippen kommt, haha.
Der Betreiber des Blogs hinter Link 29 ist dieser Gary Marcus, ein Typ mit ein bisschen Scharlatan-Vibe, der ständig behauptet, die AI-Entwicklung stagniere. Dass Gemini vorhersagt, dass der in 10 Jahren immer noch genauso drauf sein wird, ist einfach zu lustig, hahaha.
Ich glaube, Sie haben missverstanden, wer Stallman ist und was er sagen will.
Stallman ist radikal und hat nicht immer recht, aber die in diesem Text aufgeworfenen Probleme werden bereits lebhaft diskutiert. Das ist keine Argumentation, die man einfach als Bullshit abtun kann.
hahaha
Nach dieser Definition läuft es letztlich darauf hinaus, dass man auch Dienstleistungsbranchen, bei denen etwas nicht durch meine eigene Hand, sondern durch das Gehirn anderer Menschen geht – einschließlich Angestellten –, Cloud-Dienste und sogar das Telefon gar nicht benutzen dürfte.
Punkt 1: Alles, was in der Realität existiert, kann Ausgaben erzeugen, die unabhängig von der Wahrheit sind. Sogar Systeme, die eigentlich beabsichtigen, wahre Ausgaben zu liefern, können daran scheitern. Das nennen wir dann einfach „Fehler“.
Punkt 2: Wenn die Behauptung, man müsse die ausführbare Datei oder den Quellcode erhalten können, um etwas überhaupt nutzen zu dürfen, bedeutet, dass man die zugrunde liegenden Prinzipien eines Systems kennen muss, dann sollten alle Menschen, die nicht Physik oder Elektro- und Informationstechnik studiert haben, sofort die Finger von Smartphones und Computern lassen. Das hieße dann auch, dass man keine Ortungsfunktion verwenden dürfte, ohne die Relativitätstheorie gelernt zu haben. Hat Stallman denn etwa den Bauplan im Kopf des Friseurs, der ihm die Haare schneidet?
Punkt 3: Nimmt man diese Aussage wörtlich, dann ist diese Person ein Dogmatiker, der niemandes Denken vertraut. Denn jeder Gedanke anderer Menschen und jede daraus gezogene Schlussfolgerung würden ja die Freiheit von „mir“ beeinträchtigen, selbst zu denken.
Man kann zwar sagen, dass man generativer KI nicht vorschnell echte Intelligenz zuschreiben sollte. Aber die konstruierten Argumentationsketten, die hier danebenstehen, sind einfach Bullshit.
Was ist Wissen …
Wenn künstliche Intelligenz letztlich keine Seele haben kann, warum sollte ihre Intelligenz dann notwendigerweise der menschlichen Intelligenz ähneln, die nach Wahrheit strebt? Sogar ein beträchtlicher Teil dessen, was wir intellektuelle Tätigkeit nennen, beruht auf Lügen und Halluzinationen. Auch Menschen in der modernen Gesellschaft beeinflussen das Leben anderer durch Unwahrheiten, weil sie Phänomene nicht erkennen (oder absichtlich ignorieren).
Ehrlich gesagt habe ich nicht ein einziges Mal gedacht, dass Stallman LLMs mögen würde lol
Auch in Korea verursachen E-Scooter, die die Gehwege in Beschlag nehmen, dasselbe gesellschaftliche Problem, daher könnte das auch bei Lieferrobotern passieren. Trotzdem sind sie langsam und werden wohl nicht illegal abgestellt, also scheinen sie besser als E-Scooter zu sein … Ich denke, die Regulierung von E-Scootern sollte Vorrang haben.
Schon die erste Lektion ist unglaublich wichtig.
Das spüre ich in letzter Zeit sehr deutlich, haha.
Ich habe einen ähnlichen Gedanken ... Erst mal macht die Linux Foundation einfach zu viel.
Sie übernimmt sogar Dinge, die verwaist sind, wie Servo ...
Anthropic spendet MCP und gründet die Agentic AI Foundation
Die Kommentare von Hacker News sind hier zusammengefasst, daher lohnt es sich, sie gemeinsam als Referenz heranzuziehen.
So betrachtet wirkt die Zukunft irgendwie positiv auf uns zu, haha.
Ich habe es mir gerade angesehen, und das wirkt wie eine Reaktion, die aus Misstrauen gegenüber MCP selbst entstanden ist.
Der Unterton ist: „Selbst wenn es jetzt viel genutzt wird, wie lange wird das schon halten?“
Aber ich denke, ab dem Zeitpunkt, an dem Google und OpenAI MCP unterstützen, ist so ein Widerstand eher ein Widerstand aus Gewohnheit.
Ich fand es am Anfang auch nicht besonders überzeugend, weil es mir wie bloßes Wortgeklingel ohne großen Unterschied zu Function Calling vorkam, aber als ich sah, dass Unternehmen sich darauf einigen, dachte ich, dass das dann schon ab der Lernphase Bedeutung haben würde.
Ich finde es erstaunlich, dass es immer noch Leute gibt, die einfach nur dagegen sind.
Es gab so viele gute Inhalte und so viele Sätze voller Einsicht, dass ich unwillkürlich begeistert war. Besonders gut fand ich, dass die wichtigsten Sätze fett hervorgehoben waren.
„Recht zu haben ist kurzfristig weit weniger wert als die langfristige Realität, gemeinsam mit kooperationsbereiten Kolleginnen und Kollegen etwas aufzubauen.“
„Man muss strategisch fokussiert handeln, und Energie, die man für Dinge aufwendet, die man nicht ändern kann, ist Energie, die man den Dingen stiehlt, die man ändern kann.“
Es gab viele Punkte, die sich nicht nur auf die Arbeit, sondern auch gut auf das Leben anwenden lassen. Vielen Dank für diesen guten Text.
„Code ist ein strategisches Memo für Fremde, die ihn während einer Störung um 2 Uhr morgens warten müssen; daher sollte er auf maximale Verständlichkeit optimiert sein.“
„Vorwärtsdrang schafft Klarheit, und Analyseparalyse bringt nichts hervor.“
Wieso kommt wohl so eine Reaktion?
Aus der Sicht von jemandem, der sich damit nicht gut auskennt, wirkte es eher so nach dem Motto:
So hat es sich für mich angefühlt, deshalb würde mich interessieren, warum dann die Reaktion kommt, dass sie es einfach abladen.
Wahrscheinlich begreift man es erst, wenn man selbst gehackt wurde.
Egal, wie man es betrachtet, es wirkt so, als hätten sie es einfach bei der Linux Foundation abgeladen … Die Reaktionen auf HN sind offenbar ähnlich.
Das ist so etwas, das man seinen Nichten und Neffen gern erzählen würde, aber das einem nicht unbedingt einfach so flüssig über die Lippen kommt, haha.
Der Betreiber des Blogs hinter Link 29 ist dieser Gary Marcus, ein Typ mit ein bisschen Scharlatan-Vibe, der ständig behauptet, die AI-Entwicklung stagniere. Dass Gemini vorhersagt, dass der in 10 Jahren immer noch genauso drauf sein wird, ist einfach zu lustig, hahaha.
Ist doch einfach nur ein Spiel ..
Das finde ich am beeindruckendsten, haha