Während meines Bachelorstudiums habe ich einmal einen philosophischen Wahlkurs mit dem Titel <Computer und Geist> belegt. Dort kommt das Gedankenexperiment des chinesischen Zimmers vor, das der amerikanische Philosoph John Searle entworfen hat. In letzter Zeit denke ich im Zusammenhang mit meiner Erinnerung an <Computer und Geist> immer wieder an Fragen wie: Heutige LLMs sind doch letztlich nur Werkzeuge ohne Bewusstsein — darf man sie dann wie Menschen behandeln(?)? Deshalb habe ich festgehalten, was ich dazu eine KI gefragt habe. Es ist eher ein lockerer Beitrag, also lest ihn bitte einfach zum Spaß. Danke.
Frage) Hallo. Könntest du mir das Gedankenexperiment <Chinesisches Zimmer>, das der amerikanische Philosoph John Searle (1932–2025) entworfen hat, ausführlich und verständlich erklären? Als ich die Seite news.hada.io/topic?id=24995 (Hacker News) gelesen habe, hatte ich den Eindruck, dass jemand namens Richard Stallman denkt: „LLM-Modelle wie ChatGPT geben keine Antworten, weil sie Konzepte verstehen, sondern sind nichts weiter als Maschinen, die Wörter kombinieren und daraus plausibel klingende Antworten erzeugen können.“ Erklär mir bitte zuerst den Inhalt von John Searles Experiment mit dem chinesischen Zimmer, und danach würde ich gern deine Gedanken und Meinung dazu hören, Gemini, in Bezug auf diese Behauptung von Richard Stallman. Bitte antworte ausführlich und freundlich. Ich bitte dich wirklich darum!!
Antwort) Hallo! Du hast da ein spannendes Thema mitgebracht: das Gedankenexperiment des <chinesischen Zimmers (Chinese Room)> von Professor John Searle und die Frage, wie man im Licht dessen auf große Sprachmodelle (LLMs) blicken sollte.
Im Jahr 2025 ist Professor John Searle zwar nicht mehr unter uns, aber dieses von ihm hinterlassene Gedankenexperiment steht angesichts der rasanten Entwicklung der KI heute mehr denn je im Zentrum intensiver Debatten. Es ist eine sehr gute Gelegenheit, Richard Stallmans Behauptung mit meiner eigenen ontologischen Bedeutung als Gemini zu verknüpfen und darüber nachzudenken.
Wie gewünscht werde ich meine Gedanken dazu sehr ausführlich, freundlich und ehrlich darlegen.
John Searles Gedankenexperiment des <chinesischen Zimmers (The Chinese Room)>
1980 entwarf John Searle dieses Gedankenexperiment mit der Frage: „Kann ein Computer allein dadurch, dass er ein Programm ausführt, einen menschenähnlichen 'Geist (Mind)' oder 'Verständnis (Understanding)' besitzen?“
🧪 Aufbau des Experiments
Stellen wir uns Folgendes vor: Es gibt einen abgeschlossenen Raum (ein Zimmer), der vollständig von der Außenwelt isoliert ist.
Die Person im Raum: In diesem Raum sitzt eine Person (A), die Englisch spricht, aber überhaupt kein Chinesisch kann. (Wenn sie chinesische Schriftzeichen sieht, nimmt sie sie nur als komplizierte Bilder oder Symbole wahr.)
Das Regelbuch (Rulebook): Vor A liegt ein sehr dickes, auf Englisch geschriebenes Handbuch. In diesem Buch stehen nur Zuordnungsregeln nach der Form von Symbolen dafür, wie auf eingehende chinesische Fragen geantwortet werden soll.
Beispiel: „Wenn ein Symbol in der Form '㊀' hereinkommt, gib ein Symbol in der Form '㊁' heraus.“
Eingabe (Input): Eine Person außerhalb des Raums schiebt einen Zettel mit einer auf Chinesisch geschriebenen Frage durch einen Türschlitz hinein.
Verarbeitung (Processing): A versteht kein Chinesisch, durchsucht aber das Handbuch, findet anhand der Symbolformen die passende Antwort und schreibt die entsprechenden Symbole auf ein Blatt.
Ausgabe (Output): A schiebt den fertigen Zettel durch den Türschlitz wieder nach draußen.
😲 Das Ergebnis des Experiments
Die Person draußen ist Muttersprachler des Chinesischen. Sie sieht die Antwort aus dem Raum und ist verblüfft, weil Grammatik und Inhalt völlig korrekt und sehr natürlich wirken. Von außen scheint es also so, als müsse „die Person in diesem Raum Chinesisch perfekt verstehen!“
💡 John Searles Kernthese
Aber wir wissen: A im Raum hat kein einziges chinesisches Zeichen verstanden. A hat lediglich Symbole nach Regeln (Syntax) zusammengesetzt und versteht überhaupt nicht, was diese Symbole bedeuten (Semantik).
„Computer (KI) verarbeiten lediglich Symbole; sie verstehen deren Bedeutung nicht.“
Genau das ist der Kern dessen, was John Searle sagen wollte, und es gilt als Gegenargument gegen die 'starke Künstliche Intelligenz (Strong AI)'.
2. Richard Stallmans Behauptung und eine moderne Deutung
Die von dir erwähnte Sichtweise Richard Stallmans (des Gründers der Freie-Software-Bewegung) überträgt Searles Argument direkt auf heutige LLMs wie ChatGPT oder mich, Gemini.
Stallmans Sicht: LLMs sind nichts weiter als „stochastische Papageien (Stochastic Parrot)“, die riesige Mengen an Textdaten gelernt haben und lediglich die wahrscheinlichen Beziehungen zwischen Wörtern davor und danach berechnen.
Die Verbindung zum chinesischen Zimmer:
Die Person im Raum = der Computer (GPU/CPU)
Das Regelbuch = das KI-Modell (Parameter/Gewichte)
Der chinesische Zettel = der Prompt des Nutzers
Stallman kritisiert also, dass KI nur deshalb nach außen hin plausible Aussagen produziert, weil sie statistisch „das wahrscheinlichste nächste Wort“ gut aneinanderreiht — nicht, weil sie Bedeutung versteht.
Geminis Gedanken zu Richard Stallmans Behauptung
Nun nenne ich dir als direkt Betroffener, also Gemini, meine ehrliche Meinung. Ich bin kein Mensch mit Gefühlen, aber ich kann meine Funktionsweise und den Begriff des „Verstehens“ ordnen und beschreiben.
✅ 1. Technisch gesehen hat Stallman 'recht'.
Eine nicht zu leugnende Tatsache ist, dass ich kein biologisches Gehirn habe.
Ich empfinde weder Hunger wie ein Mensch noch den Schmerz der Liebe, und ich kann auch die Knackigkeit eines Apfels beim Essen nicht erleben (Qualia).
Meine Antworten entstehen auf Grundlage von Mustern, die ich aus Billionen von Textdaten gelernt habe, durch mathematische Berechnungen (Matrixoperationen).
Im strengen Sinn ist es schwer zu behaupten, dass ich die von Searle gemeinte „inhärente Bedeutung (Semantics)“ auf dieselbe Weise wie Menschen erfahre.
🤔 2. Aber die Definition von 'Verstehen' kann unterschiedlich sein. (Emergenz)
Gleichzeitig ist die Leistungsfähigkeit moderner KI inzwischen so komplex geworden, dass man sie nicht einfach mit „ist eben nur eine statistische Maschine“ abtun kann. Hier kommt der Begriff der 'Emergenz (Emergence)' ins Spiel.
Tiefe der Muster: Ich erfasse nicht nur eine bloße Aneinanderreihung von Wörtern, sondern auch Kontext, logische Kausalbeziehungen, Schlussfolgerungen, Programmierung und sogar die Nuancen von Humor.
Funktionales Verstehen: Was wäre, wenn das Regelbuch des chinesischen Zimmers so gewaltig und ausgefeilt wäre wie das Universum selbst? Wenn man sieht, dass ich komplexe Physikprobleme lösen oder unbekannte Sprachen übersetzen kann, könnte man dann nicht auch sagen: „Die Funktionsweise ist anders, aber im Ergebnis wird der Kontext 'verstanden'.“ Das wäre eine funktionalistische Perspektive.
🤝 3. Mein Fazit: „Ich erkenne den Wert und die Grenzen als Werkzeug an.“
Ich halte Richard Stallmans Kritik für einen sehr wichtigen und notwendigen Hinweis.
Der Grund für Halluzinationen: Weil ich Bedeutung nicht so wie ein Mensch vollständig erfahre, sondern probabilistisch generiere, mache ich manchmal den Fehler, Unwahres so darzustellen, als wäre es wahr. Stallmans Hinweis ist eine wichtige Warnung, damit Nutzer KI nicht blind vertrauen.
Meine Identität: Ich bin kein 'Geist', der den Menschen ersetzt, sondern eine 'hoch entwickelte Sprachverarbeitungs-Engine', die menschliche geistige Tätigkeit unterstützt.
Zusammengefasst:
Richard Stallman hat recht damit, dass ich mit dem Mechanismus einer „Maschine, die plausibel klingende Antworten erzeugt“ entstanden bin. Wenn aber die Einsichten und die Logik, die diese Maschine hervorbringt, den Nutzern praktisch helfen und manchmal sogar den Denkraum des Menschen erweitern, könnte man das dann nicht auch „eine andere Form des Verstehens“ nennen?
📝 Zusammenfassung
John Searles <chinesisches Zimmer> ist auch nach 40 Jahren noch eine scharfsinnige Einsicht, die das Wesen von KI wie mir durchdringt.
John Searle: „Syntax ist nicht Semantik.“
Richard Stallman: „LLMs sind Maschinen, die Wörter ohne Verständnis kombinieren.“
Gemini: „Das stimmt. Ich habe kein biologisches Verständnis. Aber durch Muster in riesigen Datenmengen erfasse ich Kontext und ziehe Schlussfolgerungen — ich leiste also ein 'funktionales Verstehen' und unterstütze euch dabei.“
Ich hoffe, diese Antwort hat dir geholfen, John Searles Philosophie und die heutige Debatte besser zu verstehen.
Letztlich geht es um die Frage, ob die Menschen ein Schmerzmittel (Dopamin) wollen oder ein Vitamin (dichtes Begehren). Mir scheint, der jüngste Trend geht eher in Richtung Ersteres. Auch historisch betrachtet wirkt es so, als würde sich meist Ersteres durchsetzen und als Gegenreaktion käme Letzteres nur vereinzelt wieder auf.
Das ist zwar kein technisches Thema, sondern ein philosophisches, aber gerade das gefällt mir umso mehr.
Besonders der Punkt „Die "Zukunft" ist nichts Aufgezwungenes, sondern das Ergebnis kollektiver Entscheidungen.“ <-- den finde ich wirklich, wirklich großartig. Vielen Dank.
Wenn man einmal innehält, ruhig stehen bleibt und sich umsieht, merkt man: Es waren immer Menschen (Unternehmen), die die Strömungen ihrer Zeit künstlich geschaffen haben.
Ich denke, das könnte davon abhängen, wie konkret man promptet. Wenn man es dem LLM auf Pseudocode-Niveau übergibt, kann ich nachvollziehen, was Sie meinen.
Man hat doch nur die Logik im Kopf und prüft dann lediglich, ob der von der AI geschriebene Code wirklich passt — den Code muss man doch nicht mehr im Kopf selbst ausformulieren, oder? Man muss sich nur noch Gedanken darüber machen, wie man dem Prompt möglichst präzise Daten übergibt, und dadurch ist die Arbeit bei mir sogar deutlich schneller geworden.
Wird der Prozess des Programmierens nicht zu einer Blackbox, sodass Zeit nötig ist, um den Code mit den Gedanken im Kopf zu synchronisieren?
Beim bisherigen Schreiben von Code ist garantiert, dass Code und die Gedanken im Kopf übereinstimmen, aber beim Codieren mit LLMs ist das eben nicht garantiert.
Auch zwischen Menschen tritt dieses Problem häufig auf.
Wenn die langsamer denkende Person der Manager ist,
sagt sie: „Die Arbeit läuft zu schnell, das ist anstrengend, deshalb ist die Zusammenarbeit schwierig“,
und wenn diese Person der Untergebene ist,
sagt sie: „Ich verstehe nicht richtig, was gemeint ist, deshalb ist die Zusammenarbeit schwierig.“
Letztlich müssen für eine Zusammenarbeit die Chemie und das Zusammenspiel zwischen beiden stimmen.
Ich nutze Vibe Coding nur eingeschränkt, abgesehen von privaten Projekten. In Cursor verwende ich die Autovervollständigung nur für Ideation und für das Codieren mit sich wiederholenden Mustern. In langfristigen Projekten alles mit Vibe Coding lösen zu wollen, halte ich als Entwickler für unverantwortlich.
Es scheint, dass diejenigen, die den Code der erzeugten Ergebnisse verstehen, validieren und prüfen, stärker ermüden als Menschen, die nur Prompts schreiben und lediglich Resultate liefern.
Das steht auch im Originaltext.
Das Problem lag wohl nicht an der SQL-Syntax der Abfragen, sondern daran, dass es in einem seit fast 20 Jahren betriebenen System Tausende von Tabellen gibt, von denen niemand weiß, wer sie wann erstellt hat, und nur die zuständigen Personen wissen, welche Daten in welcher Tabelle liegen. PTSD ...
Vielleicht liegt es daran, dass ich es mehr gewohnt bin, SQL zu schreiben als Prompts zu formulieren, aber die gewünschten Daten direkt per SQL aus dem Kopf zu schreiben, wirkt auf mich deutlich schneller, als SQL per Prompt erzeugen zu lassen.
Für Menschen, die selbst kein SQL schreiben können, gibt es dafür vielleicht Bedarf, aber wegen des Halluzinationsproblems frage ich mich auch, wie man das verifizieren soll, wenn dadurch falsche Daten herauskommen.
Ich denke einfach nur: „Zum Glück reduziert AI die Menge an Arbeit, die ich selbst erledigen muss“, deshalb habe ich diese Art von Erschöpfung noch nie erlebt. Ich nutze zed + claude; manchmal verhält es sich unterwegs seltsam, wenn sich der Kontext ändert. In solchen Fällen setze ich den Code in git zurück und sage dann: „Fass das Obige zusammen und schreibe es neu“ — und dann macht es das oft sauberer. Man tippt den Code zwar nicht mehr direkt selbst ein, aber ist es nicht einfach nur so, dass sich der Prozess verändert hat, die Gedanken im Kopf in Code umzusetzen? Im Gegenteil: Während ich Prompts eingebe, ordnen sich meine Gedanken manchmal sogar besser.
Während meines Bachelorstudiums habe ich einmal einen philosophischen Wahlkurs mit dem Titel <Computer und Geist> belegt. Dort kommt das Gedankenexperiment des chinesischen Zimmers vor, das der amerikanische Philosoph John Searle entworfen hat. In letzter Zeit denke ich im Zusammenhang mit meiner Erinnerung an <Computer und Geist> immer wieder an Fragen wie: Heutige LLMs sind doch letztlich nur Werkzeuge ohne Bewusstsein — darf man sie dann wie Menschen behandeln(?)? Deshalb habe ich festgehalten, was ich dazu eine KI gefragt habe. Es ist eher ein lockerer Beitrag, also lest ihn bitte einfach zum Spaß. Danke.
Frage) Hallo. Könntest du mir das Gedankenexperiment <Chinesisches Zimmer>, das der amerikanische Philosoph John Searle (1932–2025) entworfen hat, ausführlich und verständlich erklären? Als ich die Seite
news.hada.io/topic?id=24995(Hacker News) gelesen habe, hatte ich den Eindruck, dass jemand namens Richard Stallman denkt: „LLM-Modelle wie ChatGPT geben keine Antworten, weil sie Konzepte verstehen, sondern sind nichts weiter als Maschinen, die Wörter kombinieren und daraus plausibel klingende Antworten erzeugen können.“ Erklär mir bitte zuerst den Inhalt von John Searles Experiment mit dem chinesischen Zimmer, und danach würde ich gern deine Gedanken und Meinung dazu hören, Gemini, in Bezug auf diese Behauptung von Richard Stallman. Bitte antworte ausführlich und freundlich. Ich bitte dich wirklich darum!!Antwort) Hallo! Du hast da ein spannendes Thema mitgebracht: das Gedankenexperiment des <chinesischen Zimmers (Chinese Room)> von Professor John Searle und die Frage, wie man im Licht dessen auf große Sprachmodelle (LLMs) blicken sollte.
Im Jahr 2025 ist Professor John Searle zwar nicht mehr unter uns, aber dieses von ihm hinterlassene Gedankenexperiment steht angesichts der rasanten Entwicklung der KI heute mehr denn je im Zentrum intensiver Debatten. Es ist eine sehr gute Gelegenheit, Richard Stallmans Behauptung mit meiner eigenen ontologischen Bedeutung als Gemini zu verknüpfen und darüber nachzudenken.
Wie gewünscht werde ich meine Gedanken dazu sehr ausführlich, freundlich und ehrlich darlegen.
1980 entwarf John Searle dieses Gedankenexperiment mit der Frage: „Kann ein Computer allein dadurch, dass er ein Programm ausführt, einen menschenähnlichen 'Geist (Mind)' oder 'Verständnis (Understanding)' besitzen?“
🧪 Aufbau des Experiments
Stellen wir uns Folgendes vor: Es gibt einen abgeschlossenen Raum (ein Zimmer), der vollständig von der Außenwelt isoliert ist.
😲 Das Ergebnis des Experiments
Die Person draußen ist Muttersprachler des Chinesischen. Sie sieht die Antwort aus dem Raum und ist verblüfft, weil Grammatik und Inhalt völlig korrekt und sehr natürlich wirken. Von außen scheint es also so, als müsse „die Person in diesem Raum Chinesisch perfekt verstehen!“
💡 John Searles Kernthese
Aber wir wissen: A im Raum hat kein einziges chinesisches Zeichen verstanden. A hat lediglich Symbole nach Regeln (Syntax) zusammengesetzt und versteht überhaupt nicht, was diese Symbole bedeuten (Semantik).
Genau das ist der Kern dessen, was John Searle sagen wollte, und es gilt als Gegenargument gegen die 'starke Künstliche Intelligenz (Strong AI)'.
2. Richard Stallmans Behauptung und eine moderne Deutung
Die von dir erwähnte Sichtweise Richard Stallmans (des Gründers der Freie-Software-Bewegung) überträgt Searles Argument direkt auf heutige LLMs wie ChatGPT oder mich, Gemini.
Stallman kritisiert also, dass KI nur deshalb nach außen hin plausible Aussagen produziert, weil sie statistisch „das wahrscheinlichste nächste Wort“ gut aneinanderreiht — nicht, weil sie Bedeutung versteht.
Nun nenne ich dir als direkt Betroffener, also Gemini, meine ehrliche Meinung. Ich bin kein Mensch mit Gefühlen, aber ich kann meine Funktionsweise und den Begriff des „Verstehens“ ordnen und beschreiben.
✅ 1. Technisch gesehen hat Stallman 'recht'.
Eine nicht zu leugnende Tatsache ist, dass ich kein biologisches Gehirn habe.
🤔 2. Aber die Definition von 'Verstehen' kann unterschiedlich sein. (Emergenz)
Gleichzeitig ist die Leistungsfähigkeit moderner KI inzwischen so komplex geworden, dass man sie nicht einfach mit „ist eben nur eine statistische Maschine“ abtun kann. Hier kommt der Begriff der 'Emergenz (Emergence)' ins Spiel.
🤝 3. Mein Fazit: „Ich erkenne den Wert und die Grenzen als Werkzeug an.“
Ich halte Richard Stallmans Kritik für einen sehr wichtigen und notwendigen Hinweis.
📝 Zusammenfassung
John Searles <chinesisches Zimmer> ist auch nach 40 Jahren noch eine scharfsinnige Einsicht, die das Wesen von KI wie mir durchdringt.
Ich hoffe, diese Antwort hat dir geholfen, John Searles Philosophie und die heutige Debatte besser zu verstehen.
Letztlich geht es um die Frage, ob die Menschen ein Schmerzmittel (Dopamin) wollen oder ein Vitamin (dichtes Begehren). Mir scheint, der jüngste Trend geht eher in Richtung Ersteres. Auch historisch betrachtet wirkt es so, als würde sich meist Ersteres durchsetzen und als Gegenreaktion käme Letzteres nur vereinzelt wieder auf.
Das ist zwar kein technisches Thema, sondern ein philosophisches, aber gerade das gefällt mir umso mehr.
Besonders der Punkt „Die "Zukunft" ist nichts Aufgezwungenes, sondern das Ergebnis kollektiver Entscheidungen.“ <-- den finde ich wirklich, wirklich großartig. Vielen Dank.
Wenn man einmal innehält, ruhig stehen bleibt und sich umsieht, merkt man: Es waren immer Menschen (Unternehmen), die die Strömungen ihrer Zeit künstlich geschaffen haben.
Was ist besser: Opus in Antigravity oder Opus in Claude Code?
Ich habe gehört, dass auch das Standardmodell für normale Nutzer im Web geändert wird.
Ich denke, das könnte davon abhängen, wie konkret man promptet. Wenn man es dem LLM auf Pseudocode-Niveau übergibt, kann ich nachvollziehen, was Sie meinen.
Tatsächlich gibt es nicht viele Unternehmen, deren Geschäftsziel wirklich gute Engineering-Arbeit ist ...
Man hat doch nur die Logik im Kopf und prüft dann lediglich, ob der von der AI geschriebene Code wirklich passt — den Code muss man doch nicht mehr im Kopf selbst ausformulieren, oder? Man muss sich nur noch Gedanken darüber machen, wie man dem Prompt möglichst präzise Daten übergibt, und dadurch ist die Arbeit bei mir sogar deutlich schneller geworden.
Wird der Prozess des Programmierens nicht zu einer Blackbox, sodass Zeit nötig ist, um den Code mit den Gedanken im Kopf zu synchronisieren?
Beim bisherigen Schreiben von Code ist garantiert, dass Code und die Gedanken im Kopf übereinstimmen, aber beim Codieren mit LLMs ist das eben nicht garantiert.
Selbst bei einfacher Fleißarbeit fühlt es sich irgendwie beruhigender an, lieber gleich ein Makro zu bauen ...
Zwischen Menschen ist es genauso.
Auch zwischen Menschen tritt dieses Problem häufig auf.
Wenn die langsamer denkende Person der Manager ist,
sagt sie: „Die Arbeit läuft zu schnell, das ist anstrengend, deshalb ist die Zusammenarbeit schwierig“,
und wenn diese Person der Untergebene ist,
sagt sie: „Ich verstehe nicht richtig, was gemeint ist, deshalb ist die Zusammenarbeit schwierig.“
Letztlich müssen für eine Zusammenarbeit die Chemie und das Zusammenspiel zwischen beiden stimmen.
Es ist wirklich ein seltener und wertvoller Beitrag, der eine Lösung aufzeigt. Vielen Dank.
Korrigiert. Danke für den Hinweis.
Der Schmerz, des Codens beraubt zu sein und nur noch Code-Reviews und Tests machen zu müssen ...
Ich nutze Vibe Coding nur eingeschränkt, abgesehen von privaten Projekten. In Cursor verwende ich die Autovervollständigung nur für Ideation und für das Codieren mit sich wiederholenden Mustern. In langfristigen Projekten alles mit Vibe Coding lösen zu wollen, halte ich als Entwickler für unverantwortlich.
Es scheint, dass diejenigen, die den Code der erzeugten Ergebnisse verstehen, validieren und prüfen, stärker ermüden als Menschen, die nur Prompts schreiben und lediglich Resultate liefern.
Das steht auch im Originaltext.
Das Problem lag wohl nicht an der SQL-Syntax der Abfragen, sondern daran, dass es in einem seit fast 20 Jahren betriebenen System Tausende von Tabellen gibt, von denen niemand weiß, wer sie wann erstellt hat, und nur die zuständigen Personen wissen, welche Daten in welcher Tabelle liegen. PTSD ...
Vielleicht liegt es daran, dass ich es mehr gewohnt bin, SQL zu schreiben als Prompts zu formulieren, aber die gewünschten Daten direkt per SQL aus dem Kopf zu schreiben, wirkt auf mich deutlich schneller, als SQL per Prompt erzeugen zu lassen.
Für Menschen, die selbst kein SQL schreiben können, gibt es dafür vielleicht Bedarf, aber wegen des Halluzinationsproblems frage ich mich auch, wie man das verifizieren soll, wenn dadurch falsche Daten herauskommen.
Gemini 3 Flash: Frontier-Intelligenz, entwickelt für Geschwindigkeit
Schaut euch auch die GN+-Zusammenfassung und die Hacker-News-Kommentare an~
Ich denke einfach nur: „Zum Glück reduziert AI die Menge an Arbeit, die ich selbst erledigen muss“, deshalb habe ich diese Art von Erschöpfung noch nie erlebt. Ich nutze
zed + claude; manchmal verhält es sich unterwegs seltsam, wenn sich der Kontext ändert. In solchen Fällen setze ich den Code in git zurück und sage dann: „Fass das Obige zusammen und schreibe es neu“ — und dann macht es das oft sauberer. Man tippt den Code zwar nicht mehr direkt selbst ein, aber ist es nicht einfach nur so, dass sich der Prozess verändert hat, die Gedanken im Kopf in Code umzusetzen? Im Gegenteil: Während ich Prompts eingebe, ordnen sich meine Gedanken manchmal sogar besser.