1 Punkte von GN⁺ 2025-08-30 | 1 Kommentare | Auf WhatsApp teilen

Claude-Integration

  • In Xcode 26 Beta 7 wurde Claude zum Intelligence-Einstellungsbereich von Xcode hinzugefügt.
  • Nutzer können ihr bestehendes kostenpflichtiges Claude-Konto mit Xcode verknüpfen und Claude Sonnet 4 sofort verwenden.
  • Dadurch können Entwickler die erweiterten KI-Funktionen von Claude direkt in der Xcode-Umgebung zur Unterstützung bei der Codierung nutzen.

Verbesserungen bei ChatGPT

  • Bei der Nutzung von ChatGPT in Xcode kann für neue Unterhaltungen zwischen GPT-4.1 und GPT-5 gewählt werden.
  • GPT-5 ist als Standard festgelegt und liefert für die meisten Codierungsaufgaben schnelle und hochwertige Ergebnisse.
  • Für komplexe Aufgaben kann das Modell GPT-5 (Reasoning) ausgewählt werden, das sich vor der Antwort mehr Zeit nimmt und präzisere Ergebnisse liefert.

Details zu OpenAI-API-Modellen

  • In der OpenAI API entspricht GPT-5 der minimal reasoning level und ist für schnelle Antworten ausgelegt.
  • GPT-5 (Reasoning) entspricht der low reasoning level und ist darauf ausgelegt, bei komplexen Codierungsaufgaben eine höhere Genauigkeit zu liefern.
  • Diese Modellauswahl unterstützt Entwickler dabei, je nach Komplexität der Aufgabe die passende KI-Unterstützung zu erhalten.

1 Kommentare

 
GN⁺ 2025-08-30
Hacker-News-Kommentare
  • Ich finde es irgendwie ironisch, dass Microsoft Copilot überall hineingedrückt hat, am Ende aber Apple, Google und JetBrains ebenfalls eigene AI-Integrationen herausbringen und Copilot damit aus dem Zentrum verdrängt wird. Das erinnert an Microsofts frühere Niederlagen im Web (IE), mobil (Windows CE/Pocket PC/WP 7/WP 8/UWP) und an die alten BUILD-Konferenzen, auf denen man voll auf UWP gesetzt hat, nur um später von der Konkurrenz abgehängt zu werden. Es wirkt, als würden sich dieselben Fehler wiederholen: von KPI und OKR vereinnahmt, bei der Auslieferung patzen und am Ende den Markt an Nachzügler verlieren. Die in diesem Release gezeigten Sicherheitsverbesserungen für C++ gefallen mir aber.

    • Es wurde zwar gesagt, es sei ironisch, dass Microsoft Copilot hier und da integriert habe und Copilot nun beiseitegeschoben werde, weil Wettbewerber eigene AI-Funktionen herausbringen, aber so ist es eigentlich nicht. Microsoft hat AI zuerst in Produkte eingebaut, und danach haben andere Firmen einfach ihre eigene AI in ihre Produkte integriert. Das ist weder überraschend noch ironisch, sondern ein völlig normales Muster.
    • Da Microsoft 49 % an OpenAI hält, muss man sich meiner Meinung nach keine allzu großen Sorgen machen. JetBrains hat kürzlich ebenfalls angekündigt, GPT-5 als Standard-Engine zu verwenden. Natürlich gibt es Fälle, in denen Microsoft früh all-in gegangen ist und dann von Wettbewerbern verdrängt wurde, aber es gibt genauso viele Gegenbeispiele. Beim Cloud-Computing-Markt ist man zum Beispiel erst spät eingestiegen, und heute ist Azure die profitabelste Einnahmequelle aller Zeiten. Visual Studio galt zeitweise auch als Legacy-App nur für Windows, aber seit der Veröffentlichung von VSCode ist es mit Abstand der populärste Editor geworden siehe Stack-Overflow-Umfrage
    • Copilot ist ein Produkt, das außerhalb von Microsoft-eigenen Diensten nicht verkauft wird. Bei GitHub Copilot kann man Anthropic-, OpenAI- und Google-Engines auswählen. Warum UWP gescheitert ist, ist klar: Win32 war einfach zu populär und flexibel. Entwickler hatten keinen Grund, ihre Apps nur für Mobile-Unterstützung extra in UWP neu zu schreiben.
    • Nur weil etwas am Markt nicht erfolgreich war, heißt das nicht, dass man zulassen sollte, dass konkurrierende Unternehmen einem sämtliche Investitionen wegnehmen. Ohne Microsoft hätten sich vermutlich auch Google, Apple, Facebook, AWS und andere für Lizenzdeals interessiert.
    • Die größte Enttäuschung bei GitHub Copilot war für mich, dass GPT-4 nach dem Erscheinen nicht sofort für zahlende Nutzer freigeschaltet wurde, sondern nur als „kommt bald“ oder „Beta“ unter Copilot X verfügbar war. Deshalb habe ich das Copilot-Abo bei uns in der Firma komplett gekündigt.
  • Ich denke, dass Apple dank der Gatekeeper-OCSP-Analysedaten jetzt viel bessere Produktentscheidungen treffen kann, weil das Starten einer Anwendung nun ein Signal an Server sendet. Dadurch dürften sie auch ziemlich genau wissen, wie populär VSCode ist. Interessant ist die Stimmung dazu: Als Facebook mit Onavo etwas Ähnliches versucht hat, gab es massive Kritik, aber wenn Apple es unter dem Vorwand des Computerschutzes macht, scheint es akzeptabel zu sein.

    • Apple kann auch ohne Telemetrie zwei Xcode-Nutzern per E-Mail ihre bevorzugte Coding-AI schicken.
    • Ich halte das hier noch nicht für eine große Veränderung. Wirklich relevant wäre es erst, wenn Codex CLI oder Claude Code tatsächlich integriert würden oder Apple einen konkurrierenden Dienst ankündigt. Bis dahin ist diese Funktion eher ein Spielzeug; es gibt bereits deutlich bessere Werkzeuge, und ernsthaft arbeiten würde ich damit nicht.
  • Diesmal wird das Modell nicht direkt in Xcode eingebaut. Man muss seine Daten weiterhin an einen externen Anbieter senden und hoffen, dass dort sauber damit umgegangen wird. Außerdem muss man darauf vertrauen, dass keine Regierung die Offenlegung dieser Daten verlangt.

    • Die Regierung verlangt von OpenAI bereits, alle Logs aufzubewahren. Am Ende wird also ohnehin alles nachvollzogen.
    • Anthropic wirkt zwar extrem hart in Sachen Privatsphäre, hat laut dieser jüngsten Meldung seine Position aber geändert und verwendet Claude-Chats nun für das Training.
  • Ich habe vor drei Tagen auf HN einen Beitrag gesehen, der Claude in höchsten Tönen gelobt hat, mich daraufhin selbst angemeldet und ihn mit Copilot verglichen. Ich habe zwei Dinge ausprobiert:

    1. Ich bat darum, ein Zephyr-Projekt-Skelett mit Pi Pico und einem eingerichteten st7789-spi-Display-Treiber zu erstellen, aber es kam nur ein seltsamer devicetree heraus, und es ließ sich nicht einmal kompilieren. Als ich auf den Fehler hinwies, entschuldigte es sich, lieferte aber erneut Code, der nicht kompilierte. Es hatte sogar einen nicht existierenden Treiber erfunden und aus irgendeinem Grund nur Monkey-Tests aktiviert, aber keine richtigen Tests.
    2. Ich bat um eine 7x10-Monochrom-Pixelmap als C-Array für die Ziffern 0 bis 9, aber die 8 sah aus wie eine 0. Und das trotz eines gegebenen Beispiels. Sowohl 0 als auch 8 waren einfach nur Ringe ohne mittleres Kreuz. Ich frage mich, ob ich etwas falsch gemacht habe oder ob das einfach die momentane Grenze von AI ist.
    • Zur Frage „Was habe ich falsch gemacht?“: Der erste Prompt ist von der Art her etwas, worauf Claude nur dann direkt eine richtige Antwort geben kann, wenn das Modell die exakte Lösung quasi wie in einer Enzyklopädie gespeichert hat. Zu erwarten, dass es so konkreten Skelett-Code sofort korrekt ausgibt, ist etwas viel. Wichtig ist, gute Beispiele bereitzustellen und es eher wie ein Tool zu benutzen. Im zweiten Fall sollte man dialogisch vorgehen und die gewünschten Teile weiter verfeinern. LLMs liefern nicht von Anfang an perfekte Ergebnisse; man kann also einfach nachlegen mit „Die 8 sieht wie eine 0 aus, korrigiere das“.
    • Claude ist gut bei allgemeinen Aufgaben wie „Pack alles in Docker, erstelle eine Users-Tabelle in einer Postgres-Datenbank, baue CRUD-Endpunkte mit FastAPI und erstelle eine React-Startseite, Login und Dashboard“, weil es online bereits massenhaft Beispiele für diese Kombination gibt. Wenn die Anforderungen speziell oder selten sind, braucht es deutlich mehr Erklärung und Anleitung. Je komplexer die Anforderungen werden, desto mehr ist es letztlich nur „Autovervollständigung auf Steroiden“, und je gewöhnlicher die Aufgabe ist, etwa eine simple CRUD-App, desto eher reicht hochrangige Steuerung in natürlicher Sprache.
    • Ich denke, du hast es zu schnell nach nur zwei Versuchen aufgegeben. Das ist ein bisschen so, als würde man eine neue Sprach-REPL öffnen, ein paar vertraute Befehle eingeben und beim ersten Fehler sofort abbrechen. Um das Maximum aus dem Tool herauszuholen, muss man selbst lernen, wie man es benutzt. Ein guter Start ist etwa, sich vorzustellen, man würde einem neuen Junior-Entwickler alles in nur einer E-Mail erklären. In diesem Fall würde ich in einer CLAUDE.md-Datei das gewünschte Projekt, die verwendete Toolchain sowie Build-/Test-Befehle beschreiben und zum Start auch Dateien eines ähnlichen Beispielprojekts beilegen. Außerdem würde ich vor dem Ausführen darum bitten: „Erstelle zuerst einen Plan, lass ihn dir genehmigen und beginne erst dann.“
    • Viele Entwickler fühlen sich psychologisch beruhigt, wenn sie der AI absichtlich Aufgaben geben, die sie wahrscheinlich nicht lösen kann. Aber auf diese Weise die Produktivität von AI zu bewerten, hilft nicht besonders weiter.
    • Es ist sinnvoll, Claude wie einen ganz normalen Softwareentwickler zu betrachten. Wenn man irgendeinen Entwickler zufällig herauspickt und sagt: „Bau mir bitte dieses Projekt-Skelett!“, wird er das in den meisten Fällen ebenfalls nicht kennen. Das Problem ist, dass ein LLM nicht sagt, dass es etwas nicht weiß, sondern wie ein Praktikant einfach grob rät und dann irgendetwas ausgibt.
  • Wenn ich sehe, dass inzwischen in praktisch jeder IDE AI eingebaut ist, habe ich das Gefühl, dass bei vertraulichen Projekten jederzeit irgendein Teil des Codes zur Analyse auf einen Server hochgeladen werden könnte.

    • Wer Erfahrung mit AI-Integrationen hat, weiß, dass es keine AI gibt, die sich automatisch an eine Codebasis hängt.
    • Um Claude Sonnet 4 in Xcode direkt zu nutzen, braucht man ohnehin bereits ein bestehendes kostenpflichtiges Claude-Konto; das ist also nicht der Standard.
    • Open-Source-Tools wie Neovim oder Emacs haben keine eingebaute AI. Solche Werkzeuge zu verwenden, ist ebenfalls eine Möglichkeit.
    • In Umgebungen mit wirklich hochsensitivem Code ist das Netzwerk in der Regel ohnehin schon getrennt oder nur über strikte Proxys zugänglich. Dort muss man sich keine Sorgen machen, dass über AI Informationen abfließen.
    • Letztlich hängt das alles davon ab, ob der Nutzer den Zugriff erlaubt. Apples Ruf beim Thema Datenschutz schafft dabei ein gewisses Grundvertrauen.
  • In der OpenAI-API steht „GPT-5“ für minimales Reasoning, während „GPT-5(Reasoning)“ der Stufe low entspricht. Dass in diesem Xcode-Release die höchste unterstützte Reasoning-Stufe von GPT-5 faktisch nur „low“ ist, finde ich interessant. Ich frage mich, warum.

    • Wenn man ohnehin den API-Key direkt einträgt, wäre es schön, wenn auch das Opus-Modell unterstützt würde. Ich verstehe nicht, warum das nicht der Fall ist.
  • Es ist ab sofort verfügbar. Mehr nützliche Informationen als in der Überschrift des Beitrags oder den Xcode-Release-Notes gibt es unter diesem Link

  • Es wird inzwischen immer schwieriger, überhaupt noch eine IDE zu finden, die LLMs ablehnt.

    • Ähnlich fühlt es sich an, als gäbe es kaum noch Betriebssysteme, bei denen man die Internetverbindung vollständig kappen kann.
    • Das Wort „Boykott“ ist vielleicht etwas überzogen, aber die Ablehnung gegenüber AI scheint ziemlich stark zu sein. Wenn man jedoch Funktionen ablehnt, die der Großteil der Nutzer mag, landet man zwangsläufig bei Nischen-Editoren, die dann eben speziell für diese Zielgruppe optimiert werden.
    • Man kann die unerwünschte Funktion auch einfach nicht verwenden.
    • Es gibt auch den Kate Editor.
    • Unter macOS ist Code Edit eine nativ laufende Open-Source-Alternative (MIT-Lizenz, Entwicklung ohne VC-Finanzierung) offizielle Code-Edit-Seite. Bis zum offiziellen Wechsel nutze ich noch VSCodium.
  • Die Formulierung „Im Intelligence-Einstellungsbereich von Xcode kann man das bereits kostenpflichtig genutzte Claude-Konto verbinden und sofort Claude Sonnet 4 verwenden“ macht die Überschrift etwas irreführend. Es wird also nicht wirklich ein Modell in Xcode eingebaut; man verknüpft nur sein Konto und nutzt es darüber.

  • Ich freue mich sehr über diese Funktion. Bisher musste ich Claude Code in Xcode immer mit einem separaten Terminal parallel verwenden, und das war ziemlich umständlich.

    • In JetBrains-IDs ist die Nutzung von Claude Code eine wirklich gute Erfahrung, aber Xcode hat Claude seltsamerweise nie gut dabei unterstützt, Dateien direkt zu bearbeiten.
    • Ich arbeite mit Claude Code in VS Code und nutze Xcode nur noch für Build und Start.
    • Wenn man Claude im Terminal verwendet, kann es auch Dateien außerhalb des Projektordners lesen, was noch praktischer ist. Ich würde gern wissen, welches Problem es dabei gab.
    • Ich wünschte nur, Claude würde sich zuverlässig merken, dass es Xcode-Projektdateien direkt bearbeiten kann. Selbst wenn ich die Berechtigungen in der CLAUDE-Datei festhalte, ignoriert es das zur Hälfte. Einmal hat es sogar versucht, eigens ein Python-Skript zu erzeugen, um die Projektdatei zu ändern. Das war ein sehr schwer nachvollziehbares Verhalten.
    • Ich benutze Xcode nicht, daher weiß ich es nicht genau, aber persönlich finde ich es deutlich besser, wenn ein Agent als separate App arbeitet.