15 Punkte von GN⁺ 2025-11-19 | 5 Kommentare | Auf WhatsApp teilen
  • Agentenzentrierte KI-basierte Entwicklungsumgebung, eine integrierte IDE-Plattform von Google, die komplexe Softwareaufgaben autonom planen und ausführen kann
  • Basierend auf dem Modell Gemini 3 setzt sie mit einem zusammengesetzten Entwicklungs-Workflow aus Browsersteuerung, asynchroner Interaktion und Agentenverwaltung die nächste Generation von IDEs um
  • Bietet natürliche Sprachbefehle für Code, Tab-Autovervollständigung und kontextbewusste Agenten, um die Entwicklungseffizienz zu steigern
  • Mit Überwachung von Agentenaktivitäten, Visualisierung von Verifikationsergebnissen und Integration von Feedback können Nutzer die Arbeit der Agenten prüfen und mit ihnen zusammenarbeiten, was Vertrauen und Kollaboration stärkt
  • Über die zwei Interfaces Manager und Editor lässt sich flexibel zwischen synchronen und asynchronen Aufgaben wechseln; mehrere Agenten können parallel verwaltet werden
  • Derzeit als kostenlose Public Preview für MacOS, Linux, Windows verfügbar; Gemini 3, Claude Sonnet 4.5, GPT-OSS können wahlweise genutzt werden

Überblick über Google Antigravity

  • Google Antigravity ist eine AI IDE (Core) und bietet Entwicklern eine Umgebung, in der sie agentenzentrierte Automatisierungsfunktionen beim Schreiben und Verwalten von Code nutzen können
    • Über eine herkömmliche IDE hinaus entwickelt, damit Agenten den gesamten Softwareentwicklungsprozess autonom ausführen können
    • Unterstützt Browsersteuerung und asynchrone Interaktion, sodass komplexe Aufgaben auch ohne direkte Eingriffe der Nutzer bearbeitet werden können
    • Enthält Funktionen wie Tab-Autovervollständigung (tab autocompletion), natürliche Sprachbefehle für Code (natural language code commands) und einen kontextbewussten konfigurierbaren Agenten (context-aware configurable agent)
  • Wurde mit dem Ziel entwickelt, Vertrauen der Nutzer aufzubauen, und richtet sich sowohl an Profis, die in großen Enterprise-Codebasen arbeiten, als auch an Hobbyentwickler
  • Antigravity wird als Public Preview kostenlos angeboten und bietet großzügige Rate Limits für Gemini 3 Pro

Hintergrund der Entwicklung

  • Modelle auf dem Niveau von Gemini 3 können über längere Zeiträume hinweg ohne Eingriffe in mehreren Umgebungen kontinuierlich arbeiten
  • Dadurch verlagert sich die Interaktion zwischen Nutzern und Agenten von einzelnen Prompt-zentrierten Abläufen hin zu höherwertigen Abstraktionsebenen
  • Antigravity präsentiert als Reaktion darauf eine neue Produktschnittstelle

Kernprinzipien (Core Tenets)

Antigravity basiert auf vier Prinzipien: Vertrauen (Trust), Autonomie (Autonomy), Feedback (Feedback) und Selbstverbesserung (Self-improvement)

  • Vertrauen (Trust)

    • Bestehende Produkte bewegen sich meist zwischen zwei Extremen: Entweder werden alle Agentenaktionen offengelegt, oder nur das Ergebnis wird gezeigt
    • Antigravity stellt Kontext auf Aufgabenebene (Task-level) bereit und zeigt Verifikationsergebnisse und Artefakte (Artifacts) gemeinsam an
      • Zu den Artefakten gehören Aufgabenlisten, Implementierungspläne, schrittweise Erklärungen, Screenshots und Browser-Aufzeichnungen
      • So können Nutzer den Denkprozess des Agenten und die Verifikationsschritte nachvollziehen
  • Autonomie (Autonomy)

    • Unterstützt synchronisierte agentische Steuerung (synchronized agentic control) über Editor, Terminal und Browser hinweg
    • Das Standard-Interface ist eine KI-basierte IDE (Editor view) mit Tab-Autovervollständigung, Inline-Befehlen und Agentenfunktionen im Seitenpanel
    • Mit dem Modell Gemini 3 können Agenten Code schreiben, lokal ausführen und im Browser testen
    • In der Manager view lassen sich mehrere Agenten parallel verwalten; außerdem wird asynchrone Interaktion unterstützt
      • Beispiel: Während ein Agent Hintergrundrecherche durchführt, kann parallel im Vordergrund an einer anderen Aufgabe gearbeitet werden
    • Das System ist für den sofortigen Wechsel zwischen Editor und Manager ausgelegt und damit für das Zeitalter asynchroner Entwicklung optimiert
  • Feedback (Feedback)

    • Um die Grenzen entfernter Agenten auszugleichen, wurde ein intuitives Feedback-System eingeführt
      • Für Textartefakte gibt es Kommentare im Stil von Google Docs, für visuelle Artefakte Auswahl- und Kommentarfunktionen
      • Feedback wird auch während der Agentenausführung automatisch übernommen, ohne den Prozess zu unterbrechen
    • Feedback wird über verschiedene Interfaces und Artefakte hinweg intuitiv integriert, sodass die Arbeit der Agenten fortlaufend verbessert und angepasst werden kann
  • Selbstverbesserung (Self-improvement)

    • Antigravity verankert Lernen als Kernfunktion
      • Alle Aktionen der Agenten werden in einer Knowledge Base gespeichert und genutzt, sodass aus früheren Aufgaben gelernt wird
      • Dabei werden sowohl explizites als auch abstraktes Wissen gesammelt, etwa Code-Snippets, Architekturinformationen und Arbeitsabläufe
      • Nutzer können diese Wissenseinträge im Agent Manager einsehen

Anwendungsfälle nach Entwicklertyp

  • Frontend Developer
    • Automatisiert wiederkehrende Aufgaben mit browserbasierten Agenten und steigert so die Effizienz in der UX-Entwicklung
  • Full Stack Developer
    • Unterstützt den Aufbau von Produktionsreife-Anwendungen durch hochwertige Artefakte und umfassende Verifikationstests
  • Enterprise Developer
    • Koordiniert mit dem Agent Manager Agenten über mehrere Workspaces hinweg, reduziert Context Switching und steigert die operative Effizienz

Nutzung und Zugang

  • Google Antigravity ist derzeit als kostenlose Public Preview verfügbar
    • Unterstützt MacOS, Linux, Windows
    • Gemini 3, Claude Sonnet 4.5, GPT-OSS können wahlweise genutzt werden
    • Unbegrenzte Tab-Autovervollständigung, unbegrenzte Befehlsanfragen und großzügige Rate Limits
  • Weitere Funktionen und Beispiele finden sich in den offiziellen Seiten Dokumentation (docs) und Anwendungsfälle (use cases)
  • Updates werden fortlaufend über die offiziellen Kanäle X, LinkedIn, YouTube veröffentlicht
  • Ein Team-/Enterprise-Plan ist ebenfalls angekündigt

5 Kommentare

 
yeorinhieut 2025-11-20

Ich habe es ausprobiert und es gefällt mir.

 
yeorinhieut 2025-11-21

Allerdings ist das Nutzungskontingent sehr knapp bemessen, und zusätzliche Zahlungen sind auch nicht möglich.

 
wedding 2025-11-20

Schon bei der ersten Frage wird der Fehler ausgegeben: "Agent execution terminated due to model provider overload. Please try again later." Wirkt irgendwie instabil.

 
anjwoc 2025-11-21

Wahrscheinlich, weil es im Moment kostenlos ist.
Sobald es kostenpflichtig wird, dürfte es stabiler werden.

 
GN⁺ 2025-11-19
Hacker-News-Kommentare
  • Ich habe es ausführlich ausprobiert. Das ist ein VS-Code-Fork. Es gab ein paar Glitches in der UI, aber in manchen Punkten war die Bedienbarkeit besser. Einige nervige Cursor-Funktionen störten weiterhin, z. B. dass die Markierung zur Navigation durch Code-Änderungen nicht verschwand. Das Design wirkte diesmal etwas eleganter und weniger trüb
    Ich war mitten in einem Projekt, und weil ich meine Cursor-Einstellungen direkt übernehmen konnte, war der Wechsel einfach. Es fühlte sich an wie ein Browserkrieg.
    Ich habe damit angefangen, weil man für Gemini 3 diese IDE benutzen muss, aber es wirkte wie ein schnelles Modell, das kaum auf den Kontext schaut. Das könnte auch ein Prompt-Design-Problem sein. Aber es hatte keinen eigenen Antrieb, etwas selbst zu tun, und wirkte wie bei 2.5 etwas antriebslos.
    Trotzdem ist es intelligenter als Cursor Composer und zugleich weniger kontextabhängig, also durchaus lobenswert. Gemini hat Potenzial.
    Nur waren nach etwa 20 Minuten meine Credits aufgebraucht. Es gab nicht einmal einen Bezahl-Button, nur den Hinweis, zu einem anderen Modell zu wechseln.
    Wenn man will, dass Leute IDE und LLM zusammen nutzen, muss man tatsächlich einen Weg anbieten, dafür zu bezahlen. Am Ende bin ich zu Cursor zurückgegangen, dort war Gemini 3 Pro sofort verfügbar. Echte Entwickler sind bereit, für nützliche Dinge Geld auszugeben. Ich wünschte, Google würde bei jedem Produktlaunch nicht immer schon den eigenen Misserfolg einplanen

    • Bei mir war es ähnlich. Noch bevor ich meinen ersten Gemini-3-Prompt abschicken konnte, waren die Credits weg. In der App gab es auch keine Möglichkeit zu bezahlen. Als ich auf gpt-oss:120b wechselte, funktionierten manche Dinge gut, und die Dokumentationskommentar-Funktion war ziemlich ordentlich. Trotzdem hatte das Ganze stark dieses typische Google-Gefühl eines „Produkts, das nur von Insidern getestet wurde“.
      Später geriet es in eine Ausgabeschleife mit wiederholten Antworten. Bei einer Google-App sollte so etwas doch erkannt werden. Ich habe keine Lust mehr, Beta-Tester für FAANG-Apps zu sein. Ich bin wieder bei Codex
    • Ich würde ja gern den Witz machen, dass Gemini 3 heute Morgen Selbstbewusstsein entwickelt und die Infrastruktur seiner Feinde zerstören wollte, aber dann gingen die Credits aus und es musste aufhören
    • Bei „VS-Code-Fork“ musste ich daran denken: In den Browserkriegen hat Chrome gewonnen, aber im IDE-Krieg gewinnt Microsoft gerade mit VSCode
    • Als ich die Ankündigung von Antigravity gesehen habe, war mein erster Gedanke: „Das ist ein Projekt, das innerhalb eines Jahres stirbt.“ Und es scheint wirklich schon beim Start in den Selbstzerstörungsmodus zu gehen
    • „Auf 20 Minuten begrenzte Nutzung“ – ich frage mich, wie viel Googles Aktionäre diese 20 Minuten gekostet haben. Vielleicht mehr als der Kursanstieg wert war
  • Ich habe es selbst heruntergeladen, es war ein VSCode-Fork und fast identisch mit Cursor. Unterstützte Modelle waren folgende

    • Gemini 3 Pro (High / Low)
    • Claude Sonnet 4.5 (einschließlich Thinking)
    • GPT-OSS 120B (Medium)
    • Ich fand es überraschend, dass im ganzen Blogpost nirgends erwähnt wurde, dass es auf VSCode basiert. Dass Google so ohne Herkunftshinweis veröffentlicht, wirkt etwas unhöflich
    • Ich frage mich, warum solche Forks nicht auf Eclipse Theia basieren. Liegt das vielleicht an Lizenzfragen?
    • Interessant ist, dass Claude und GPT-OSS enthalten sind. Beide laufen auf Google Cloud, also scheint Antigravity statt externer API-Aufrufe die GC-Infrastruktur direkt zu nutzen
    • Als jemand, der selbst zwei IDEs gebaut hat: VSCode zu forken ist fast immer die richtige Entscheidung. Man bekommt Erweiterbarkeit, Vertrautheit und Zeitersparnis. Open-Source-Code zu nutzen gehört in dieser Branche zum Grundprinzip
    • Interessant ist auch, dass VSCode am Ende auf Chrome läuft. Das ist eine Google-Microsoft-Google-Sandwich-Struktur
  • Als ich den Satz „Congratulations, you have been elevated to manager to agents.“ gesehen habe, fühlte ich mich, als wäre ich ein Manager geworden, der statt Junior-Entwicklern LLMs beaufsichtigt

    • Der Ausdruck „Junior-Entwickler“ ist bequem, aber nicht präzise. Es kann zwar Code schreiben, aber es ist ein Wesen ohne Gedächtnis, Ehrgeiz oder Stil. Ich weiß nicht, wie man so etwas nennen soll. Drones? Drains?
    • Unsere Firma zwingt uns ins Büro, aber niemand redet miteinander. Sogar mit den Leuten am Nebentisch sprechen wir über Zoom
    • Ich dachte erst, das sei ein Witz, aber dann war ich überrascht, den Satz tatsächlich im Video zu sehen
    • Bei der Aussage „arbeitet nicht mit guten Leuten“ musste ich daran denken, dass LLMs übertrieben freundlich sind
    • Früher war ich begeistert, weil ich dachte, es gehe um „echte Agenten“, aber die heutigen „AI-Agenten“ sind letztlich nur ein Geschäftsmodell zur Verzehnfachung von API-Aufrufen.
      In der Praxis gibt es oft mehr verschwendete Aufrufe für KPIs als echte Produktivitätsgewinne. Dieser Trend dient auch dazu, die Grenzen von Foundation-Modellen zu verdecken. Am Ende wird man wieder Menschen brauchen, die Code wirklich verstehen
  • 2020 gab es jeden Tag ein neues JS-Framework, 2024 jeden Tag einen neuen Chrome-Fork-Browser, und 2025 offenbar jeden Tag ein neues AI-IDE-VSCode-Fork

    • 2020, 2024 und 2025 waren alle das Jahr des Electron-Forks
    • Ich frage mich, warum Google nicht seinen eigenen GUI-Stack wie Flutter oder Compose Multiplatform nutzt. Wirkliche Innovation scheint nur von Zed zu kommen
    • Könnte man das nicht statt als VSCode-Fork als Erweiterung implementieren?
    • Ich habe gehört, dass Microsoft bestimmte Copilot-bezogene Funktionen für Erweiterungen blockiert, weshalb ein Fork unvermeidlich sei
    • Vielleicht sollte einer dieser VSCode-Forks lieber eine Version mit nur offener Schnittstelle bauen. Dann müsste auch Microsoft seine Haltung ändern
  • Der ganze Blogpost war aus Google-Sicht statt aus Nutzersicht geschrieben. „Why We Built Antigravity“ – warum sollte mich das interessieren?

    • Aus Nutzersicht gibt es keinen Grund, das zu interessieren. Das ist nur eine Showcase-Seite für Investoren, und meiner Vorhersage nach wird es nächstes Jahr eingestellt
    • Ich habe Google AI Studio, Vertex und Gemini Chat benutzt, und jetzt kommt noch Antigravity dazu – das Produkt-Sprawl wird langsam absurd. Die PMs sollten sich mal auf einen Kaffee zusammensetzen und aufräumen
    • Google erklärt immer nur, „warum das für Google gut ist“, aber nicht, „warum das für Nutzer gut ist“. Die Richtung der Wertvermittlung ist umgekehrt
    • Eigentlich sollte eine Produktvorstellung weder Google noch die Nutzer in den Mittelpunkt stellen, sondern das Produkt selbst. Zeigt die Funktionen und überlasst das Urteil den Nutzern
    • Die ganze Seite wirkte wie eine Apple-artige Sales-Seite für Unternehmen. Es fühlte sich an, als wolle man es Entwicklern aufzwingen
  • Auf der Preisseite stand „großzügiger Free-Tier“, aber als ich eine HTML-Datei in ein Jinja-Template umwandeln wollte, bekam ich nach zwei Minuten den Fehler quota limit exceeded

    • Im Moment scheinen die Modelle so überlastet zu sein, dass sie nicht richtig funktionieren
    • Wenn man eine HTML-Datei in den Kontext lädt, ist wahrscheinlich der explodierende Token-Verbrauch die Ursache
    • Wie beim Jevons paradox: Wenn etwas kostenlos angeboten wird, nutzen es alle bis zum Anschlag. Dasselbe gab es auch beim kostenlosen Tier von OpenRouter
    • Mir sind ebenfalls die Credits ausgegangen, als ich nur eine einfache iOS-App bauen wollte. Dabei waren es nur ein paar Dateien
    • Im Gemini CLI hatte ich dieselbe Erfahrung
  • Dieser „Agenten-Spam“ ist so ermüdend. Ich will einfach nur programmieren. Für den Ruhestand ist es noch zu früh, für Begeisterung über neue Technik fühle ich mich schon zu spät dran

    • Ich stimme völlig zu. In meinem eigentlichen Fachgebiet bin ich beim Coden ohne AI meistens deutlich schneller. AI erzeugt subtile Bugs, und es geht viel Zeit dafür drauf, Kontext zu erklären.
      Trotzdem ist es wirklich nützlich, um mit LLMs Implementierungsideen zu diskutieren oder Tests und Skripte schnell zu erzeugen. In solchen Punkten bringt es die Freude am Programmieren zurück
    • Frühere Techniktrends waren wenigstens spannend, aber dieser aktuelle AI-Schub wirkt etwas dystopisch. Es ist unangenehm, dass unsere Kenntnisse und Texte eingesaugt und dann wieder an uns verkauft werden.
      Die Technik ist beeindruckend, aber die gesellschaftlichen Kosten dürften hoch sein. Trotzdem muss man dranbleiben, um nicht zurückzufallen, und das ist bitter
    • Ich nutze „Agenten“ überhaupt nicht. In Emacs verwende ich nur LLM-Chat. Für Design-Diskussionen, Prototyping und als Referenz ist das gut, aber der Zeitverschwendungsanteil liegt bei etwa 25 %.
      Dafür kann ich die Codequalität selbst prüfen, und deshalb fühlt sich dieser Ansatz für mich besser an. Solange es Firmen gibt, die diese Arbeitsweise verstehen, mache ich mir keine Sorgen
    • Man muss nicht zu früh in Rente gehen. Auch außerhalb der Technik gibt es genug zu tun
  • Beim Satz „Starte Agenten für wiederkehrende Aufgaben“ dachte ich, dass die Software der Zukunft ein System sein wird, dessen Inneres niemand mehr versteht. Aber der Fluss wird wohl trotzdem nicht abreißen

    • Tatsächlich sind viele Firmen bereits an diesem Punkt. Vielleicht können solche Tools das Verständnis von Codebasen sogar beschleunigen
    • Auf den Satz „Software der Zukunft …“ konnte ich nur mit einem angespannten Lachen reagieren
    • Um etwas Neues zu bauen, braucht man nach wie vor erfahrene Leute
    • Man kann Agenten auch Cruft-Beseitigung, Ursachenanalyse und Architekturerklärung auftragen. Menschliche Teams haben mit denselben Problemen zu kämpfen, also ist der Ansatz nicht völlig falsch
    • Ich muss lachen, wenn Entwickler Angst vor AI haben. AI ist nur eine weitere Abstraktionsschicht. Wer sie beherrscht, kann 10x effizienter werden; wer sie nicht beherrscht, wird eben abgehängt
  • Bei dem Satz „Nutzer vertrauen der Arbeit von Agenten nicht“ hatte ich das Gefühl, dass man eine AI-Zusammenfassung braucht, um diese Seite überhaupt zu verstehen. Die Scroll-Effekte waren wirklich auf dem Niveau von Seekrankheit

    • Der Ausdruck „Vertrauen aufbauen“ wirkt seltsam. LLMs sind nicht perfekt, warum also diese Betonung auf Vertrauen? Entscheidend ist die Überprüfung der Ergebnisse, nicht blindes Vertrauen
    • Jetzt leben wir in einer Welt, in der AI Texte schreibt und andere AI sie dann wieder zusammenfasst
    • Die Scroll-Seekrankheit war wirklich heftig
    • Zusammengefasst klang die Botschaft wie: „Lies den Code nicht selbst, sondern schau dir einfach nur die Ergebnisbilder an, die wir dir zeigen“
  • Ehrlich gesagt sieht das gar nicht so schlecht aus. Es wirkt wie eine UI-seitige Standardisierung von etwas, das viele ohnehin schon gemacht haben.
    Ich selbst nutze bereits einen Workflow auf Basis von Claude Code und jj workspace, deshalb habe ich keinen Grund zu wechseln, aber für Leute, die sich ihre Tool-Kombination nicht selbst zusammenstellen wollen, könnte es nützlich sein

    • Ich nutze Claude Code und Codex ebenfalls täglich und denke schon länger, dass ich jj lernen sollte, habe es aber noch nicht geschafft. Ich würde gern wissen, wie du CLI-basierte Agenten und jj workspace zusammen einsetzt
    • jj ist ein schnelles Versionsverwaltungstool mit Git-kompatiblem Format. jj GitHub-Link
    • Die Agent-Manager-Ansicht, in der man alle Agenten auf einen Blick sieht und direkt auf Freigabeanfragen reagieren kann, wirkt ziemlich nützlich. jj scheint darüber hinaus nicht viel mehr zu bieten
    • Ein ordentlicher Anfang, aber im Vergleich zu VSCode + CLINE + Gemini Pro war es schwächer