Das Zeitalter der Codefabriken und die Zukunft von SRE
(article.keeban.io)Ursprünglich war dies nur ein schwacher Text, den ich in meinem Umfeld geteilt habe, aber da die Reaktionen ganz gut waren, teile ich ihn auch auf GeekNews, um die Gedanken und Perspektiven anderer zu hören. Falls es wie ein werblicher Beitrag wirkt, weist mich bitte darauf hin!
Zusammenfassung
- Das Fundament des Software Engineerings wird durch den rasanten Aufstieg von AI und Automatisierung neu strukturiert. Dieser Wandel hat ein irreversibles Ausmaß erreicht, und bestehende Praktiken und Workflows werden grundlegend neu bewertet.
- Die Bedingung dafür, dass AI in der Industrie traditionelle menschliche Entwickler vollständig ersetzt, ist nicht einfach, dass AI besseren Code als Menschen schreibt, sondern dass die Produktionsfähigkeit von AI allein der Kombination aus Mensch und AI überlegen ist. Diese Zukunft wird nicht so schnell kommen.
- Bestehende menschenzentrierte Workflows, Best Practices und Kollaborationsmodelle (TDD, Git/PR-Strukturen usw.) müssen im Zeitalter der AI neu überprüft werden.
- Was sich mit Vibe Coding leicht bauen lässt, hat entsprechend keinen großen Wettbewerbsvorteil. In ernsthaften Projekten sind trotz AI-Automatisierung feingranulare Engineering-Prozesse (LLM-Kontextmanagement, Verifizierungsautomatisierung, Code-Management usw.) entscheidend.
- Dank AI kann heute jeder Software erstellen, aber der tatsächliche Service-Betrieb (SRE/DevOps) lässt sich weiterhin nur schwer automatisieren. Vercel/Supabase werden bei Skalierung teuer, AWS/Kubernetes sind komplex, und Monitoring- sowie Alarmierungs-Setups sind noch schwieriger.
- Je stärker AI das Schreiben von Code beschleunigt, desto größer wird paradoxerweise die Last in SRE/DevOps/Betrieb. Dieser Bereich ist stateful, die Kosten von Halluzinationen sind hoch, und die Verarbeitung von Echtzeit-Metriken und -Logs ist nötig, weshalb sich das nicht gut allein mit LLMs lösen lässt.
- Einen LLM-Agenten in EC2 einzusetzen und den Betrieb eigenständig erledigen zu lassen, wirkt wie die unrealistische Vorstellung, einem LLM nur Kameraschnappschüsse zu geben und damit autonomes Fahren zu erwarten; es braucht einen grundsätzlicheren Ansatz.
- Wie bei den Stufen 2→4→5 des autonomen Fahrens braucht auch der „autonome Betrieb“ von Services einen eigenen technischen Ansatz in Form eines „Systemmodells“, etwa mit Sensing (Logs/Metriken) und World Model (virtuelle Architektur/Traffic-Simulation).
Noch keine Kommentare.