4 Punkte von GN⁺ 26 일 전 | Noch keine Kommentare. | Auf WhatsApp teilen
  • In den Robotiksektor fließen enorme Kapitalmengen und Spitzenkräfte, doch der reale Einsatz außerhalb begrenzter Umgebungen wie der Industrieautomatisierung ist weiterhin gering
  • Strukturelle Veränderungen laufen gleichzeitig ab, darunter sinkende Komponentenpreise, bessere Batteriewirtschaftlichkeit, Fortschritte bei Modellarchitekturen und verbesserte Simulationsumgebungen
  • Im Vergleich zu rund 1 Milliarde Stunden Internetvideo gibt es weltweit nur etwa 300.000 Stunden Robotik-Manipulationsdaten, also eine grundlegende Datenknappheit
  • Da die Kosten für Aktuatoren, Batterien, Compute und Systeme sinken und zugleich die Arbeitskosten steigen, ist ein wirtschaftlicher Schnittpunkt erreicht, an dem der Grenzwert von Automatisierung steigt
  • Drei Engpassbereiche werden für die künftige Wertschöpfung zentral sein: Datengewinnung, Robotik-AI-Labore und vertikale Lösungsanbieter

Aktuelle Lage: der Schnittpunkt von Hype und strukturellem Wandel

  • In die Robotik fließt viel Kapital, und es erscheinen ständig beeindruckende Demos, doch der reale Einsatz in Lagerhäusern, auf Farmen, in Fabriken, Krankenhäusern und auf Baustellen unterscheidet sich weiterhin kaum von traditionellen Arbeitsumgebungen
  • Sinkende Komponentenpreise, bessere Batteriewirtschaftlichkeit, leistungsfähigere Modellarchitekturen, bessere Simulations- und Trainingsumgebungen sowie ein durch Kapitalzufluss und AGI-nahe Ambitionen angetriebenes Talent-Flywheel stützen den Hype strukturell ab
  • Die Kernfrage ist nicht, ob Robotik Potenzial hat, sondern ob sie sich an einem Wendepunkt der kommerziellen und Konsumentenadoption befindet und wie sich das aktuelle Momentum verifizieren lässt

Vier Epochen der Robotikgeschichte

I. 1950–2000: Industrieller Einstieg und Aufbau der Grundlagen

  • Diese Ära wurde von programmierbarer Mechatronik definiert; 1961 wurde bei General Motors mit Unimate der erste Industrieroboter für begrenzte mechanische Bewegungen eingeführt
  • Der Stanford Arm erweiterte die Fähigkeiten in mehreren Achsen und blieb bis in die 1990er Jahre ein zentraler Forschungsschwerpunkt
  • Mit der PLC von Modicon 1968 und dem Intel-4004-Mikroprozessor 1971 wurde Maschinenintelligenz wirtschaftlich über die gesamte industrielle Automatisierung hinweg skalierbar
  • Als der IBM PC in den 1980er Jahren Computing in den ingenieurtechnischen Mainstream brachte, wurden Roboter nicht mehr als isolierte Maschineninstallationen, sondern als Teil einer digitalen Produktionsumgebung integriert

II. 2000–2010: Open Robotics und das Zeitalter mobiler Komponenten

  • Der erste Commit von ROS (Robot Operating System) im Jahr 2007 und die Forschungsplattform PR2 stellten der Community erstmals eine gemeinsame Software-Schicht und eine gemeinsame Entwicklungsumgebung zur Verfügung
  • Im selben Jahr leitete die Einführung des iPhone durch Apple eine langfristige Kostenkompression über die gesamte Lieferkette von Sensoren, Batterien, Kameras, Embedded Compute und stromsparender Elektronik ein, von der die Robotik profitierte
  • Universal Robots (gegründet 2005), iRobots Roomba (2002) und Kiva Systems (2003) profitierten direkt davon
  • Die Übernahme von Kiva durch Amazon im Jahr 2012 war das erste greifbare Signal, dass Robotik über Forschungsbegeisterung hinaus strategischen kommerziellen Wert schaffen kann

III. 2010–2020: Kollaborative Roboter und Edge Compute

  • Drei Entwicklungen konvergierten: (1) kollaborative Roboter wurden kommerziell zuverlässig — der KUKA LBR iiwa war der erste in Serie gefertigte Sensitive-Roboter mit Zertifizierung für Mensch-Roboter-Kollaboration, während Universal Robots weiter auf Zugänglichkeit und einfache Bereitstellung setzte
  • (2) Mit der Einführung von Nvidia Jetson im Jahr 2014 wurde GPU-basiertes Edge Compute praktisch nutzbar, wodurch Echtzeit-AI und Computer Vision einsatzfähigen Systemen näher kamen (aufbauend auf CUDA von 2006 und später der Transformer-Architektur)
  • (3) Ein grundlegender Wandel des AI-Stacks — Durchbrüche wie Trust Region Policy Optimization, Model-Agnostic Meta-Learning und Non-Local Neural Networks führten dazu, dass handgebaute Pipelines durch end-to-end datengetriebene Wahrnehmung und Steuerung ersetzt wurden
  • Dadurch verlagerte sich Robotik von strukturierten, hart codierten Regeln hin zu wahrnehmungsbasiertem Lernen über Reinforcement Learning, Simulation und Imitation; motorische Fähigkeiten werden eher aus Daten als durch explizite Programmierung gelernt

IV. 2020–heute: Physical AI

  • Googles Transformer-Paper von 2017 führte zu RT-1 (2022), das Robotersteuerung als Transformer-Problem formulierte, trainiert auf großen und vielfältigen realen Datensätzen
  • RT-2 (2023) erweiterte dies zu einem Vision-Language-Action-(VLA)-Modell, das sowohl mit Web- als auch mit Robotikdaten trainiert wird
  • NVIDIA kündigte Project GR00T (2024) an und veröffentlichte mit GR00T N1 (2025) ein offenes Foundation Model für humanoide Roboter
  • Neue Robotik-Modelllabore wie Physical Intelligence, Skild AI und Field AI entstehen
  • Schnellere drahtlose Konnektivität über 5G und zuverlässigere Teleoperation sowie bessere Datenpipelines und leistungsfähigere Hardware vor Ort erweitern Remote-Betrieb, Fleet-Software und Datenerfassungsschleifen

Veränderte wirtschaftliche Bedingungen

Sinkende Komponenten- und Systemkosten

  • Die Hauptkomponenten eines Robotersystems sind Aktuatoren, Sensoren, Batterien, Halbleiter/Chips und mechanische Strukturen; Humanoide sind ein sinnvoller Proxy, da sie die meisten davon enthalten
  • Morgan Stanley zerlegte die BOM von Teslas Optimus nach Abschnitten und veranschaulichte so den Beitrag einzelner Komponenten zum Gesamtsystem

Aktuatoren

  • In vielen Robotersystemen machen sie den größten Kostenanteil aus; China dominiert den Markt, was bestimmte Use Cases und die Resilienz der Lieferkette komplexer macht
  • Der durchschnittliche Preis von Aktuatoren steigt stärker als die Inflation, doch auf Dichtebasis normalisiert verbessert sich der reale Ausblick deutlich
  • Präzision, Steuerung und Feinbewegung elektrischer Linearaktuatoren verbessern sich weiter — der Tracking-Fehler permanenterregter Linearmotoren sank von unter 7 μm im Jahr 2003 in späteren Studien auf etwa 0,5 μm RMS

Batteriekosten

  • Sie sinken stark, getrieben von der Automobilindustrie und netzseitigen Speichersystemen
  • Bei Li-Ion fielen die Kosten pro kWh seit 2013 um etwa 87 % und seit 2020 nochmals um rund 36 %; erwartet wird eine Phase der Stabilisierung

Compute-Kosten

  • Kein direkter BOM-Posten, aber zentral für die langfristige Wirtschaftlichkeit
  • Damit Roboter menschliche Arbeit übertreffen können, braucht es weiter sinkende Edge-Compute-Kosten und bessere Leistung parametrisierter Modelle
  • Bei Chips der Nvidia-Jetson-Serie hat sich die Performance pro Dollar seit 2014 um Größenordnungen verbessert

Systemkosten

  • Am Beispiel von Industrierobotern sind sie in den vergangenen 30 Jahren deutlich gesunken, und weitere Rückgänge sind zu erwarten

Arbeitskosten in den USA

  • In Lagerhaltung und Logistik, einem repräsentativen Use Case, ist der durchschnittliche Stundenlohn stetig gestiegen
  • Das Lohnwachstum bei Beschäftigten in Transport und Lagerhaltung liegt gegenüber dem Index von 2003 über der Inflation und unterstreicht die Bedeutung der Arbeitsnachfrage in diesem Bereich

Steigender wirtschaftlicher Wert der Automatisierung

  • Zusammengenommen zeigen die Kostenkurven, dass der Grenzwert von Automatisierung/Robotik steigt
  • In einer NPV-Darstellung wird das deutlich sichtbar, auch wenn die „effiziente Frontier“ je nach Modell unterschiedlich ausfällt
    • Annahmen: Einstiegsgehälter und Nebenleistungen im Lager laut Indeed, Nutzungsdauer 8 Jahre, im Vorauszahlungsmodell 20 % Wartungskosten, 10 % Diskontsatz

Zentrale Trade-offs am Adoptions-Wendepunkt

  • Hardware vs. Intelligenz — eine Gegenüberstellung, die die unterschiedlichen Ansätze Chinas und der USA widerspiegelt. China ist mit bestehender Fertigungsinfrastruktur und Lieferketten im Hardware-Entwickeln im Vorteil, die USA bei AI/ML und frühen LLM-Foundation-Model-Laboren. Mit der Zeit dürfte die Überschneidung zunehmen
  • Industrie vs. Consumer — Paletten greifen und Teller aufheben wirken oberflächlich ähnlich, unterscheiden sich aber in Bewegung, Griffdynamik und Drucktoleranzen. Wegen der bestehenden Roboterpräsenz in industriellen Umgebungen und des klaren ROI wird der industrielle Bereich zuerst skalieren, eine breite Verbreitung humanoider Haushaltsroboter folgt später
  • Open Source (Android) vs. Closed (iOS) — ähnlich wie bei Android/iOS im Smartphone-Markt beginnt sich auch in der Robotik eine Trennung abzuzeichnen zwischen entwicklerzentrierten offenen Plattformen (ein ROS-Äquivalent, offene Hardware-Ökosysteme) und vertikal integrierten geschlossenen Systemen, in denen Hardware, Software und Modelle eng verzahnt sind

Der Intelligenz-Stack: mehr als nur Ökonomie

  • Sinkende Komponentenpreise erhöhen die Finanzierbarkeit von Robotern, erklären aber nicht, warum sich die Markterzählung von enger Automatisierung zu General-Purpose-Robotern verschoben hat — dieser Wandel betrifft die Intelligenzschicht
  • Robotik bewegt sich von einfacheren, ingenieurgetriebenen Annahmen über Wahrnehmung, Planung und die Welt hin zu gelernten Repräsentationen, trainiert mit großskaligem Video, Roboterdemonstrationen, synthetischer Vorhersage und multimodalen Inputs

1. Das Datenproblem

  • Der Robotik fehlt noch das Datenäquivalent des Internets für die physische Welt
  • LLMs konnten digitalisierten Text und Medien ernten, während Robotik-Training weiterhin auf Teleoperation, menschliche Operatoren, physische Hardware und reale Umgebungen angewiesen ist
  • Datenlücke: etwa 1 Milliarde Stunden Internetvideo → etwa 350 Millionen Stunden Autonomous-Driving-Daten → etwa 20 Millionen Stunden World-Model-Trainings-Proxy (Cosmos usw.) → weltweit etwa 300.000 Stunden Robotik-Manipulationsdaten (laut Bessemer-Report)
  • Nicht alle Daten werden gleich erzeugt oder sind gleich nutzbar; generell stehen Datenwert und Skalierbarkeit in einer inversen Beziehung

2. Leistungssteigerung der Intelligenzschicht

  • Sowohl Weltwissen (World Models) als auch Handlungswissen (VLM/VLA-Modelle, multimodale Robotik-Foundation-Modelle) entwickeln sich schnell weiter
  • Weltwissen — etwa Objektbewegungen, Flüssigkeitsströme oder Stofffall — lässt sich zunehmend aus reichhaltigem Videomaterial und Modellierung lernen
  • Handlungswissen — also wie ein bestimmter Arm, eine Hand oder ein Humanoid Befehle in Bewegung umsetzt — bleibt weiterhin verkörperungsspezifisch, könnte aber deutlich weniger robotspezifische Daten benötigen, als frühere Generationen annahmen
  • Metas V-JEPA 2 wurde auf mehr als 1 Million Stunden Video vortrainiert und anschließend mit weniger als 62 Stunden Robotik-Video auf Verhalten konditioniert
  • Googles RT-2 erweitert Vision-Language-Lernen im Web-Maßstab auf reale Robotersteuerung
  • Simulatoren bleiben relevant, und Lokomotion passt gut zu Physik-Engines, doch ihre Rolle wird enger. Bei kontaktreicher Manipulation werden gelernte World Models wichtiger

3. Der Übergang von Theorie zu Lösungen

  • Bessere Modelle zeigen sich zuerst in praktischen Ergebnissen: besseres Greifen, weniger Teleoperations-Eingriffe, schnellere Anpassung an neue SKUs, robustere Manipulation und längere autonome Betriebszeiten innerhalb begrenzter Workflows
  • Die Debatte über den „ChatGPT-Moment“ der Robotik hält an, doch die relevantere Frage ist, ob die neue Intelligenzschicht ausreichend ist, um die Schwelle vom Pilotprojekt zur Produktion zu überschreiten
  • Die Reihenfolge der Stack-Lösung: Datengewinnung → Robotik-Neo-Labore verwandeln sie in wiederverwendbare Intelligenz → vertikale Lösungsanbieter überführen sie in messbare Arbeitsökonomie

Investitionsschwerpunkte: drei zentrale Engpässe

1. Mangelnde Datenverfügbarkeit → Data Enablement

  • Wenn Robotik grundlegend datenlimitiert ist, dann ist Datengewinnung eine der wichtigsten kurzfristigen Kategorien im Stack
  • Dazu gehören egocentrische und Teleoperations-Datenerfassung, Erzeugung synthetischer Umgebungen, Edge-Case-Evaluierung, Signalbereinigung und das Schaffen von Feedback-Schleifen zur Systemverbesserung
  • Referenzen: Scale AI (Datenlabeling und Annotation), Mercor / Mirco1 (menschliche Daten)
  • Ähnlich wie in der frühen AI-Data-Labeling-Welle könnten die stärksten Unternehmen einen anfänglichen Services-/Tool-Wedge nutzen, um in hochwertige Workflow-Software, modellnahe Tools und schwer ersetzbare proprietäre Datenschleifen vorzudringen
  • Diesmal könnte auch Hardware dazugehören

2. Die noch frühe Intelligenzschicht → Robotik-Neo-Labore (Robotic Neo Labs)

  • Wenn die Intelligenzschicht nützlicher wird, aber noch früh ist, sind Robotik-Neo-Labore das nächste logische Feld
  • Gemeint sind Unternehmen, die ehemals fragmentierte Modelle der physischen Welt in wiederverwendbare Intelligenz überführen wollen
  • Wert akkumuliert sich bei Teams, die auf World Models, Handlungsmodelle, multimodale Robotik-Foundation-Modelle sowie Trainings-, Evaluierungs- und Deployment-Tools setzen
  • Skild, Physical Intelligence und Field AI haben bereits Bewertungen in Milliardenhöhe erreicht und einen Kingmaker-Zyklus für Robotik-Labore eingeleitet
  • Größeres Interesse gilt weniger den Laboren selbst als dem, was um und unter ihnen herum aufgebaut wird — Teams, die über Daten, Verkörperung, Evaluierung und Inferenz-Effizienz hinweg kumulative Effekte erzeugen können, dürften die eigentlichen Gewinner sein
  • Auch die Exit-Pfade dürften sich von früheren Robotikzyklen unterscheiden — statt traditioneller Meilensteine könnten Geschwindigkeit, Talentdichte, proprietäre Daten und technologische Positionierung entscheidender werden
  • Erwartet werden mehr M&A-/Acquihire-Deals, IP-basierte Ergebnisse und strategische Partnerschaften
  • Das Interesse an Edge Inference und spezialisiertem On-Device-Compute könnte wieder zunehmen, da Labore und ihre Partner die Abhängigkeit von teurem zentralisiertem Compute verringern wollen

3. Technischen Fortschritt in reale Workflow-Ergebnisse übersetzen → vertikale Lösungsanbieter (VSP)

  • Wenn bessere Intelligenz Roboter in begrenzten Umgebungen leistungsfähiger macht, sind die unmittelbarsten kommerziellen Gewinner Unternehmen, die diese in reale Kunden-Workflows deployen
  • Viele physische Workflows sind so eingeschränkt, dass sie lernbar sind, so wertvoll, dass Deployment gerechtfertigt ist, und zugleich so komplex, dass bessere Intelligenz das fehlende Puzzlestück war
  • Industrielle und kommerzielle Use Cases erscheinen kurzfristig vielversprechender als Consumer-Anwendungen — der ROI ist klarer, das Arbeitsproblem akuter und der Weg vom Piloten zur Produktion leichter zu erschließen
  • Eine Herausforderung ist das Fehlen universeller Adoptionsstandards — Kunden bewerten entlang einer gleitenden Skala aus Geschwindigkeit (pro Stunde verpackte Artikel), Genauigkeit (Anteil korrekt gepickter Artikel) und Kosten (nivellierte Kosten pro Stunde); Arbeitsproduktivität ist die letztliche Kennzahl
  • Die Skalierung dürfte mit Workforce Augmentation beginnen — insbesondere in Segmenten mit Personalmangel und in Zeitfenstern mit geringer Arbeitskräfteverfügbarkeit wie Nächten und Wochenenden zeigt sich ROI; niedrigere Schwellen bei Geschwindigkeit und Genauigkeit rechtfertigen dabei hohe Anfangskosten und ermöglichen lokalen Scale-up
  • Die nächste Value-Capture-Schicht ist bereits sichtbar: Integration, Service, Uptime-Management, Wartung und Finanzierung
    • Formic hat diese Realität früh benannt; wenn Robotik vom Piloten zur Fleet übergeht, wird auch das umliegende Ökosystem investierbar
    • In vielen Märkten ist dies genau der Bereich, in dem am Ende nachhaltige Unternehmen aufgebaut werden

Noch keine Kommentare.

Noch keine Kommentare.