Jeder KI-Agent, über den wir bisher geschrieben haben, lebt in Software. Er ruft APIs auf, verarbeitet Text, routet Tickets. Physical AI passiert, wenn dieselbe agentische Architektur, Planungsschleifen, Gedächtnis, Werkzeugauswahl, in einen Körper wandert, der Bauteile greifen, Karosserien schweißen oder Lagerhallen navigieren kann. NVIDIA-CEO Jensen Huang erklärte auf der GTC 2026: “Physical AI has arrived. Every industrial company will become a robotics company.” Der Physical-AI-Markt liegt heute bei 5,2 Milliarden Dollar und soll bis 2033 auf 49,7 Milliarden wachsen.
Das sind keine Luftschlösser. Figure AIs humanoide Roboter haben bereits über 30.000 BMW X3 montiert. Amazon betreibt über eine Million Roboter in mehr als 300 Lagerhäusern. Und BMW setzt in Leipzig erstmals humanoide Roboter in der europäischen Automobilproduktion ein. Für den deutschen Mittelstand mit seiner Fertigungsstärke ist Physical AI kein Zukunftsthema mehr, sondern Gegenwart.
Was Physical AI tatsächlich bedeutet
Huang beschreibt Physical AI als dritte Ära der künstlichen Intelligenz. Ära eins war Wahrnehmungs-KI: Systeme, die Bilder erkennen und Sprache verstehen. Ära zwei war generative KI: Modelle, die Texte, Bilder und Code erzeugen. Ära drei ist Physical AI: Systeme, die die reale Welt verstehen und in ihr handeln.
Die Forschung von Superb-AI zerlegt das in drei Schichten. Wahrnehmung: Der Roboter sieht seine Umgebung durch Kameras, LiDAR und Kraftsensoren. Kognition: Er überlegt, was als Nächstes zu tun ist, mit denselben Planungsschleifen wie Software-Agenten. Aktion: Er bewegt sich physisch, greift Objekte, navigiert Räume.
Der entscheidende Unterschied zu den Industrierobotern, die seit den 1980ern Karosserien schweißen: Anpassungsfähigkeit. Ein klassischer Roboterarm folgt einer fest programmierten Bahn. Wenn das Bauteil zwei Zentimeter verschoben liegt, scheitert der Greifvorgang. Ein Physical-AI-Agent nimmt die Verschiebung wahr, plant den Griff neu, passt die Kraft anhand von Sensordaten an und erledigt die Aufgabe trotzdem.
Von hart codiert zu agentisch
General Robotics dokumentierte, dass ihr agentisches System “Zero-Shot-Generalisierung” über Manipulatoren, Laufroboter, Humanoide und Drohnen erreicht hat. Bestehende Fähigkeiten wurden in neuen Kontexten rekombiniert, ganz ohne Nachtraining. Das ist dasselbe architektonische Muster, das hinter jedem Software-Agenten steckt: Ein Planungsmodul zerlegt komplexe Aufgaben in Schritte, eine Fähigkeitsbibliothek stellt Werkzeuge bereit, und ein Gedächtnissystem merkt sich, was funktioniert hat.
Der Technologie-Stack hinter Physical AI
NVIDIAs Ankündigungen auf der GTC 2026 zeigen den vollständigsten Physical-AI-Stack, den bisher jemand veröffentlicht hat. Er spiegelt die Software-Agenten-Architektur fast eins zu eins wider, nur mit Hardware im Loop.
Weltmodelle: Der interne Simulator des Roboters
Cosmos 3 ist NVIDIAs Weltgrundlagenmodell. Es vereint synthetische Weltgenerierung, visuelle Schlussfolgerung und Aktionssimulation. Der Roboter simuliert einen Griff in Cosmos, bewertet die Erfolgswahrscheinlichkeit und passt an, bevor er physisch zugreift. Software-Agenten machen Ähnliches, wenn sie Multi-Step-Tool-Aufrufe planen, bevor sie ausführen.
Newton Physics Engine 1.0 liefert die Physiksimulation. Samsung demonstrierte, wie Roboter über Newtons Physikvorhersagen das Handling von Kabeln lernen, statt auf Tausende realer Versuche angewiesen zu sein.
Aktionsmodelle: Vom Plan zur Bewegung
GR00T N1.6 und N1.7 sind Vision-Language-Action-Modelle speziell für humanoide Roboter. Sie nehmen visuelle Eingaben und Sprachanweisungen entgegen und geben Ganzkörper-Motorkommandos aus. Das neuere GR00T N2 schafft neue Aufgaben mehr als doppelt so oft wie konkurrierende Modelle und belegt Platz eins auf den MolmoSpaces- und RoboArena-Benchmarks.
Die Parallele zu Software-Agenten
Die architektonischen Parallelen sind frappierend. Bei einem Software-Agenten gibt es Planung (LLM zerlegt ein Ziel in Teilaufgaben), Werkzeugnutzung (Agent wählt APIs aus) und Gedächtnis (Agent merkt sich Kontext). Bei einem Physical-AI-Agenten nach dem Agentic-Framework von General Robotics: Planung (LLM zerlegt “hole das Bauteil aus Regal B3” in wahrnehmen, navigieren, greifen, zurückkehren), modulare Fähigkeitsbibliotheken über das Model Context Protocol (MCP) und zwei Arten von Gedächtnis. Beobachtungsgedächtnis für semantische Umgebungssnapshots und operatives Gedächtnis für Ausführungsdetails und regulatorische Einschränkungen.
Wer Physical AI heute produktiv einsetzt
Das ist keine Forschungsgeschichte mehr. Produktionseinsätze laufen in mehreren Branchen auf Skalierung.
Humanoide Roboter in der Fertigung
Figure AI sammelte $1 Milliarde in der Series C bei einer Bewertung von 39 Milliarden Dollar ein, eine Verfünfzehnfachung in 18 Monaten. Ihre Figure-02-Roboter arbeiteten über 1.250 Stunden im BMW-Werk Spartanburg und bewegten mehr als 90.000 Bauteile.
Tesla Optimus Gen 3 kombiniert xAIs Grok-LLM für Sprachverständnis mit Full-Self-Driving-Neuronalen-Netzen für Bewegung. Die Produktion startete im Februar 2026 in Fremont, zunächst zum Lernen und zur Datensammlung. Zielpreis: 20.000 bis 30.000 Dollar pro Einheit.
Boston Dynamics Atlas wurde vollelektrisch, mit 56 Freiheitsgraden und 50 kg Tragkraft. Die Produktionsversion startete auf der CES 2026 mit zugesagten Einsätzen bei Hyundai und Google DeepMind.
Lager und Logistik
Amazons Roboterflotte überschritt Mitte 2025 die Million-Marke. Ihr DeepFleet-Modell koordiniert die Flottenbewegung per generativer KI und verbesserte die Fahrzeit um 10%. 75% aller Amazon-Lieferungen weltweit werden inzwischen von einem Roboter unterstützt.
Autonome Fahrzeuge
Waymo absolvierte 14 Millionen Fahrten in 2025, dreimal so viele wie im Vorjahr. 200 Millionen vollautonome Kilometer, 91% weniger schwere Unfälle als bei menschlichen Fahrern. Eine 16-Milliarden-Dollar-Finanzierungsrunde im Februar 2026 bei 126 Milliarden Dollar Bewertung finanziert die Expansion in über 20 weitere Städte, darunter Tokio und London.
Der DACH-Vorteil: Physical AI trifft Industrie 4.0
Deutschlands Fertigungs-DNA macht den DACH-Raum zu einem der natürlichsten Märkte für Physical AI. Mehrere Unternehmen sind bereits Vorreiter.
BMW: Humanoide Roboter in Leipzig
BMW setzt AEON-Roboter von Hexagon Robotics (Zürich) im Werk Leipzig ein. Es ist der erste Einsatz humanoider Roboter in der europäischen Automobilfertigung. Testläufe begannen im Dezember 2025; die Pilotphase läuft bis Sommer 2026. Aufgaben: Montage von Hochvoltbatterien und Fertigung von Außenteilen. BMW richtete ein “Center of Competence for Physical AI in Production” ein. Produktionsvorstand Michael Nikolaides: “Pilotprojekte helfen, Physical AI unter realen industriellen Bedingungen zu testen.”
Siemens + NVIDIA: Das Industrial AI Operating System
Siemens und NVIDIA kündigten auf der CES 2026 eine Partnerschaft an, um ein “Industrial AI Operating System” zu bauen. Der erste Prototyp wird im Siemens-Elektronikwerk in Erlangen umgesetzt. CEO Roland Busch sprach von einer “Neudefinition, wie die physische Welt entworfen, gebaut und betrieben wird.” Ziel: 2- bis 10-fache Beschleunigung bei Halbleiterdesign-Workflows. Foxconn, HD Hyundai und die KION Group evaluieren bereits.
NEURA Robotics: Stuttgarts Humanoid-Startup
NEURA Robotics aus Metzingen bei Stuttgart sammelte im Januar 2026 EUR 120 Millionen in der Series B ein. Partnerschaften mit Qualcomm (Dragonwing-IQ10-Prozessoren) und Bosch (Neuraverse-Plattform plus Produktionsexpertise) stärken das Ökosystem. Der größte Schritt: das TUM RoboGym mit der Technischen Universität München, Europas größtes Physical-AI-Trainingszentrum mit EUR 17 Millionen Investition. NEURA ist Mitglied der Initiative “Made for Germany” mit über 100 führenden Unternehmen.
Agile Robots: Münchens Umsatzmaschine
Agile Robots, mit Hauptsitz in München-Sendling, übernahm im November 2025 thyssenkrupp Automation Engineering und verdoppelte den Umsatz auf EUR 200 Millionen. Der humanoide Agile-One-Roboter geht Anfang 2026 in Produktion am eigenen Standort in Bayern. Agile Robots ist Ankerkunde der Industrial AI Cloud von Deutsche Telekom und NVIDIA, der ersten in Europa.
KUKA: Augsburgs Robotik-Veteranen
KUKA aus Augsburg, seit 2016 im Besitz der chinesischen Midea Group, gehört als GTC-2026-Partner zu NVIDIAs Physical-AI-Ökosystem. Mit einem Umsatz von EUR 4,1 Milliarden und einer langen Geschichte in kollaborativer Robotik bleibt KUKA ein Schwergewicht in der Industrie 4.0.
Regulierung: EU AI Act und Physical AI
Der EU AI Act betrifft Physical-AI-Einsätze direkt. Die Fristen im Überblick:
- 2. August 2026: Alle Hochrisiko-KI-Systeme müssen die Anforderungen an Risikomanagement, Datengovernance und Konformitätsbewertung erfüllen
- 2. August 2027: Hochrisiko-KI in regulierten Produkten (Maschinen, Medizingeräte) muss konform sein
- 20. Januar 2027: Die neue EU-Maschinenverordnung (2023/1230) tritt in Kraft und ersetzt die alte Maschinenrichtlinie
Die Maschinenverordnung erfasst jetzt explizit KI-Sicherheitskomponenten mit maschinellem Lernen und selbstentwickelndem Verhalten. Wenn ein Roboter als Maschine gilt UND ein Hochrisiko-KI-System als Sicherheitskomponente nutzt, fällt er unter beide Regelwerke. Das bedeutet obligatorische Drittanbieterzertifizierung.
Kollaborative Roboter (Cobots) bekommen besondere Aufmerksamkeit. Die Verordnung verlangt neue Sicherheitslösungen für gemeinsam genutzte Mensch-Roboter-Arbeitsräume, einschließlich einer Bewertung der psychischen Belastung der Beschäftigten. Für Unternehmen, die DSGVO-konform und jetzt auch AI-Act-konform wirtschaften müssen, wird die Compliance-Landschaft deutlich komplexer.
Fünf Monate bis zur August-2026-Frist. Wer jetzt noch keine Konformitätsbewertung gestartet hat, wird es eng.
Häufig gestellte Fragen
Was ist Physical AI?
Physical AI bezeichnet KI-Systeme, die die reale Welt wahrnehmen, darin schlussfolgern, planen und handeln können. Anders als generative KI (die Texte und Bilder erzeugt) gibt Physical AI Robotern und autonomen Maschinen dieselben agentischen Fähigkeiten wie Software-Agenten: Planung, Gedächtnis und Werkzeugnutzung, angewandt auf reale Bewegung und Manipulation.
Wie unterscheidet sich Physical AI von klassischen Industrierobotern?
Klassische Industrieroboter folgen fest programmierten Bahnen und können sich nicht an unerwartete Änderungen anpassen. Physical-AI-Agenten nutzen agentische Architekturen mit Planungsschleifen, Sensor-Feedback und Gedächtnis, um in Echtzeit zu reagieren. Wenn sich ein Bauteil verschiebt, plant ein Physical-AI-Roboter den Griff automatisch neu.
Welche deutschen Unternehmen setzen Physical AI ein?
BMW setzt humanoide Roboter im Werk Leipzig ein. Siemens baut mit NVIDIA ein Industrial AI Operating System in Erlangen. NEURA Robotics (Stuttgart) errichtet mit der TU München Europas größtes Physical-AI-Trainingszentrum. Agile Robots (München) produziert eigene humanoide Roboter in Bayern. KUKA (Augsburg) gehört zum NVIDIA-Physical-AI-Partnerökosystem.
Wie betrifft der EU AI Act Physical AI und Robotik?
Der EU AI Act stuft KI-Sicherheitskomponenten in Maschinen als Hochrisiko ein. Bis August 2026 müssen alle Hochrisiko-KI-Systeme konform sein. Die neue EU-Maschinenverordnung (ab Januar 2027) erfasst explizit selbstentwickelnde KI in Robotern. Kollaborative Roboter benötigen eine obligatorische Drittanbieterzertifizierung.
Wie groß ist der Physical-AI-Markt?
Der Physical-AI-Markt wurde 2025 auf 5,2 Milliarden Dollar bewertet und soll bis 2033 auf 49,7 Milliarden Dollar wachsen (32,5% CAGR). Der breitere Markt für KI in der Robotik soll bis 2033 auf 182,7 Milliarden Dollar steigen. Humanoide Roboter allein stellen laut Goldman Sachs bis 2035 eine 38-Milliarden-Dollar-Chance dar.
