Physical AI

 

20. Februar 2026

 

Physical AI: Warum Roboter noch nicht denken wie LLMs

und was das strategisch bedeutet

 

 

Gestern durfte ich einen Vortrag von Professor Wolfgang Pree (Universität Salzburg) auf der 12. KIM des DÖIM in Salzburg hören. Ein Punkt bleibt besonders hängen: Führende Forscher gehen davon aus, dass Physical AI noch weit davon entfernt ist, auf dem Niveau digitaler KI zu operieren. Vor allem in der Robotik zeigen sich deutliche Grenzen.

 

Das klingt zunächst kontraintuitiv. Wenn Large Language Models schreiben, programmieren und analysieren können, warum können Roboter dann nicht genauso schnell lernen, sich sicher in der realen Welt zu bewegen?

 

Die Antwort ist ernüchternd und strategisch hoch relevant.

 

 

Was ist Physical AI – und warum ist sie nicht einfach „LLM plus Motor“?

 

IBM beschreibt Physical AI als KI-Systeme, die Wahrnehmung, Entscheidungsfindung und physische Handlung kombinieren, also Systeme, die nicht nur Informationen verarbeiten, sondern realweltlich agieren (IBM, What is Physical AI).

 

Während digitale KI in klar definierten Datenräumen operiert, muss Physical AI mit:

  • Sensorrauschen
  • physikalischen Kräften
  • Materialeigenschaften
  • Energie-Constraints
  • Unsicherheiten
  • Sicherheitsanforderungen

umgehen.

 

Ein LLM halluziniert einen falschen Text. Ein Roboter halluziniert eine falsche Bewegung und jemand steht im Weg. Das ist ein fundamentaler Unterschied.

 

 

Warum sind physische Systeme so viel schwerer zu trainieren?

 

Das Center for Security and Emerging Technology (CSET, Georgetown) beschreibt eine zentrale Herausforderung: Der Übergang von Simulation zu realer Umgebung ist komplex und teuer. Hardware entwickelt sich langsamer als Algorithmen. Sensoren, Aktuatoren und Batterien sind physikalischen Grenzen unterworfen.

 

Software skaliert exponentiell. Mechanik nicht.

 

Fraunhofer IESE spricht in diesem Zusammenhang von einem System-Engineering-Problem, nicht nur einem KI-Problem (Engineering Physical AI). Digitale Zwillinge und Sim2Real-Methoden helfen, aber sie ersetzen nicht die reale physische Interaktion.

 

Das bedeutet: Physical AI ist kein reines Skalierungsproblem wie LLMs. Es ist ein Integrationsproblem.

 

 

Sind aktuelle KI-Modelle physikalisch überhaupt plausibel?

 

Forschungsergebnisse wie PAI-Bench (arXiv) zeigen, dass viele multimodale Modelle zwar beeindruckend in Text- und Bildverarbeitung sind, aber Schwierigkeiten haben, physikalische Kausalität korrekt vorherzusagen.

 

Beispiel: Ein Modell kann beschreiben, wie ein Objekt fällt. Aber versteht es wirklich Impuls, Reibung, Drehmoment? Digitale Intelligenz ist nicht automatisch physische Intelligenz.

 

 

Warum bremst das die Robotik?

 

In strukturierten Umgebungen, wie z. B. Fertigungsstraßen oder Lagerlogistik, funktionieren Roboter gut. Aber in offenen, dynamischen Kontexten wird es kompliziert.

 

World Economic Forum beschreibt Physical AI als potenziell nächste industrielle Revolution, betont jedoch die hohe Komplexität unstrukturierter Umgebungen (WEF – Physical AI in Manufacturing). Das ist keine lineare Skalierung eines Sprachmodells. Das ist reale Welt.

 

 

Warum ist das strategisch relevant auch für Investoren?

 

Aus meiner Perspektive als Technologie- und M&A-Berater ist diese Differenz entscheidend. Digitale KI skaliert schnell, weil sie im Informationsraum operiert. Physical AI muss im Energie- und Materialraum funktionieren.

 

Das bedeutet:

  • Investitionszyklen sind länger
  • Kapitalbedarf ist höher
  • Skalierungsrisiken sind größer
  • Safety- und Regulatorikthemen dominieren

 

Für Investoren heißt das, AI ist nicht gleich AI. Ein SaaS-Unternehmen mit AI-Features hat eine völlig andere Risikostruktur als ein Physical-AI-Startup mit Hardware-Komponente.

 

 

Was bedeutet das für Unternehmen?

 

Unternehmen sollten sich drei Fragen stellen:

  • Ist unser AI-Use Case rein informationsbasiert oder physisch eingebettet?
  • Haben wir die Engineering-Kompetenz, nicht nur die Modellkompetenz?
  • Verstehen wir die Safety- und Governance-Implikationen ausreichend?

Physical AI ist kein Buzzword. Es ist ein Integrationsprojekt auf mehreren Ebenen.

 

 

Fazit: Die reale Welt ist der härteste Trainingsdatensatz

 

Digitale KI bewegt sich mit atemberaubender Geschwindigkeit. Physical AI hingegen muss mit Gravitation, Reibung und Haftung umgehen. Und die lassen sich nicht per Prompt überschreiben.

 

Wenn Professor Pree betont, dass Physical AI erst noch „angelernt“ werden muss, dann meint er genau das: Die reale Welt ist kein Datensatz. Sie ist ein System aus Energie, Material und Unsicherheit. Und das ändert alles.

 

 

Quellen

 

Vortrag von Prof. Dr. Wolfgang Pree, Universität Salzburg

https://www.plus.ac.at/informatik/wolfgang-pree/

 

IBM – What is Physical AI?

https://www.ibm.com/think/topics/physical-ai

 

CSET Georgetown – Physical AI Challenges

https://cset.georgetown.edu/publication/physical-ai/

 

Fraunhofer IESE – Engineering Physical AI

https://www.iese.fraunhofer.de/blog/physical-ai/

 

PAI-Bench (arXiv)

https://arxiv.org/abs/2512.01989

 

World Economic Forum – Physical AI in Manufacturing

https://www.weforum.org/stories/2025/09/what-is-physical-ai-changing-manufacturing/

 

 

 

Experten mit Struktur und auf Augenhöhe

finden Sie bei der F&P Executive Solutions AG.

Information icon

Wir benötigen Ihre Zustimmung zum Laden der Übersetzungen

Wir nutzen einen Drittanbieter-Service, um den Inhalt der Website zu übersetzen, der möglicherweise Daten über Ihre Aktivitäten sammelt. Bitte überprüfen Sie die Details in der Datenschutzerklärung und akzeptieren Sie den Dienst, um die Übersetzungen zu sehen.