automation-de.com
19
'26
Written on Modified on
Offene Datenarchitektur für physische KI-Systeme
NVIDIA, Microsoft Azure und Nebius arbeiten zusammen, um ein skalierbares Data-Factory-Framework für Robotik, visuelle KI-Agenten und autonome Fahrzeuge bereitzustellen.
www.nvidia.com

NVIDIA hat in Zusammenarbeit mit Microsoft Azure und Nebius eine offene Referenzarchitektur vorgestellt, die darauf abzielt, die Datenerzeugung und -verarbeitung für physische KI-Systeme zu industrialisieren. Dazu gehören Anwendungen in der Robotik und autonomen Mobilität.
Kontext der Zusammenarbeit
Die Kooperation zwischen NVIDIA, Microsoft Azure und Nebius adressiert eine zentrale Herausforderung in der Entwicklung physischer KI: die Verfügbarkeit großer, hochwertiger Trainingsdatensätze.
Physische KI-Systeme wie autonome Fahrzeuge, robotische Plattformen und visuelle KI-Agenten benötigen vielfältige Datensätze, die auch seltene und sicherheitskritische Szenarien abdecken. Die Erfassung solcher Daten in realen Umgebungen ist ressourcenintensiv und oft unpraktisch. Ziel der Zusammenarbeit ist es daher, manuelle Datenerhebungsprozesse durch automatisierte, rechenbasierte Daten-Workflows zu ersetzen.
Technische Lösung und Aufgabenverteilung
Die Lösung basiert auf dem NVIDIA Physical AI Data Factory Blueprint, einer offenen Architektur, die Datenpipelines in modulare Phasen unterteilt: Kuratierung, Erweiterung (Augmentation) und Bewertung.
NVIDIA stellt den zentralen Software-Stack bereit, einschließlich Cosmos-basierter Tools zur Datenverarbeitung, synthetischen Datengenerierung und Validierung. Diese Komponenten ermöglichen es, begrenzte Datensätze mithilfe von Simulationen und generativen Modellen zu erweitern.
Microsoft Azure integriert diese Architektur in seine cloudbasierte Infrastruktur und kombiniert IoT-Dienste, Datenplattformen und Echtzeitanalysen, um skalierbare Machine-Learning-Workflows für Unternehmen zu unterstützen.
Nebius liefert die Infrastrukturintegration, einschließlich GPU-beschleunigtem Computing (RTX PRO 6000 Blackwell-Klasse), Objektspeicher und serverloser Ausführung für durchgängige Pipeline-Deployments.
Die Architektur arbeitet mit automatisierten Workflows, die Rohdaten aufbereiten, synthetische Varianten (einschließlich seltener Szenarien) erzeugen und Ergebnisse mithilfe von KI-gestützten Bewertungsmodellen validieren. Dadurch wird der manuelle Aufwand reduziert und die Datenqualität standardisiert.
Eine Orchestrierungsschicht namens NVIDIA OSMO verwaltet verteilte Workloads über verschiedene Rechenumgebungen hinweg. Sie integriert KI-Coding-Agenten zur automatischen Ressourcenverteilung und Pipeline-Steuerung und unterstützt so die industrielle Automatisierung von Datenprozessen.
Implementierung und Einsatz
Die Architektur wird in Cloud-Umgebungen bereitgestellt, sodass Entwickler Datenpipelines konfigurieren können, ohne eigene Infrastruktur aufbauen zu müssen.
Auf Azure ist das System Teil einer offenen Toolchain für physische KI und lässt sich in bestehende Unternehmens-IT integrieren. Nebius stellt die Architektur in seiner KI-Cloud bereit und ermöglicht produktionsreife Pipelines mit verwalteten Inferenz- und Datendiensten.
Frühe Anwender wie FieldAI, Hexagon Robotics, Linker Vision und Teradyne Robotics testen das System in Bereichen wie Wahrnehmung, Mobilität und Reinforcement Learning. Weitere Implementierungen auf Nebius-Infrastruktur unterstützen Videoanalysen und Robotikanwendungen.
Anwendungen und Einsatzbereiche
Die Architektur richtet sich an verschiedene industrielle Anwendungsfelder:
- Autonome Fahrsysteme, die Training für seltene Szenarien benötigen
- Industrie- und Servicerobotik mit Reinforcement Learning
- Visuelle KI-Agenten für Überwachung und Analyse
Zu den Anwendungsfällen gehören simulationsbasiertes Training, Validierung von Wahrnehmungsmodellen unter variablen Bedingungen sowie die kontinuierliche Erweiterung von Datensätzen für adaptive Systeme.
Ergebnisse und erwartete Auswirkungen
Die Zusammenarbeit markiert einen Wandel von der Datenerfassung hin zur Datengenerierung, bei dem Rechenleistung genutzt wird, um Trainingsdaten systematisch zu erzeugen. Dadurch wird die Abhängigkeit von realen Datenerhebungen reduziert und gleichzeitig die Abdeckung seltener Szenarien verbessert.
Operativ erhöht das Framework die Skalierbarkeit, Wiederholbarkeit und Validierbarkeit von KI-Trainingspipelines. Durch die Integration cloudbasierter Infrastruktur mit automatisierten Workflows ermöglicht das System schnellere Iterationen und eine konsistentere Modellleistung in komplexen Umgebungen.
Bearbeitet von der Industriejournalistin Sucithra Mani mit Unterstützung von KI.
www.nvidia.com
Ergebnisse und erwartete Auswirkungen
Die Zusammenarbeit markiert einen Wandel von der Datenerfassung hin zur Datengenerierung, bei dem Rechenleistung genutzt wird, um Trainingsdaten systematisch zu erzeugen. Dadurch wird die Abhängigkeit von realen Datenerhebungen reduziert und gleichzeitig die Abdeckung seltener Szenarien verbessert.
Operativ erhöht das Framework die Skalierbarkeit, Wiederholbarkeit und Validierbarkeit von KI-Trainingspipelines. Durch die Integration cloudbasierter Infrastruktur mit automatisierten Workflows ermöglicht das System schnellere Iterationen und eine konsistentere Modellleistung in komplexen Umgebungen.
Bearbeitet von der Industriejournalistin Sucithra Mani mit Unterstützung von KI.
www.nvidia.com
Fordern Sie weitere Informationen an…

