Universal Robots et Scale AI ont développé un système permettant aux robots industriels d’apprendre des tâches par démonstration humaine, en exploitant des données synchronisées de mouvement, de force et de vision pour entraîner des modèles d’IA déployables en environnement réel.
Contexte de la coopération
Universal Robots, fabricant de robots collaboratifs, et Scale AI, spécialiste des infrastructures de données pour l’IA, répondent à une limitation majeure de la robotique pilotée par l’IA : le manque de données d’entraînement fiables et exploitables en production. Les approches actuelles reposent souvent sur des plateformes de recherche ou sur des données visuelles seules, difficilement transférables à l’industrie.
Cette coopération combine des équipements robotiques industriels avec des capacités de traitement et d’annotation de données à grande échelle. Elle permet une acquisition cohérente des données directement sur les systèmes déployés, réduisant l’écart entre laboratoire et usine.
Solution technique et répartition des responsabilités
Le système, appelé AI Trainer, repose sur un apprentissage par imitation via une configuration leader–suiveur.
Universal Robots fournit les robots collaboratifs (UR3e, UR7e), le contrôle direct du couple (Direct Torque Control) et la rétroaction de force, et l’intégration dans son environnement logiciel AI Accelerator
Scale AI apporte de son côté l’infrastructure de collecte, structuration et annotation des données, et le support à l’entraînement de modèles Vision-Language-Action (VLA).
En fonctionnement, un opérateur guide physiquement un robot « leader » dans l’exécution d’une tâche. Un robot « suiveur » synchronisé reproduit le mouvement en temps réel. Le système enregistre simultanément les trajectoires cinématiques, les signaux de force et de couple et les données visuelles. Ces données sont structurées pour entraîner des modèles capables d’associer perception et action dans des contextes d’automatisation industrielle.
Déploiement et mise en œuvre
La solution est déployée sur des cobots standards utilisés en production, garantissant la cohérence entre les phases d’entraînement et d’exploitation. Elle s’intègre dans des cellules physiques de capture de données, des environnements simulés basés sur NVIDIA Isaac Sim et Omniverse, et des pipelines de données évolutifs pour l’amélioration continue des modèles. La génération de données synthétiques via simulation est également utilisée pour compléter les jeux de données réels.
Applications et cas d’usage
L’application principale démontrée concerne l’emballage automatisé de smartphones, nécessitant coordination et manipulation avec contact. Autres cas d’usage : opérations d’assemblage avec contrôle de force, manipulation de pièces variables, coordination robotique bimanuelle, et préhension adaptative en environnement dynamique. Ces applications reposent sur un apprentissage adaptatif, réduisant le besoin de programmation fixe.
Résultats et impact attendu
Le système met en place une boucle continue d’amélioration basée sur les données collectées en exploitation. Il vise à accroître la fiabilité des données grâce à la capture multimodale synchronisée, réduire la programmation manuelle, et améliorer la transférabilité entre entraînement et production.