complètement indépendants d’un point de vue éditorial. Nous pourrions gagner de l’argent lorsque vous cliquez sur des liens vers nos partenaires.
En savoir plus
Collaboration entre Google DeepMind et Boston Dynamics
Google DeepMind s’est associée à Boston Dynamics pour améliorer Spot, le célèbre robot à quatre pattes de couleur jaune, en lui conférant une nouvelle intelligence. Grâce à l’intégration du modèle Gemini Robotics-ER 1.6 dans Spot, les deux entreprises quittent les scripts préprogrammés pour s’orienter vers un “raisonnement incarne”, permettant au robot de comprendre de manière autonome comment se comporter face à une pièce en désordre ou un environnement industriel complexe.
Un nouveau modèle avec des capacités avancées
Le modèle proposé par Google DeepMind est conçu comme un système de “raisonnement prioritaire”. Cela signifie que les robots peuvent désormais naviguer dans des installations physiques et interpréter des données concrètes, telles que la lecture d’une aiguille sur un manomètre, ce qui crée un lien entre l’intelligence artificielle numérique et l’action physique.
Vision agentique et interaction améliorée
L’une des avancées les plus notables de ce développement est la vision agentique. Spot a désormais la capacité de se concentrer sur des détails précis, d’estimer des dimensions à l’aide de codes, et d’appliquer des connaissances du monde réel à ce qu’il observe. Cette compétence est particulièrement précieuse lors des inspections industrielles où il doit surveiller des indicateurs analogiques ou vérifier si un dispositif de visualisation chimique est plein.
Marco da Silva, VP et GM de Spot chez Boston Dynamics, a affirmé : « Des capacités telles que la lecture d’instruments et un raisonnement plus fiable permettront à Spot de voir, comprendre et répondre aux défis du monde réel de manière entièrement autonome. »
Raisonner de manière transparente
Un autre ajout important est le concept de “Raisonnement Transparent”. Pour la première fois, les utilisateurs peuvent comprendre les raisons derrière les décisions prises par le robot, ce qui rend l’intelligence artificielle moins opaque et plus accessible.
Diversification des tâches
Bien que l’accent soit mis sur les industries lourdes, Spot a démontré récemment des compétences plus « humaines ». Lors d’une démonstration, le robot a été vu en train de lire une liste de courses manuscrite, d’organiser des chaussures et même de promener un vrai chien avec une laisse.
Assurer la sécurité et combler le fossé sensoriel
Google a également intégré une norme de sécurité, nommée ASIMOV, pour éviter que le robot commette des erreurs dangereuses, comme poser un verre d’eau trop près du bord d’une table. Cependant, un défi majeur demeure : le toucher. La plupart des modèles d’IA sont formés sur des données Internet, riches en images et en textes, mais pauvres en informations sur la sensation tactile. En conséquence, Spot dépend presque exclusivement de ses caméras pour interagir avec des objets.
Disponibilité de la technologie
Le modèle Gemini Robotics-ER 1.6 est maintenant accessible aux développeurs via l’API Gemini et Google AI Studio. Google DeepMind a également mis à disposition un Colab pour les développeurs, fournissant des exemples de configuration du modèle et d’exécution de tâches de raisonnement incarné.
Pour les clients de Boston Dynamics, la transition vers le modèle AIVI-Learning alimenté par Gemini est officiellement active pour tous les clients inscrits depuis le 8 avril 2026.
FAQ
Que signifie le “raisonnement incarne” pour le robot Spot ?
Le raisonnement incarné permet à Spot de prendre des décisions basées sur l’observation de son environnement, plutôt que sur des instructions préprogrammées.
Quels types de tâches Spot peut-il accomplir maintenant ?
Spot est capable d’effectuer des tâches variées allant de la surveillance de systèmes industriels à des activités plus humaines, comme la lecture de listes ou le rangement.
Comment fonctionne la norme de sécurité ASIMOV ?
ASIMOV évalue les actions du robot pour minimiser les risques d’erreurs pouvant entraîner des incidents dangereux, comme un mouvement inapproprié près d’objets fragiles.
En quoi la vision agentique change-t-elle les capacités de Spot ?
La vision agentique permet à Spot de se concentrer sur des détails spécifiques et d’appliquer des connaissances contextuelles à ce qu’il voit, rendant son interaction avec l’environnement plus précise.
Quand les développeurs peuvent-ils commencer à utiliser Gemini Robotics-ER 1.6 ?
Les développeurs peuvent accéder immédiatement à Gemini Robotics-ER 1.6 en utilisant l’API Gemini et Google AI Studio.
