Intelligence Artificielle

Texas Instruments et Nvidia Améliorent la Vision des Robots Humanoïdes

Texas Instruments et Nvidia Améliorent la Vision des Robots Humanoïdes
Le contenu et les recommandations de produits d’ADGO.ca sont totalement indépendants. Nous pouvons générer des revenus lorsque vous cliquez sur les liens de nos partenaires.

Une collaboration pour la robotique humanoïde

Texas Instruments (TI) et Nvidia unissent leurs forces pour développer un système de fusion de capteurs visant à augmenter la sécurité et la fiabilité des robots humanoïdes en dehors des environnements de laboratoire. L’idée est simple : associer la technologie radar à des capacités de calcul d’intelligence artificielle pour permettre aux robots de mieux détecter des obstacles que les caméras ne peuvent pas toujours repérer, surtout dans des contextes du monde réel complexes.

Défis de la robotique

L’un des principaux défis en robotique réside dans la capacité des robots à se déplacer en toute sécurité autour des gens, des meubles, des surfaces réfléchissantes, de la poussière et de l’éblouissement. Bien que les robots humanoïdes puissent paraître impressionnants lors des démonstrations, leur déploiement réel dépend de systèmes de perception capables de gérer des environnements peu coopératifs.

Créer une architecture robotique sécurisée

La collaboration entre TI et Nvidia est orientée vers l’aide aux développeurs de robots pour valider plus tôt dans le processus de développement les aspects liés à la perception, à l’activation et à la sécurité. Au lieu de présenter cette innovation comme une solution miracle à tous les problèmes des robots humanoïdes, les entreprises la présentent comme une méthode permettant de réduire l’écart entre la simulation et le déploiement réel.

A lire :  Meta se prépare à lancer de nouveaux modèles d'IA dirigés par Alexandr Wang.

Dans une récente annonce, TI a déclaré avoir intégré sa technologie radar mmWave avec Nvidia Jetson Thor et Nvidia Holoscan. Cela vise à fournir une perception 3D à faible latence et une sensibilisation à la sécurité pour les applications d’IA physique. TI apporte des éléments tels que la détection, le contrôle moteur, l’alimentation et le contrôle déterministe, tandis que Nvidia se concentre sur le calcul en IA et la plateforme robotique.

Vers des progrès en robotique humanoïde

Cette alliance signale également une direction pour l’avenir des robots humanoïdes. Plutôt que de traiter la perception, le calcul et le mouvement comme des problèmes d’ingénierie distincts, cette coopération s’oriente vers une approche plus intégrée, adéquate pour des tests en conditions réelles dès les premières étapes de développement. Cela ne signifie pas pour autant que la sécurité dans cette industrie est entièrement résolue, mais cela témoigne d’une volonté des fabricants de puces de traiter ces problèmes de manière systémique.

Avantages du radar par rapport aux caméras

L’un des aspects pratiques de cette annonce réside dans la fusion radar-caméra mise en avant par TI. Les caméras, bien qu’excellentes pour capturer des détails visuels, rencontrent des difficultés dans des conditions spécifiques comme l’éblouissement, un faible éclairage, le brouillard ou la présence de surfaces réfléchissantes. L’utilisation du radar apporte une nouvelle couche de connaissance environnementale, comblant ainsi certains angles morts.

TI a mis en lumière des obstacles tels que des portes vitrées et des surfaces réfléchissantes, indiquant que le radar peut fournir une détection plus uniforme dans des environnements comme les bureaux, les hôpitaux, les magasins de détail et les entrepôts, où un obstacle manqué peut poser des problèmes de sécurité majeurs.

A lire :  OpenAI se met Hollywood à dos : un sérieux faux pas

Perspectives et prochaines étapes

Le prochain test de cette technologie sera réalisé lors de l’événement Nvidia GTC 2026 à San Jose, où les entreprises prévoient de montrer le fonctionnement pratique du système entre le 16 et le 19 mars. Cette démonstration devrait offrir des indices précieux sur l’amélioration de la capacité des robots à percevoir leur environnement grâce à la fusion des données radar et caméra.

Il est essentiel de voir cela comme une première étape qui permet d’apporter des améliorations significatives. Dans un domaine où les robots échouent souvent à gérer des situations ordinaires, enseigner aux machines à discerner des éléments problématiques pourrait représenter une avancée majeure.

FAQ

Quels types de robots peuvent bénéficier de cette technologie ?

Cette technologie est conçue principalement pour les robots humanoïdes, mais elle pourrait également être adaptée à d’autres types de robots utilisés dans des environnements complexes.

Comment fonctionne la fusion radar-caméra ?

La fusion radar-caméra combine des données provenant d’appareils radar et de caméras afin d’améliorer la perception de l’environnement, en utilisant les forces de chaque technologie pour compenser les limites de l’autre.

Quel impact cela aura-t-il sur l’industrie de la robotique ?

L’intégration de la technologie de fusion pourrait rendre les robots plus sûrs et plus efficaces dans des environnements variés, ce qui pourrait propulser leur adoption dans des secteurs comme la santé et la vente au détail.

Quand les développements seront-ils disponibles sur le marché ?

Bien qu’aucune date de sortie précise n’ait été annoncée, les progrès réalisés durant les démonstrations de Mars pourraient indiquer un lancement potentiel dans un futur proche.

A lire :  Zuckerberg Doit Offrir des Rémunérations Incroyables pour Attirer des Talents.

Qui sont les principaux concurrents de TI et Nvidia dans ce domaine ?

D’autres entreprises de haute technologie, y compris Intel et Qualcomm, sont également actives sur le marché de la robotique en intégrant l’IA et le traitement de capteurs.