Mobilité

Cyberattaque sur Tesla : Des chercheurs déjouent les capteurs de l’Autopilot

Tesla Déploie des Améliorations de son Système Autopilot

Les systèmes trompeurs

Surveillance des véhicules Tesla

Les voitures de Tesla Motors font l’objet d’une attention particulière après plusieurs incidents récents, dont un accident mortel lié au système d’autopilot. Les autorités ont promis d’enquêter sur ces événements, soulevant des doutes sur la fiabilité de cette technologie avancée.

La possibilité d’un sabotage

Mais que se passerait-il si quelqu’un souhaitait délibérément provoquer un accident en utilisant l’autopilot d’une Tesla ? Étonnamment, la réponse est affirmative. Des chercheurs issus de l’Université de Zhejiang, de l’Université de Caroline du Sud et de l’entreprise chinoise de sécurité Qihoo 360 ont démontré qu’ils pouvaient tromper les capteurs d’autopilot de Tesla. Grâce à leurs manœuvres, ils ont réussi à amener les capteurs à détecter des obstacles qui n’existaient pas ou à ignorer de véritables dangers sur leur chemin.

Techniques de tromperie

Attaque des systèmes de détection

Les chercheurs ont ciblé les trois principaux systèmes de détection d’autopilot de Tesla, à savoir le radar, les capteurs ultrasoniques et les caméras. Pour berner le système radar, ils se sont servis de deux équipements radio, dont un générateur de signaux de 90 000 dollars de la société Keysight Technologies. L’objectif était de brouiller les ondes radio, créant ainsi une illusion d’obstacle « invisible » pour le système.

Utilisation de capteurs ultrasoniques

En revanche, la manipulation des capteurs ultrasoniques a été bien plus simple et économique. Ces capteurs sont essentiels pour des fonctionnalités telles que le stationnement automatique. En utilisant un petit générateur et un transducteur, les chercheurs ont pu faire en sorte qu’une Tesla ne se gare pas par crainte d’un obstacle imaginaire, ou qu’elle ignore un obstacle réel pour se garer quand même. Tout cela pour un coût inférieur à 40 dollars.

Limitations des caméras

Pour ce qui est des caméras, néanmoins, leur stratégie n’a pas porté ses fruits. Si les chercheurs ont pu aveugler les caméras, cela a eu pour résultat de désactiver l’autopilot et de rendre le contrôle à l’conducteur.

Conclusion des recherches

Bien que ces tests montrent que la tromperie des systèmes est réalisable, Wenyuan Xu, la chercheuse principale, met en avant les restrictions de telles attaques. « Seules des personnes très motivées et avec des ressources financières suffisantes pourraient réaliser ce type d’opération », observe-t-elle. L’équipe présentera leurs résultats lors de la conférence DEF CON cette année.

FAQ

Quel est le coût approximatif pour effectuer des perturbations sur l’autopilot de Tesla ?

Le coût pour tromper le système peut varier considérablement, mais la manipulation des capteurs ultrasoniques a été réalisée pour moins de 40 dollars.

Ces recherches ont-elles des implications pour la sécurité des voitures autonomes ?

Oui, elles soulignent les vulnérabilités potentielles des systèmes autonomes, ce qui incite les fabricants à améliorer la sécurité.

Qui finance ce genre de recherche ?

Ces études sont souvent financées par des universités et des partenariats avec des entreprises de technologie, intéressées à comprendre et sécuriser les systèmes avancés.

Quelles mesures sont prises pour améliorer la sécurité des véhicules Tesla ?

Tesla travaille constamment sur des mises à jour logicielles pour rester en avance sur les menaces et renforcer la sécurité de ses systèmes d’autopilot.

D’autres voitures ont-elles subi des attaques similaires ?

Des recherches similaires ont été menées sur d’autres marques, mettant en lumière la nécessité d’améliorations dans l’ensemble de l’industrie automobile concernant la sécurité des technologies autonomes.

Quitter la version mobile