Mobilité

Près de trois millions de Tesla à conduite autonome visées par une enquête pour infractions routières et accidents

Près de trois millions de Tesla à conduite autonome visées par une enquête pour infractions routières et accidents

Les autorités américaines examinent de près les aides à la conduite de Tesla. Encore une fois, la sécurité de la fonction Full Self‑Driving (FSD) est mise en cause après une série de signalements et d’accidents.

Une nouvelle enquête fédérale d’ampleur

L’Administration nationale de la sécurité routière (NHTSA) a ouvert une enquête visant environ 2,88 millions de véhicules Tesla équipés de FSD. Le déclencheur: des rapports décrivant des voitures qui ignorent des règles de circulation et finissent par provoquer des collisions. Le nom même de la fonction — « Full Self‑Driving » — prête à confusion, car il ne s’agit pas d’une conduite totalement autonome et le système exige une surveillance humaine constante.

Pourquoi cela compte

  • Une enquête de la NHTSA peut déboucher sur un rappel logiciel ou matériel si un risque pour la sécurité est établi.
  • L’ampleur (presque trois millions de véhicules) suggère un possible impact à grande échelle sur la flotte américaine de Tesla.

Des comportements dangereux signalés

Les régulateurs ont reçu au moins 58 signalements de comportements irréguliers imputés à FSD, dont 14 accidents et 23 blessés. Un motif revient souvent: le franchissement d’intersections de manière dangereuse.

  • Dans au moins six cas, des véhicules auraient poursuivi leur route malgré un feu rouge, entrant en conflit avec d’autres voitures.
  • Un conducteur de Houston a rapporté en 2024 que son véhicule « ne reconnaissait pas correctement les feux tricolores », grillant des rouges et s’arrêtant à des verts. Il affirme que Tesla n’a pas reconnu le problème malgré un essai réalisé avec lui.
A lire :  Les voitures : des espions invisibles à nos trousses.

Ce que cela dit du système

Ces incidents laissent penser que FSD peut mal interpréter certains signaux de circulation, notamment dans des environnements complexes comme les carrefours, où la lecture du contexte et la priorité sont essentielles.

Passages à niveau: un point noir

Autre sujet d’inquiétude examiné par la NHTSA: le comportement du logiciel près des voies ferrées. Des rapports évoquent des trajectoires aberrantes à proximité des passages à niveau, jusqu’à des prises de risque face à des trains approchants. Ces scénarios exigent une perception très fiable des lignes, signaux et obstacles; toute erreur peut avoir des conséquences graves.

Un historique déjà chargé de litiges et d’enquêtes

Les déboires ne se limitent pas à FSD. Le système Autopilot, plus ancien et officiellement moins ambitieux, fait lui aussi l’objet d’une enquête au long cours. En août, un jury a condamné Tesla à verser environ 329 millions de dollars après un accident mortel impliquant un véhicule en Autopilot, estimant l’entreprise partiellement responsable.

Parallèlement, une autre enquête sur FSD lancée l’automne dernier s’intéresse à des collisions survenues dans de mauvaises conditions de visibilité. Dans un cas marquant, l’éblouissement solaire aurait masqué la caméra embarquée avant que la voiture ne percute une piétonne âgée, qui a succombé à ses blessures.

Le Robotaxi mis à l’épreuve

Le service Robotaxi de Tesla, déployé à très petite échelle à Austin, a rapidement retenu l’attention des autorités. Des vidéos de passagers montrent des taxis sans conducteur roulant au‑delà des limites de vitesse et adoptant une conduite irrégulière. Malgré la présence d’un opérateur de sécurité assis à l’avant, ces scènes alimentent les doutes sur la maturité réelle de la technologie.

A lire :  La Chine crée le train le plus rapide du monde, mais sans rails pour l'accueillir.

Une polémique sur l’intitulé « Full Self‑Driving »

Les autorités de Californie poursuivent Tesla pour publicité trompeuse. Motif: le nom Full Self‑Driving laisserait penser à une autonomie totale alors qu’en pratique, le système nécessite une vigilance permanente du conducteur pour éviter des erreurs potentiellement dangereuses. Face aux critiques, Tesla a ajouté l’étiquette « (Supervised) » à l’appellation officielle l’an dernier. Les déclarations d’Elon Musk, vantant des voitures capables de « se conduire seules » et promettant une autonomie « imminente », nourrissent également la controverse.

Et maintenant ?

L’enquête actuelle de la NHTSA est au stade préliminaire. Si les autorités concluent à un risque de sécurité, un rappel — possiblement via une mise à jour logicielle — pourrait suivre. En attendant, les conducteurs doivent:

  • garder les mains sur le volant et les yeux sur la route;
  • respecter strictement les limitations et les signalisations;
  • signaler tout comportement anormal aux autorités et à Tesla.

L’enjeu est clair: prouver que l’assistance à la conduite peut être déployée à grande échelle sans mettre les usagers en danger.

FAQ

Qu’est‑ce que la NHTSA et que peut‑elle imposer à un constructeur ?

La NHTSA est l’agence fédérale chargée de la sécurité routière aux États‑Unis. Elle peut ouvrir des enquêtes, exiger des correctifs, imposer des rappels et infliger des amendes si des défauts de sécurité sont confirmés.

En quoi FSD diffère‑t‑il d’Autopilot ?

Autopilot regroupe des aides avancées (centrage dans la voie, régulateur adaptatif). FSD ajoute des fonctions plus ambitieuses (manœuvres en ville, gestion d’intersections). Dans les deux cas, Tesla exige une surveillance active du conducteur: ce ne sont pas des systèmes entièrement autonomes.

A lire :  Tesla Face à la Chute des Ventes : Un Mega Bonus en Discussion pour Elon Musk

Comment un conducteur peut‑il réduire les risques en utilisant FSD ?

  • Garder une prise ferme sur le volant et rester prêt à reprendre la main.
  • Désactiver l’assistance en cas de météo difficile ou de signalisation complexe.
  • Mettre à jour régulièrement le logiciel du véhicule.
  • Signaler rapidement tout incident au constructeur et aux autorités.

Quel est le processus typique d’une enquête de la NHTSA ?

L’agence collecte des plaintes, analyse les données et peut demander des informations détaillées au constructeur. Elle décide ensuite s’il faut classer l’affaire, émettre des recommandations ou imposer un rappel.

Les Robotaxis de Tesla roulent‑ils vraiment sans conducteur ?

Le service est limité et, à ce stade, des opérateurs de sécurité sont présents à bord. La conduite entièrement sans intervention humaine à grande échelle n’est pas encore démontrée dans des conditions variées du monde réel.