FSDestruction Derby
Une Tesla Model Y a subi des dégâts importants après avoir percuté un véhicule arrivant en sens inverse, et ce, alors qu’elle semblait fonctionner avec la fonctionnalité controversée de Conduite Autonome Complète (FSD) active, comme l’a rapporté The Verge.
Un Accident Inquiétant
Cet incident pourrait être le premier accident grave impliquant le système FSD. Heureusement, aucune blessure n’a été enregistrée lors de l’accident. D’après un rapport transmis à la National Highway Traffic Safety Administration (NHTSA) et que The Verge a pu consulter, il semblerait que la Model Y était en mode FSD Beta et qu’elle a glissé dans une mauvaise voie alors qu’elle effectuait un virage à gauche, percutant ainsi un autre automobiliste.
Ce rapport est révélateur des échecs du système.
Signaux d’Alerte Ignorés
Le conducteur impliqué a mentionné que le véhicule a donné une alerte à mi-chemin du virage, mais qu’il a perdu le contrôle. “J’ai tenté de redresser le volant pour éviter de passer dans la mauvaise voie, mais la voiture a pris le contrôle autonome et a forcé la manœuvre, mettant ainsi en danger tous les occupants,” a-t-il déclaré. Malgré cela, la NHTSA n’a toujours pas fait de communication publique concernant cet incident.
Freins d’Urgence Désactivés
La lancement de la version Beta du FSD par Tesla a engendré de nombreuses controverses depuis son introduction il y a plus d’un an. En résumé, le constructeur automobile utilise sa base d’utilisateurs enthousiaste pour tester un logiciel de conduite autonome avancé, qui n’est pas encore totalement au point, sur les routes publiques.
Problèmes Répétitifs
De nombreux propriétaires ont fait état de dysfonctionnements de leur système, variant des freins d’urgence désactivés aux alertes de collision erronées, ce qui met la pression sur l’entreprise. Ces complications ont mené Tesla à revenir sur une mise à jour de logiciel et à proposer un rappel exceptionnel à la NHTSA le mois dernier.
En somme, le FSD ne permet pas réellement aux Tesla de conduire sans intervention humaine, contrairement à ce que son nom pourrait laisser penser, et les régulateurs surveillent de près les actions de Tesla concernant ce produit.
Avec une attention accrue de la NHTSA sur l’entreprise dirigée par Elon Musk, la pression sur Tesla atteint des sommets. Il semblerait que les problèmes s’accumulent.
À LIRE AUSSI : Tesla véhicule en mode ‘Conduite Autonome Complète’ gravement endommagé après un accident en Californie [The Verge]
Plus d’informations sur FSD : Mise à jour de Tesla Autopilot provoque un comportement dangereux des voitures.
FAQ
Qu’est-ce que le FSD ?
Le FSD ou Conduite Autonome Complète est un système développé par Tesla qui vise à permettre à ses véhicules de circuler sans intervention humaine, bien qu’il nécessite encore une attention du conducteur.
Quels sont les risques associés au FSD ?
Des rapports ont signalé des incidents tels que des freinages d’urgence désactivés ou des comportements imprévisibles des véhicules, ce qui met en danger les conducteurs et autres usagers de la route.
La NHTSA a-t-elle déjà pris des mesures contre Tesla ?
Oui, la NHTSA a demandé des rappels et a surveillé de près les mises à jour et comportements du logiciel FSD.
Quelles sont les alternatives au FSD ?
D’autres constructeurs automobiles travaillent également sur des technologies de conduite autonome, mais avec des logiciels qui ont été plus largement testés et approuvés par des organismes de réglementation.
Les conducteurs sont-ils responsables en cas d’accident avec le FSD ?
En général, la responsabilité est souvent partagée entre le conducteur et le constructeur. Les lois sur les accidents impliquant des systèmes autonomes sont encore en développement.
