Mobilité

Homme en Détresse : Sa Tesla Autonome Tente de Lui Frapper sur l’Autoroute

Homme en Détresse : Sa Tesla Autonome Tente de Lui Frapper sur l'Autoroute

Une Expérience Dangeureuse avec le Full Self-Driving

Fred Lambert, rédacteur en chef du blog consacré aux véhicules électriques Electrek et passionné de Tesla, a récemment partagé une expérience particulièrement alarmante. Alors qu’il conduisait sa Tesla Model 3, il affirme que le système de conduite autonome, connu sous le nom de Full Self-Driving (FSD), a “essayé de le tuer”. Selon lui, si l’intervention n’avait pas eu lieu à temps, il aurait pu se retrouver dans un accrochage à grande vitesse sur l’autoroute.

Un Voyage de Montréal qui tourne mal

Le parcours de Lambert vers Montréal semblait suivre son cours normal. Il a activé FSD et maintenu une vitesse constante de 73 miles par heure. Cependant, les choses ont pris une tournure dramatique lorsque sa Tesla a tenté de doubler un autre véhicule. “À ce moment-là, FSD Beta a commencé à se déporter vers la gauche, en direction de la glissière de sécurité,” a-t-il raconté.

Heureusement, en gardant les mains sur le volant – une précaution que certains conducteurs négligent – il a pu redresser le véhicule. “C’était vraiment effrayant,” a-t-il ajouté, “car j’ai failli perdre le contrôle en corrigeant le système.”

Alors qu’il doublait un autre véhicule, il aurait pu provoquer un accident s’il avait trop corrigé sa direction. Malgré l’incident, Lambert a pris la décision risquée de réactiver FSD peu après, reproduisant ainsi l’erreur quelques instants plus tard.

Une Répétition de l’Incident

Lorsqu’il a tenté une nouvelle fois de se réengager dans la voie de gauche avec FSD actif, le logiciel a une fois de plus dévié vers la médiane, essayant même d’emprunter un demi-tour non marqué, réservé aux véhicules d’urgence, à pleine vitesse. Par chance, Lambert a réussi à reprendre le contrôle à temps. Cet incident aurait pu avoir des conséquences catastrophiques.

Des Anciens Problèmes Ravivés

Lambert met en lumière un problème que certains pourraient considérer comme une régression : le système Autopilot avait autrefois tendance à dévier sans avertir vers des sorties sur l’autoroute, une erreur qu’il pensait résolue depuis longtemps. “Au début, il essayait de prendre des sorties imprévues, mais Tesla avait corrigé cela il y a un certain temps,” explique-t-il. “Cela ne m’est pas arrivé depuis des années.”

Suite à l’incident, il a soumis un rapport de bogue à Tesla, exprimant ses préoccupations : “Autopilot vient de tenter de me tuer, alors s’il vous plaît, corrigez cela.” Lambert soupçonne que ce problème provienne des dernières mises à jour de FSD, qu’il qualifie de “nouveau bogue agressif”.

Une Technologie à Revoir

Cette situation soulève des questions sérieuses sur la sécurité de cette technologie. Alors que Tesla a dû annuler des mises à jour antérieures à l’origine d’accidents, il serait peut-être temps de se demander si cette technologie est assez sécurisée pour être utilisée sur des routes publiques. Selon Lambert, le monde ne devrait pas devenir un terrain de jeu pour les versions beta des fonctionnalités de Tesla.

Ces préoccupations résonnent avec les récentes actions des autorités. Le Département de la Justice des États-Unis a démarré une enquête sur les pratiques de marketing trompeuses de Tesla concernant Autopilot, et la Californie a commencé à limiter l’utilisation de l’expression “Full Self-Driving.” De leur côté, les autorités de la sécurité routière se penchent également sur un mode “Elon” pour Autopilot jugé dangereux.

Pour conclure, Lambert offre un conseil aux usagers, suggérant d’utiliser FSD uniquement “comme prévu”, tout en soulignant qu’il pourrait être plus sage de s’en passer complètement.

FAQ

Qu’est-ce que le Full Self-Driving (FSD) de Tesla ?

Le Full Self-Driving est un système d’assistance à la conduite proposé par Tesla, utilisant des capteurs et des algorithmes pour permettre à la voiture de naviguer sans intervention du conducteur.

Quels sont les principaux risques associés à l’utilisation de FSD ?

Les principaux risques incluent des erreurs de navigation, comme des dérives vers des voies inappropriées, et la possibilité d’accidents graves si le conducteur ne reprend pas le contrôle à temps.

Que faire si l’on rencontre un problème avec FSD ?

Il est conseillé de contacter Tesla pour signaler le problème et de ne pas hésiter à soumettre un rapport de bogue pour contribuer à l’amélioration des systèmes.

Quelles mesures prennent les autorités face aux préoccupations sur la sécurité de FSD ?

Les autorités, comme le Département de la Justice et la National Highway Traffic Safety Administration, mènent des enquêtes sur le marketing et la sécurité des systèmes d’assistance à la conduite de Tesla.

Est-ce que tous les utilisateurs de Tesla rencontrent ce type de problèmes ?

Non, les expériences varient d’un utilisateur à l’autre, mais des incidents similaires ont été rapportés, suscitant des inquiétudes sur la fiabilité du système.

Quitter la version mobile