Mobilité

Une Tesla en mode autonome fait une embardée soudaine, quitte la route et s’écrase

Une Tesla en mode autonome fait une embardée soudaine, quitte la route et s’écrase

Une courte vidéo devenue virale montre une Tesla Model 3 roulant avec la fonction Full Self‑Driving (FSD) activée qui quitte brusquement une petite route de campagne, traverse un grillage et finit sur le toit. L’épisode relance le débat sur la sécurité de ce système d’assistance, d’autant que la route semblait ordinaire et sans danger manifeste.

La séquence qui a sidéré les internautes

Dans l’extrait partagé sur Reddit, la voiture suit sa trajectoire, puis, en une fraction de seconde, vire vers l’accotement, accroche une clôture métallique et se renverse. L’écart de trajectoire survient alors qu’un véhicule arrive en sens inverse et que des ombres d’arbres strient la chaussée.

Ce que montrent les images après coup

Les photos publiées par le propriétaire révèlent des airbags déclenchés, des vitres brisées et un grillage arraché. L’habitacle est endommagé, mais la structure a suffisamment tenu pour protéger l’occupant, qui s’en sort avec des blessures limitées.

Ce que l’on sait — et ce qui reste flou

Aucune cause évidente ne saute aux yeux: pas d’obstacle clair, pas d’intempéries. Les ombres marquées sur la route, la présence d’un camion en face et un possible mauvais calcul de trajectoire par le logiciel sont évoqués, sans certitude. Le point incontestable, en revanche, est la soudaineté du mouvement du volant lorsque le système se dérègle.

A lire :  IKEA : Des Idées Étranges et Éblouissantes sur l'Avenir des Véhicules Autonomes

Un système d’assistance au volant toujours sous le feu des critiques

Le FSD est une aide à la conduite controversée. Malgré son nom trompeur, il ne rend pas la voiture autonome: le conducteur doit rester attentif et prêt à reprendre la main à tout moment. Les autorités examinent déjà ce dispositif, associé à de nombreux accidents et à des décès rapportés, ce qui nourrit l’inquiétude du public.

Le témoignage du propriétaire

Le propriétaire, Wally, dit utiliser le FSD dès qu’il le peut. Il a même consulté des vidéos pour optimiser ses réglages et s’en remet souvent au système pour ses trajets quotidiens, heureux de “se détendre” pendant la conduite. Le jour de l’accident, explique-t-il, une voiture a croisé sa voie; juste après, le volant s’est mis à tourner très vite vers le fossé, la voiture a heurté un arbre et s’est retournée. Il dit n’avoir eu aucun temps de réaction. Bilan: une entaille au menton nécessitant sept points de suture. Sa Model 3 était équipée du Hardware 4 et de la dernière version logicielle du FSD.

Les promesses et la réalité

Alors que Tesla annonce le lancement imminent d’un service de robotaxis à Austin (Texas), cet accident rappelle que la technologie n’est pas au niveau d’une conduite véritablement autonome. Même en interne, le responsable d’Autopilot et de l’IA a reconnu que l’entreprise a encore “quelques années” de retard sur Waymo. Tant que des sorties de route peuvent survenir sans danger apparent, l’écart entre les ambitions affichées et la fiabilité opérationnelle demeure préoccupant.

Pourquoi cela inquiète pour les robotaxis

Déployer des véhicules sans conducteur exige un niveau de robustesse élevé dans des conditions variées: marquages au sol dégradés, jeux d’ombres, croisements serrés, trafic local imprévisible. Les incidents comme celui-ci suggèrent que, malgré des progrès visibles, la marge de sécurité nécessaire pour un service commercial à grande échelle n’est pas encore atteinte, au risque d’exposer le public.

A lire :  La Nouvelle Ére de Tesla : Découvrez la Voiture Volante Autonome Model F.

Rappels essentiels pour les conducteurs

  • Le FSD est une assistance de niveau avancé, pas une conduite autonome: gardez vos mains prêtes et vos yeux sur la route.
  • Restez vigilant face aux contextes connus pour perturber les aides: ombres marquées, marquages effacés, bretelles complexes, trafic venant en face.
  • En cas de comportement inattendu, reprenez immédiatement le contrôle et signalez l’incident au constructeur et aux autorités compétentes.

FAQ

Le FSD rend-il la Tesla autonome ?

Non. Le FSD est une aide à la conduite qui automatise certaines actions (direction, accélération, freinage) mais exige une supervision humaine constante. Juridiquement, le conducteur reste responsable.

Sur quelles routes le FSD fonctionne-t-il le mieux ?

Il est généralement plus fiable sur des axes bien balisés et prévisibles (voies rapides, routes avec marquages nets). Les routes de campagne aux marquages irréguliers, aux ombres prononcées et aux accotements étroits augmentent la probabilité d’erreurs.

Que faire après un incident impliquant le FSD ?

  • Reprendre la main et se garer en sécurité.
  • Sauvegarder les images de la Dashcam si disponible.
  • Signaler l’événement via l’app Tesla et, selon la juridiction, auprès de l’autorité de sécurité routière.
  • Contacter son assurance avec un rapport détaillé.

Le fait d’utiliser le FSD change-t-il la couverture d’assurance ?

En général, non: l’assurance couvre l’accident selon le contrat et la responsabilité du conducteur, car l’aide à la conduite ne transfère pas la responsabilité légale. Vérifiez néanmoins les clauses spécifiques à votre police.

Quels signes doivent alerter pour reprendre immédiatement le contrôle ?

  • Tournant du volant inattendu ou trajectoire qui “flotte”.
  • “Freinage fantôme” ou accélérations inappropriées.
  • Confusion apparente face aux ombres, intersections complexes ou voies mal délimitées.
    Dans tous ces cas, intervenez sans délai.
A lire :  La Technologie Autonome des Nouvelles Teslas Rencontre des Défis