Après plus d’une décennie de promesses autour de véritables voitures autonomes, Tesla n’a toujours pas tenu son calendrier. Le lancement de ses robotaxis, annoncé puis repoussé, illustre un décalage persistant entre l’ambition affichée et la réalité sur la route.
Un lancement encore repoussé à Austin
- Prévu un temps pour la mi‑juin, le déploiement officiel des robotaxis Tesla à Austin (Texas) est désormais évoqué pour le 22 ou le 28 juin, sans date arrêtée.
- Cette incertitude s’ajoute à une longue série de reports, alors que l’intérêt du public pour Tesla semble s’effriter.
- L’objectif affiché reste de montrer des véhicules réellement capables de se déplacer seuls en conditions réelles, mais la démonstration tarde.
Une démonstration qui relance les inquiétudes
- Un test en conditions réelles, organisé à Austin par le Dawn Project (fondé par l’entrepreneur Dan O’Dowd), a voulu mettre en lumière un risque précis: la réaction d’une Tesla en mode « conduite autonome » face à un bus scolaire à l’arrêt.
- Dans cette mise en scène médiatique, la voiture ne ralentit pas suffisamment au niveau du bus dont le panneau d’arrêt clignote, et un mannequin d’enfant traversant soudainement est percuté avant que le véhicule ne s’immobilise quelques mètres plus loin.
- Les organisateurs estiment que ce comportement montre une faille critique du logiciel actuel. Ils affirment avoir alerté les autorités et publicités à l’appui, sans constater de correction notable de la part du constructeur.
Des incidents réels qui alimentent le débat
- Au‑delà des démonstrations, des accidents impliquant des Tesla utilisant des fonctions d’aide à la conduite ont été relevés. En Caroline du Nord en 2023, un élève a été heurté en descendant d’un bus scolaire; il a été grièvement blessé.
- Pour Dan O’Dowd, ce type d’événement prouve que le problème persiste et qu’une action réglementaire plus ferme serait nécessaire. Tesla, de son côté, met régulièrement à jour ses logiciels, mais ne commente pas systématiquement chaque cas.
Comparaison avec d’autres acteurs
- Le Dawn Project présente Tesla comme un cas à part parmi les entreprises visant la conduite sans conducteur. Waymo, souvent cité pour comparaison, a lui aussi connu des manœuvres contestées et des collisions.
- Les données publiques indiquent que des véhicules Waymo ont été impliqués dans plusieurs centaines d’accidents depuis 2021, avec un décès signalé à ce jour. Les Tesla apparaissent dans un volume d’incidents bien plus important, avec des centaines de morts recensées par des bases indépendantes.
- Important: être « impliqué » ne signifie pas être automatiquement « responsable ». Les méthodologies de comptage diffèrent, et toutes les collisions ne sont pas équivalentes. La comparaison brute demande donc prudence.
Une campagne de pression qui s’intensifie
- Le Dawn Project multiplie les actions de sensibilisation (publicités, démonstrations, partenariats militants comme « Tesla Takedown ») pour réclamer davantage de sécurité et de transparence.
- Dan O’Dowd affirme qu’il poursuit ces efforts tant que le cadre réglementaire et les produits ne garantissent pas, selon lui, un niveau de sûreté acceptable pour les usagers et les piétons.
- Il ajoute ne pas spéculer à la baisse sur Tesla, jugeant Elon Musk capable d’influencer le récit et la perception du marché.
Le véritable enjeu: confiance et responsabilité
- Le contraste entre la promesse de robotaxis et les capacités actuelles soulève une question de confiance: que recouvrent exactement les termes « conduite autonome » et « sans conducteur » pour le grand public?
- Aux États‑Unis, la NHTSA et les autorités locales peuvent enquêter et exiger des rappels logiciels. Les décisions à venir, à Austin et ailleurs, pèseront sur la vitesse d’adoption et sur la crédibilité de tout l’écosystème des véhicules automatisés.
- En attendant des preuves plus robustes et des validations indépendantes, beaucoup rappellent que ces systèmes exigent encore une vigilance humaine constante, notamment près des bus scolaires et des zones à risque.
FAQ
Que veut dire « robotaxi » au juste ?
Un robotaxi est un véhicule censé assurer des trajets sans conducteur humain actif, souvent dans un périmètre défini. La plupart des services réellement opérationnels fonctionnent en zones limitées et avec des conditions encadrées. Les fonctions « Autopilot » ou « Full Self‑Driving » actuelles de Tesla restent des assistances à la conduite qui demandent l’attention du conducteur.
Qui autorise ces services sur la route ?
Selon l’État, des permis spécifiques sont requis pour tester et opérer des véhicules sans conducteur. Au niveau fédéral, la NHTSA peut enquêter sur les systèmes d’aide à la conduite et imposer des rappels. Les villes et États fixent aussi des règles locales (zones d’essai, horaires, conditions de sécurité).
Comment rester prudent avec une aide à la conduite ?
Garder les mains prêtes à reprendre le volant, surveiller la route en permanence, respecter strictement les lois locales (arrêt obligatoire près des bus scolaires), et désactiver l’assistance si la situation devient complexe. Les mises à jour logicielles doivent être installées rapidement, mais elles ne remplacent pas la vigilance.
Les tests avec mannequins sont‑ils fiables ?
Ils illustrent des scénarios critiques, mais leurs résultats dépendent de nombreux paramètres: version logicielle, configuration, météo, signalisation, calibration des capteurs. Des évaluations indépendantes et répétées, selon des protocoles normalisés, sont nécessaires pour conclure.
Qu’est‑ce qui ferait réellement progresser la sécurité ?
Une transparence accrue sur les performances, des audits tiers, des déploiements d’abord géorestreints, un meilleur accès aux « boîtes noires » des véhicules, et une communication claire évitant la confusion entre assistance et autonomie réelle.
