Les premiers jours de mise en service des robotaxis de Tesla font déjà remonter de sérieux doutes. Entre des manœuvres hasardeuses, des excès de vitesse et des interventions humaines de dernière seconde, la promesse d’une conduite autonome « sans supervision » paraît encore très lointaine.
Un démarrage qui interroge
Les voitures censées se conduire toutes seules ont montré des limites flagrantes dès leur déploiement limité. Plusieurs séquences tournées par des utilisateurs triés sur le volet soulignent des comportements qui, sur route ouverte, ne pardonnent pas.
L’incident révélateur
Dans une scène particulièrement parlante, un Model Y modifié s’apprête à déposer un passager. En se rangeant, il ignore qu’un camion de livraison recule précisément vers la même place, feux de recul allumés. La collision est évitée non pas par le logiciel, mais par le “safety monitor” humain, qui déclenche en urgence l’arrêt via un bouton de l’interface tactile. Sans ce geste, la voiture aurait vraisemblablement percuté l’arrière du camion.
D’autres écarts troublants
Au-delà de cet épisode, plusieurs vidéos montrent des comportements tout aussi problématiques :
- Direction qui oscille brutalement dans un carrefour, sans raison apparente.
- Franchissement de lignes jaunes continues, pour forcer l’entrée dans une voie de tourne-à-gauche.
- Dépassements de vitesse répétés, dont un passage à environ 27 mph dans une zone limitée à 15 mph.
Ces faits ne sont pas des détails: ce sont des signaux faibles qui, additionnés, dessinent un profil de risque.
Les autorités surveillent de près
Face à ces signalements, l’agence fédérale américaine NHTSA a demandé des informations à Tesla concernant les épisodes qui semblent contrevenir au code de la route. À ce stade, aucune enquête formelle n’a été ouverte. L’autorité précise néanmoins qu’elle prendra « toute mesure nécessaire » pour garantir la sécurité routière en fonction des éléments recueillis.
Un test à très petite échelle… déjà riche en problèmes
Ce qui frappe, c’est l’ampleur des soucis alors que:
- Seules 10 à 20 voitures circulent.
- Le périmètre est géorepéré et restreint, avec des conditions de conduite considérées comme favorables.
- Les passagers sélectionnés sont majoritairement des fans de Tesla, peu enclins à la critique, ce qui laisse imaginer ce qui ne nous est pas montré.
Dans un contexte aussi contrôlé, voir remonter autant d’incidents suppose que la technologie n’est pas prête pour une exposition large au trafic réel, beaucoup plus imprévisible.
Le rôle ambigu des “safety monitors”
La présence d’un opérateur humain est une bonne chose: il rattrape le système quand il se trompe et évite des accidents. Mais cela contredit la promesse d’un robotaxi “sans supervision”. Plus gênant encore, ces interventions humaines peuvent masquer des lacunes structurelles du logiciel en donnant une impression de maturité qui n’est pas reflétée par les performances brutes.
Ce qu’il faut surveiller maintenant
- Plus de transparence sur les taux d’intervention humaine et les erreurs critiques.
- Des données publiques sur les limitations connues (météo, signalisation, angles morts).
- Des tests indépendants hors des zones favorables, avec échantillons d’usagers variés.
- Une stratégie claire de gestion des risques (arrêt en voie, repli sécurisé, responsabilité).
- La réaction des marchés et des partenaires industriels, déjà échaudés par un démarrage en demi-teinte.
En bref
Les robotaxis de Tesla, même en lancement limité, multiplient les alertes: erreurs de perception, entorses au code, besoin d’intervention humaine. Les régulateurs observent, le public s’interroge, et la confiance dépendra désormais de preuves solides, pas de promesses.
FAQ
Qu’est-ce qu’un “safety monitor” et que peut-il faire concrètement ?
C’est un opérateur humain présent à bord, chargé d’intervenir en cas de comportement dangereux. Il peut forcer l’arrêt du véhicule, reprendre la main, ou demander un repli sécurisé. Son rôle est d’éviter qu’un incident logiciel se transforme en accident réel.
Pourquoi les tests se déroulent-ils dans une zone géorepérée ?
Le géorepérage limite l’usage à des routes et conditions mieux cartographiées et plus prévisibles. C’est une étape courante pour réduire l’incertitude (signalisation connue, trafic typique), mais cela ne garantit pas la généralisation à des environnements plus complexes.
Quels indicateurs devraient être publiés pour évaluer la sécurité ?
- Taux d’interventions humaines par 1000 km.
- Nombre d’infractions détectées et leur gravité.
- Temps moyen de détection-réaction face aux obstacles mobiles.
- Fréquence des arrêts en voie et conditions de déclenchement.
- Données sur les conditions limites (nuit, pluie, routes étroites).
Que doit faire un passager si la voiture agit de manière étrange ?
Rester attentif, garder les mains prêtes à intervenir si un dispositif de reprise existe, utiliser le bouton d’arrêt si nécessaire, signaler l’incident via l’application et, si un danger immédiat apparaît, demander un arrêt dans un endroit sûr.
Quelles étapes rapprocheraient vraiment ces robotaxis d’un service fiable ?
Des audits tiers, des essais en conditions mixtes (météo, densité, chantiers), des protocoles d’escalade clairs en cas de panne, et une politique de divulgation des incidents exhaustive et vérifiable par des observateurs indépendants.
