Un incident surprenant avec le système Autopilot
Un propriétaire d’une Tesla Model 3 a rencontré un problème inattendu alors qu’il utilisait le système de conduite assistée Autopilot sur l’autoroute. Il a constaté que son véhicule semblait détecter une succession interminable de feux tricolores pendant qu’il roulait à plus de 130 km/h.
Dans une vidéo partagée sur Reddit, montrant l’affichage du véhicule, on peut voir que des feux apparaissent à partir du camion devant lui, donnant l’impression que le trajet ressemble à un véritable jeu vidéo de genre “bullet hell“. Ce phénomène visuel a intrigué de nombreux internautes.
Après plusieurs discussions sur Reddit, le conducteur a publié une vidéo complémentaire révélant qu’il était en fait derrière un camion transportant des feux tricolores désactivés. Bien que ce soit un bug amusant, il soulève des interrogations sur la difficulté de préparer les systèmes de conduite autonome aux situations complexes qu’ils peuvent rencontrer sur la route.
La sécurité avant tout
D’un côté, c’est positif que le système de conduite assistée ait pu reconnaîître à plusieurs reprises qu’il était face à des feux tricolores. De plus, la voiture n’a pas tenté de freiner brusquement, ce qui aurait pu causer des accidents dangereux.
Cependant, ce n’est pas la première fois qu’une Tesla présente un tel incident. On se souvient d’un cas similaire, où une Tesla a confondu un panneau de stop affiché sur un panneau publicitaire avec un vrai panneau. Cela montre que le système a encore des limites, car il n’a pas réussi à comprendre que les lumières n’étaient pas des signaux routiers, mais plutôt des objets de transport.
Max Little, un mathématicien de l’Université de Birmingham et du MIT, a commenté ce problème sur Twitter en disant que ce scénario n’était probablement pas inclus dans les données de formation du système. Il souligne que cela démontre à quel point il sera peut-être impossible d’atteindre une véritable autonomie de conduite juste en accumulant “plus de données”.
Autres informations sur Autopilot
Tesla a reconnu que les capacités d’Autopilot ont souvent été exagérées par son PDG, Elon Musk. Ce lapsus met en lumière les défis à surmonter pour améliorer la sécurité et la fiabilité de tels systèmes.
FAQ
Quelle est la signification du terme “bullet hell” ?
Le terme “bullet hell” désigne un sous-genre de jeux vidéo d’arcade où le joueur doit éviter un grand nombre de projectiles ennemis, souvent de manière rapide et frénétique.
Tesla est-elle prête pour une conduite totalement autonome ?
Bien qu’il y ait des avancées, les récents incidents montrent que Tesla n’est pas encore prête à atteindre le niveau d’autonomie complet promis, en raison de leur incapacité à interpréter certaines situations sur la route.
Quelles mesures sont prises pour améliorer les systèmes de conduite autonome ?
Les fabricants, dont Tesla, travaillent sur des algorithmes d’apprentissage machine et collectent continuellement des données pour mieux gérer les cas particuliers qui peuvent survenir lors de la conduite.
Y a-t-il eu d’autres cas similaires à celui-ci ?
Oui, des incidents où des véhicules autonomes commettent des erreurs de perception ont déjà été rapportés, notamment des confusions entre panneaux de signalisation et publicités.
Comment les conducteurs peuvent-ils se protéger lorsque leur voiture utilise l’Autopilot ?
Il est conseillé de rester attentif et prêt à intervenir à tout moment, même lorsque le système de conduite assistée est actif, car ces systèmes ne sont pas encore infaillibles.
