Une Tesla Model Y en mode bêta « Full Self-Driving » (FSD) se serait écrasé le 3 novembre à Brea, une ville au sud-est de Los Angeles, marquant ce qui est probablement le premier incident impliquant le fonction d'assistance au conducteur controversée de l'entreprise. Personne n'a été blessé dans l'accident, mais le véhicule aurait été “gravement endommagé”.
L'accident a été signalé à la National Highway Traffic Safety Administration, qui mène plusieurs enquêtes qui se chevauchent sur le système de pilote automatique de Tesla. Le rapport d'incident semble avoir été rédigé par le propriétaire du modèle Y. Un porte-parole de la NHTSA n'a pas immédiatement répondu à une demande de commentaire.
Selon le rapport :
Le véhicule était en mode bêta FSD et en tournant à gauche, la voiture est allée dans la mauvaise voie et j'ai été heurté par un autre conducteur dans la voie à côté de ma voie. la voiture a donné une alerte à mi-parcours du virage, j'ai donc essayé de tourner le volant pour l'éviter d'entrer dans la mauvaise voie, mais la voiture a pris le contrôle d'elle-même et s'est forcée dans la mauvaise voie, créant une manœuvre dangereuse mettant tout le monde impliqué à risque. la voiture est gravement endommagée du côté conducteur.
La décision de Tesla de tester son logiciel d'aide à la conduite « Full Self Driving » avec des propriétaires de véhicules non formés sur la voie publique a attiré un nombre considérable d'examen et de critique. Tout au long, la société a déployé – et rétracté – plusieurs mises à jour logicielles destinées à mettre à niveau le système tout en corrigeant les bogues du logiciel.
De nombreux clips vidéo mis en ligne en ligne montrent des propriétaires de Tesla utilisant la version bêta de FSD, avec plus ou moins de succès. Certains clips montrent le système d'aide à la conduite gérant avec confiance des scénarios de conduite complexes, tandis que d'autres montrent la voiture dérivant dans la mauvaise voie ou commettant d'autres erreurs graves.
Malgré son nom, FSD n'est pas un système de conduite autonome
Malgré son nom, FSD n'est pas un système de conduite autonome. Les conducteurs sont tenus de rester vigilants, de garder les yeux sur la route et les mains sur le volant. Les véhicules dotés de systèmes de conduite hautement automatisés qui nécessitent encore une surveillance humaine sont classés au niveau 2 dans la taxonomie de la Society of Automotive Engineers. (Le niveau 5 décrit un véhicule qui peut conduire n'importe où, dans n'importe quelles conditions, sans aucune surveillance humaine.)
Le gouvernement américain a renouvelé son intérêt pour Tesla, annonçant récemment qu'il enquêtait incidents impliquant des voitures Tesla utilisant le pilote automatique qui se sont écrasées sur des véhicules d'urgence garés.
La NHTSA recherche également plus d'informations auprès de Tesla sur le test bêta public croissant de FSD, le « Safety Score » récemment lancé processus d'évaluation pour entrer dans le programme, et les accords de non-divulgation que Tesla obligeait les participants à s'inscrire jusqu'à récemment.
Un porte-parole de Tesla n'a pas répondu à une demande de commentaire – il n'est pas probable qu'ils après avoir dissous leur service de presse en 2019.