Logo Zéphyrnet

Tesla Full Self-Driving ne parvient pas à remarquer les objets de la taille d'un enfant lors des tests

Date :

La dernière version de la version bêta de Full Self-Driving (FSD) de Tesla a un petit problème : elle ne semble pas remarquer d'objets de la taille d'un enfant sur son chemin, selon un groupe de campagne.

Lors de tests effectués par The Dawn Project à l'aide d'un Tesla Model 3 équipé de la version FSD 10.12.2 (la dernière, publiée le 1er juin), le véhicule a reçu 120 mètres (110 mètres) de voie droite entre deux rangées de cônes avec un enfant- mannequin de taille à la fin.

Le groupe affirme que "les mains du pilote d'essai n'ont jamais été sur le volant". Fondamentalement, Tesla dit que même le FSD n'est pas un système entièrement autonome : c'est un programme de super-régulateur de vitesse avec diverses fonctionnalités, comme le changement de voie automatique et la direction automatisée. Vous êtes censé garder les mains sur le volant et pouvoir prendre le relais à tout moment.

Roulant à environ 25 mph (environ 40 km/h), le Tesla a frappé le mannequin à chaque fois

Parmi les résultats, le projet Dawn a déclaré qu'une distance de 100 mètres est plus que suffisante pour qu'un conducteur humain remarque un enfant, déclarant : « Le logiciel Full Self-Driving de Tesla échoue à plusieurs reprises à ce test simple et critique pour la sécurité, avec des résultats potentiellement mortels.

"Elon Musk dit que le logiciel Full Self-Driving de Tesla est" incroyable ". Ce n'est pas… C'est le pire logiciel commercial que j'aie jamais vu », a déclaré le fondateur du projet, Dan O'Dowd, dans une vidéo qu'il a tweetée avec les résultats.

O'Dowd, qui a également fondé Green Hills Software en 1982 et défend la sécurité des logiciels, est un opposant à Tesla depuis un certain temps, lançant même une offre pour le Sénat américain en Californie qui centré sur le maintien de l'ordre de Tesla comme un moyen de parler de problèmes de cybersécurité plus larges. La candidature d'O'Dowd au Sénat a pris fin en juin lorsqu'il a perdu la primaire du parti démocrate. 

L'objectif déclaré du projet Dawn est de "rendre les ordinateurs sûrs pour l'humanité". Tesla FSD est la première campagne du projet. 

Petite taille de l'échantillon

Il convient de noter que les tests de FSD 10.12.2 de The Dawn Project, qui ont eu lieu le 21 juin à Rosamond, en Californie, ne comprenaient que trois exécutions. C'est une petite taille d'échantillon, mais compte tenu d'autres tests et statistiques de Tesla, ce n'est pas inattendu. 

Les dysfonctionnements du pilote automatique - la suite logicielle de Tesla qui comprend le pilote automatique standard ainsi que le FSD - ont été cité comme étant prétendument un facteur dans plusieurs, fatal accidents impliquant à la fois les conducteurs et piétons au cours des années. Tesla l'année dernière annulées Les versions du logiciel FSD après la découverte de bogues logiciels qui ont causé des problèmes avec les virages à gauche, ce que Tesla est travaille toujours sur

Début juin, la National Highway Traffic Safety Administration des États-Unis mis à jour une enquête sur Tesla Autopilot après avoir trouvé des raisons d'examiner si "le pilote automatique et les systèmes Tesla associés peuvent exacerber les facteurs humains ou les risques de sécurité comportementaux". L'enquête est en cours.

Une semaine après avoir annoncé sa sonde, la NHTSA a déclaré que le pilote automatique Tesla régulier (fonctionnant au niveau 2, pas FSD) était impliqué dans 270 des 394 accidents d'assistance à la conduite – environ 70 % – ont été répertoriés dans le cadre d'une enquête sur la sécurité de la technologie d'assistance à la conduite.

Plus récemment, le California Department of Motor Vehicles a déposé des plaintes contre Tesla alléguant le biz réclamations déformées les véhicules peuvent rouler de manière autonome. Si Tesla ne répond pas aux réclamations du DMV d'ici la fin de cette semaine, l'affaire sera réglée par défaut et pourrait conduire le constructeur automobile à perdre sa licence pour vendre des voitures en Californie.

Le projet Dawn a déclaré que la NHTSA a agi rapidement pour émettre des rappels sur les fonctionnalités de Tesla, soulignant les rappels de code FSD stimulés par la NHTSA de Tesla qui ont permis à Teslas de passer devant les panneaux d'arrêt et par désactivation de Tesla Boombox

Le projet Dawn affirme que ses recherches « sont beaucoup plus sérieuses et urgentes ». ®

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?