Une question de vie ou de mort pour les régulateurs : le pilote automatique de Tesla est-il sûr ?

Contenu de l’article

Robin Geoulla avait des doutes sur la technologie de conduite automatisée équipant sa Tesla Model S lorsqu’il a acheté la voiture électrique en 2017.

« C’était un peu effrayant de, vous savez, compter dessus et juste, vous savez, vous asseoir et le laisser conduire », a-t-il déclaré à un enquêteur américain à propos du système de pilote automatique de Tesla, décrivant ses premiers sentiments à propos de la technologie.

Geoulla a fait ces commentaires à l’enquêteur en janvier 2018, quelques jours après que sa Tesla, avec le pilote automatique activé, a percuté l’arrière d’un camion de pompiers inoccupé garé sur une autoroute californienne. Reuters n’a pas pu le joindre pour un commentaire supplémentaire.

Publicité

Contenu de l’article

Au fil du temps, les doutes initiaux de Geoulla sur le pilote automatique se sont atténués et il l’a trouvé fiable lorsqu’il a suivi un véhicule devant lui. Mais il a remarqué que le système semblait parfois confus face à la lumière directe du soleil ou à un véhicule devant lui changeant de voie, selon une transcription de son entretien avec un enquêteur du National Transportation Safety Board (NTSB).

Il conduisait sous le soleil avant de faire culbuter le camion de pompiers, a-t-il déclaré à l’enquêteur.

La conception du pilote automatique a permis à Geoulla de se désengager de la conduite pendant son voyage, et ses mains ont été relâchées du volant pendant presque toute la période d’environ 30 minutes lorsque la technologie a été activée, a découvert le NTSB.

L’agence américaine, qui fait des recommandations mais manque de pouvoirs d’exécution, a déjà exhorté les régulateurs de la National Highway Traffic Safety Administration (NHTSA) à enquêter sur les limites du pilote automatique, le potentiel d’abus du conducteur et les risques possibles pour la sécurité à la suite d’une série d’accidents impliquant la technologie, certains des eux mortels.

Publicité

Contenu de l’article

« Le passé a montré que l’accent a été mis sur l’innovation plutôt que sur la sécurité et j’espère que nous sommes à un point où la tendance est en train de tourner », a déclaré à Reuters la nouvelle présidente du NTSB, Jennifer Homendy, dans une interview. Elle a déclaré qu’il n’y avait aucune comparaison entre le pilote automatique de Tesla et les systèmes de pilote automatique plus rigoureux utilisés dans l’aviation qui impliquent des pilotes formés, des règles traitant de la fatigue et des tests de dépistage de drogues et d’alcool.

Tesla n’a pas répondu aux questions écrites pour cette histoire.

Le pilote automatique est une fonction avancée d’assistance à la conduite dont la version actuelle ne rend pas les véhicules autonomes, indique la société sur son site Internet. Tesla dit que les conducteurs doivent accepter de garder les mains sur le volant et de garder le contrôle de leurs véhicules avant d’activer le système.

Publicité

Contenu de l’article

VISIBILITÉ LIMITÉE

L’accident de Geoulla en 2018 est l’un des 12 accidents impliquant un pilote automatique que les responsables de la NHTSA examinent dans le cadre de l’enquête la plus approfondie de l’agence depuis que Tesla Inc a introduit le système de conduite semi-autonome en 2015.

Selon un communiqué de la NHTSA, des documents du NTSB et des rapports de police examinés par Reuters, la plupart des accidents faisant l’objet d’une enquête se sont produits après la tombée de la nuit ou dans des conditions créant une visibilité limitée telle que la lumière du soleil éblouissante. Cela soulève des questions sur les capacités du pilote automatique dans des conditions de conduite difficiles, selon les experts en conduite autonome.

« L’autorité d’application et de défaut de la NHTSA est large, et nous agirons lorsque nous détecterons un risque déraisonnable pour la sécurité publique », a déclaré un porte-parole de la NHTSA dans un communiqué à Reuters.

Publicité

Contenu de l’article

Depuis 2016, les régulateurs américains de la sécurité automobile ont envoyé séparément 33 équipes spéciales d’enquête sur les accidents pour examiner les accidents de Tesla impliquant 11 décès dans lesquels des systèmes avancés d’aide à la conduite étaient soupçonnés d’être utilisés. La NHTSA a exclu l’utilisation du pilote automatique dans trois de ces accidents non mortels.

L’enquête actuelle de la NHTSA https://www.reuters.com/business/autos-transportation/us-opens-formal-safety-probe-into-tesla-autopilot-crashes-2021-08-16 d’Autopilot rouvre en effet la question de savoir si la technologie est sûre. Cela représente le dernier défi important pour Elon Musk, le directeur général de Tesla dont le plaidoyer en faveur des voitures sans conducteur a aidé son entreprise à devenir le constructeur automobile le plus précieux au monde https://www.reuters.com/article/tesla-stocks-int/tesla-market -valeur-croise-800-milliards-pour-la-première-fois-idUSKBN29D20B.

Publicité

Contenu de l’article

Tesla facture aux clients jusqu’à 10 000 $ pour des fonctionnalités avancées d’assistance à la conduite telles que le changement de voie, avec la promesse de fournir à terme une capacité de conduite autonome à leurs voitures en utilisant uniquement des caméras et des logiciels avancés. D’autres constructeurs automobiles et entreprises de conduite autonome utilisent non seulement des caméras, mais aussi du matériel plus coûteux, notamment un radar et un lidar, dans leurs véhicules actuels et à venir.

Musk a déclaré qu’une Tesla avec huit caméras serait beaucoup plus sûre que les conducteurs humains. Mais la technologie de la caméra est affectée par l’obscurité et l’éblouissement du soleil ainsi que par des conditions météorologiques défavorables telles que de fortes pluies, de la neige et du brouillard, selon les experts et les dirigeants de l’industrie.

« La vision par ordinateur d’aujourd’hui est loin d’être parfaite et le sera dans un avenir prévisible », a déclaré Raj Rajkumar, professeur d’ingénierie électrique et informatique à l’Université Carnegie Mellon.

Publicité

Contenu de l’article

Lors du premier accident mortel connu aux États-Unis impliquant la technologie de conduite semi-autonome de Tesla, qui s’est produit en 2016 à l’ouest de Williston, en Floride, la société a déclaré que le conducteur et le pilote automatique n’avaient pas vu le côté blanc d’un semi-remorque contre un ciel très éclairé. Au lieu de freiner, la Tesla est entrée en collision avec le camion à 18 roues.

MAUVAISE UTILISATION DU CONDUCTEUR, FREINAGE DÉFECTUEUX

La NHTSA a clôturé en janvier 2017 une enquête sur le pilote automatique résultant de cet accident mortel, ne trouvant aucun défaut dans les performances du pilote automatique après des échanges controversés avec des responsables de Tesla, selon des documents examinés par Reuters.

En décembre 2016, dans le cadre de cette enquête, l’agence a demandé à Tesla de fournir des détails sur la réponse de l’entreprise à tout problème de sécurité interne soulevé au sujet du pilote automatique, y compris le potentiel d’abus ou d’abus du conducteur, selon une commande spéciale envoyée par les régulateurs au constructeur automobile. .

Publicité

Contenu de l’article

Après qu’un avocat de la NHTSA eut constaté que la réponse initiale de Tesla manquait, l’avocat général de Tesla à l’époque, Todd Maron, a réessayé. Il a déclaré aux régulateurs que la demande était « grossièrement trop large » et qu’il serait impossible de cataloguer toutes les préoccupations soulevées lors du développement du pilote automatique, selon la correspondance examinée par Reuters.

Néanmoins, Tesla voulait coopérer, a déclaré Maron aux régulateurs. Au cours du développement d’Autopilot, des employés ou des sous-traitants de l’entreprise ont fait part de leurs préoccupations à Tesla concernant le potentiel de freinage et d’accélération involontaires ou défaillants ; direction indésirable ou défaillante ; et certains types d’abus et d’abus par les conducteurs, a déclaré Maron, sans fournir plus de détails.

Maron n’a pas répondu aux messages sollicitant des commentaires.

Publicité

Contenu de l’article

La réaction des régulateurs n’est pas claire. Un ancien responsable américain a déclaré que Tesla coopérait généralement avec la sonde et produisait rapidement les documents demandés. Les régulateurs ont clos l’enquête juste avant l’investiture de l’ancien président américain Donald Trump, constatant que le pilote automatique fonctionnait comme prévu et que Tesla avait pris des mesures pour éviter qu’il ne soit utilisé à mauvais escient.

VIDE DE LEADERSHIP DANS LA NHTSA

La NHTSA est sans chef confirmé par le Sénat depuis près de cinq ans. Le président Joe Biden n’a encore nommé personne pour diriger l’agence.

Les documents de la NHTSA montrent que les régulateurs veulent savoir comment les véhicules Tesla tentent de voir des lumières clignotantes sur les véhicules d’urgence, ou détectent la présence de camions de pompiers, d’ambulances et de voitures de police sur leur chemin. L’agence a également recherché des informations similaires auprès de 12 constructeurs automobiles rivaux.

Publicité

Contenu de l’article

« Tesla a été invitée à produire et à valider des données ainsi que leur interprétation de ces données. La NHTSA procédera à notre propre validation et analyse indépendantes de toutes les informations », a déclaré la NHTSA à Reuters.

Musk, le pionnier de la voiture électrique, s’est battu avec acharnement pour défendre le pilote automatique contre les critiques et les régulateurs. Tesla a utilisé la capacité d’Autopilot à mettre à jour le logiciel du véhicule par voie hertzienne pour dépasser et contourner le processus traditionnel de rappel de véhicule.

Musk a promu à plusieurs reprises les capacités d’Autopilot https://www.reuters.com/article/us-tesla-autonomous-factbox/elon-musk-on-teslas-self-driving-capabilities-idUSKCN1RY0QY, parfois d’une manière qui, selon les critiques, induit les clients en erreur en croyant que les Teslas peuvent conduire eux-mêmes – malgré les avertissements contraires dans les manuels du propriétaire qui disent aux conducteurs de rester engagés et décrivent les limites de la technologie.

Musk a également continué à lancer ce que Tesla appelle des versions bêta – ou inachevées – d’un système « Full Self-Driving » via des mises à niveau logicielles en direct.

« Certains constructeurs vont faire ce qu’ils veulent pour vendre une voiture et c’est au gouvernement de contrôler cela », a déclaré Homendy du NTSB. (Reportage par Hyunjoo Jin à San Francisco, Mike Spector à New York et David Shepardson à Washington Montage par Joseph White et Matthew Lewis)

Publicité

Reportage approfondi sur l’économie de l’innovation de The Logic, présenté en partenariat avec le Financial Post.

commentaires

Postmedia s’engage à maintenir un forum de discussion vivant mais civil et encourage tous les lecteurs à partager leurs points de vue sur nos articles. Les commentaires peuvent prendre jusqu’à une heure de modération avant d’apparaître sur le site. Nous vous demandons de garder vos commentaires pertinents et respectueux. Nous avons activé les notifications par e-mail. Vous recevrez désormais un e-mail si vous recevez une réponse à votre commentaire, s’il y a une mise à jour d’un fil de commentaires que vous suivez ou si un utilisateur que vous suivez commente. Consultez nos directives de la communauté pour plus d’informations et de détails sur la façon d’ajuster vos paramètres de messagerie.

Vous pourriez également aimer...