Tesla publie une réponse sévère à l’article du Washington Post sur les dangers présumés de l’Autopilot.

0
90

Tesla a publié une réponse sévère à un article récent du Washington Post sur les dangers présumés de l’Autopilot. The Washington Post qui suggère que le fabricant de véhicules électriques met les gens en danger parce qu’il permet à des systèmes comme Autopilot d’être déployés dans des zones pour lesquelles ils n’ont pas été conçus. La publication a noté qu’elle a pu identifier environ 40 accidents mortels ou graves depuis 2016, et au moins huit d’entre eux se sont produits sur des routes où Autopilot n’était pas conçu pour être utilisé en premier lieu.

Dans l’ensemble, la Washington Post a fait valoir que si Tesla informe les conducteurs qu’ils sont responsables de leur véhicule lorsque le système Autopilot est activé, l’entreprise est néanmoins également fautive puisqu’elle permet à son système d’aide à la conduite d’être déployé de manière irresponsable. « Même si l’entreprise a la capacité technique[…] pour limiter la disponibilité d’Autopilot par zone géographique, elle a pris peu de mesures définitives pour restreindre l’utilisation du logiciel », peut-on lire dans l’article.

Dans sa réponse, publiée sur son compte officiel X, Tesla a souligné qu’elle prenait très au sérieux la sécurité de ses clients et des piétons. L’entreprise a noté que les données sont claires sur le fait que les systèmes comme Autopilot, lorsqu’ils sont utilisés en toute sécurité, réduisent considérablement le nombre d’accidents sur la route. L’entreprise a également réitéré le fait que des fonctionnalités telles que le régulateur de vitesse adapté au trafic sont des systèmes de niveau 2, qui nécessitent une supervision constante de la part du conducteur.

Voici la section pertinente de la réponse de Tesla.

Bien qu’il existe de nombreux articles qui n’expliquent pas correctement la nature de nos systèmes de sécurité, le récent article du Washington Post est particulièrement flagrant dans ses déclarations erronées et son manque de contexte pertinent.

Chez Tesla, nous pensons que nous avons l’obligation morale de continuer à améliorer nos systèmes de sécurité, qui sont déjà les meilleurs de leur catégorie. En même temps, nous pensons qu’il est moralement indéfendable de ne pas mettre ces systèmes à la disposition d’un plus grand nombre de consommateurs, étant donné les données incontestables qui montrent qu’ils sauvent des vies et préviennent les blessures.

Les régulateurs du monde entier ont le devoir de protéger les consommateurs, et l’équipe Tesla est impatiente de poursuivre son travail avec eux pour atteindre notre objectif commun d’éliminer le plus grand nombre possible de morts et de blessés sur nos routes.

Vous trouverez ci-dessous quelques faits importants, le contexte et l’historique.

Contexte

1. Les indicateurs de sécurité sont nettement plus élevés lorsque le pilote automatique est activé que lorsqu’il ne l’est pas.

a. Au 4e trimestre 2022, nous avons enregistré un accident pour 4,85 millions de miles parcourus au cours desquels les conducteurs utilisaient la technologie Autopilot. Pour les conducteurs qui n’utilisaient pas la technologie Autopilot, nous avons enregistré un accident pour 1,40 million de miles parcourus. À titre de comparaison, les données les plus récentes disponibles auprès de la NHTSA et de la FHWA (à partir de 2021) montrent qu’aux États-Unis, il y a eu un accident automobile environ tous les 652 000 miles.

b. Les données sont claires : plus la technologie d’automatisation proposée pour aider le conducteur est importante, plus le conducteur et les autres usagers de la route sont en sécurité. Les anecdotes citées dans l’article du WaPo proviennent d’avocats plaignants – des cas impliquant une utilisation abusive du conducteur – et ne remplacent pas une analyse rigoureuse et des milliards de kilomètres de données.

c. Les données récentes confirment cette tendance et sont encore plus convaincantes. L’Autopilot est ~10X plus sûr que la moyenne américaine et ~5X plus sûr qu’une Tesla sans technologie AP activée. Des informations plus détaillées seront rendues publiques dans un avenir proche.

2. Les fonctions de l’Autopilot, y compris le régulateur de vitesse en fonction du trafic et l’Autosteer, sont des systèmes d’aide à la conduite de niveau 2 de la SAE, ce qui signifie que –

a. Que le conducteur choisisse ou non d’activer l’Autosteer, il a le contrôle du véhicule à tout moment. Le conducteur est informé de cette responsabilité, donne son accord, accepte de surveiller l’assistance à la conduite et peut se désengager à tout moment.

b. Bien que le conducteur soit responsable du contrôle du véhicule, Tesla dispose d’un certain nombre de mesures de sécurité supplémentaires conçues pour surveiller que les conducteurs s’engagent dans la supervision active du conducteur, y compris la surveillance basée sur le couple et la surveillance par caméra. Nous avons continué à progresser dans l’amélioration de ces systèmes de surveillance afin de réduire les abus.

c. Sur la base de ce qui précède, parmi d’autres facteurs, les données indiquent clairement que nos clients sont beaucoup plus en sécurité en ayant le choix de décider quand il est approprié d’activer les fonctions de l’Autopilot. Lorsqu’il est utilisé correctement, il offre des avantages en termes de sécurité sur toutes les catégories de routes.

Tesla a également fourni un contexte sur certains des accidents qui ont été mis en évidence par le rapport de la Commission européenne. Le Washington Post. Selon le constructeur de véhicules électriques, les incidents cités par la publication impliquaient des conducteurs qui n’utilisaient pas correctement l’Autopilot. La publication a donc omis plusieurs faits importants lorsqu’elle a formulé son récit sur les risques présumés d’Autopilot, a fait valoir Tesla.

Voici la section pertinente de la réponse de Tesla.

Le Washington Post s’appuie sur des exemples de mauvaise utilisation par les conducteurs de la fonction d’aide à la conduite Autopilot pour suggérer que le système est le problème. L’article s’est trompé, en rapportant mal ce qui est réellement allégué dans le procès en cours et en omettant plusieurs faits importants :

1. Contrairement à l’article du Post, la plainte ne fait pas référence à la complaisance ou au domaine de conception opérationnelle.

2. Au lieu de cela, la plainte reconnaît les dommages causés par l’inattention, la mauvaise utilisation et la négligence des conducteurs.

3. M. Angulo et les parents de Mme Benavides, tragiquement décédée dans l’accident, ont d’abord poursuivi le conducteur de la Tesla – et ont conclu un accord avec lui – avant d’intenter une action contre Tesla.

4. Le procès Benavides allègue que le conducteur de la Tesla « a conduit de manière négligente et/ou imprudente » « à travers l’intersection… en ignorant le panneau d’arrêt et le feu de circulation ».

5. Le conducteur de Tesla n’a pas blâmé Tesla, n’a pas poursuivi Tesla, n’a pas essayé de faire payer Tesla en son nom. Il a pris ses responsabilités.

6. Le Post a publié les déclarations du conducteur à la police et des rapports indiquant qu’il a dit qu’il « conduisait en vitesse de croisière ». Il omet de préciser qu’il a également avoué à la police : « Je m’attendais à être le conducteur et à être responsable de cette situation ».

7. Le conducteur a ensuite témoigné dans le cadre du litige qu’il savait qu’Autopilot ne rendait pas la voiture auto-conductrice et qu’il était le conducteur, contrairement aux affirmations du Post et d’Angulo selon lesquelles il aurait été induit en erreur, aurait fait preuve d’une confiance excessive ou aurait été complaisant. Il a admis volontiers et à plusieurs reprises :

a. « J’étais tout à fait conscient qu’il était de ma responsabilité de conduire le véhicule en toute sécurité.

b. Il a reconnu qu’il était de sa « responsabilité en tant que conducteur du véhicule, même avec l’Autopilot activé, de conduire en toute sécurité et d’avoir le contrôle du véhicule à tout moment. »

c. « Je dirais que[…] spécifiquement que j’étais conscient que la voiture était sous ma responsabilité. Je n’ai pas lu toutes ces déclarations et tous ces passages, mais je savais que la voiture était sous ma responsabilité ».

8. Le Post n’a pas non plus révélé qu’Autopilot limitait la vitesse du véhicule à 45 mph (la limite de vitesse) en fonction du type de route, mais que le conducteur appuyait sur l’accélérateur pour maintenir une vitesse de 60 mph lorsqu’il a grillé le panneau stop et provoqué l’accident. La voiture a affiché une alerte au conducteur indiquant que, parce qu’il passait outre l’Autopilot avec l’accélérateur, « le régulateur de vitesse ne freinera pas ».

Tesla publie une réponse sévère à l’article du Washington Post sur les dangers présumés de l’Autopilot.







Article précédentLe dénonciateur des « Tesla Files » alerte les autorités britanniques au sujet d’un risque potentiel pour la sécurité
Article suivantTesla China enregistre 15,4k immatriculations pour la deuxième semaine de décembre
Spécialiste de l'assurance auto de par mes nombreuses expériences professionnelles, je répondrai à vos questions pour vous aider dans vos démarches.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici