Qui est responsable lors d’un accident avec une voiture autopilotée ?

Le 18 mars 2018, à près de 22 heures, une Volvo autopilotée a heurté et tué une piétonne, une femme nommée Elaine Herzberg. La mort de Herzberg a été le premier décès de piéton impliquant une voiture autopilotée. La voiture autonome était un véhicule d’essai, une voiture qu’Uber testait en Arizona. Elle n’a pas pu déterminer si la femme était un piéton, une bicyclette ou une autre voiture, ni prédire où elle allait. La vidéo a montré que la conductrice de la voiture autonome, agissant en tant que « sauvegarde de sécurité », ne regardait pas la route au moment de la collision. Au lieu de cela, elle regardait un épisode de « The Voice ».

Cet accident a incité Uber à cesser temporairement de tester ses voitures à conduite autonome à Tempe, San Francisco, Pittsburgh et Toronto, et a déclenché une vague d’actions en justice. Il a également amené les gens à revoir la question – qui est en faute dans un accident avec une voiture autopilotée ?

Enquête sur le décès d'un véhicule autopiloté

Sur cette photo d’archive du 20 mars 2018 fournie par le National Transportation Safety Board, … des enquêteurs examinent un SUV Uber sans conducteur qui a mortellement heurté une femme à Tempe, Ariz. Un procureur a déterminé qu’Uber n’est pas pénalement responsable de l’accident qui a tué Elaine Herzberg, 49 ans. (National Transportation Safety Board via AP, File)

PRESSE ASSOCIÉE

Dans le cas de la collision qui a tué Herzberg, le blâme a été divisé entre le conducteur de sécurité, Uber, la voiture autopilotée, la victime et l’État de l’Arizona.

Dans une nouvelle étude de l’Université de Columbia, les chercheurs se sont attaqués au problème de la responsabilité dans une collision impliquant une voiture autonome. Qui est en faute – le conducteur, la voiture, le constructeur, ou quelqu’un d’autre ? Les chercheurs ont élaboré un modèle de théorie des jeux qui régit les conducteurs, le fabricant de la voiture autonome, la voiture elle-même et les législateurs. L’objectif des chercheurs était d’aboutir à un scénario de responsabilité optimal tout en garantissant que chaque partie ne profite pas de l’autre.

Ils ont constaté que les « conducteurs » humains des voitures à conduite autonome accordaient une bonne dose de confiance à la voiture « intelligente », allant jusqu’à prendre plus de risques. Le Dr Xuan (Sharon) Di, auteur principal de l’article, déclare : « Nous avons constaté que les conducteurs humains pourraient profiter de cette technologie en conduisant de manière imprudente et en prenant plus de risques, car ils savent que les voitures à conduite autonome seraient conçues pour conduire de manière plus prudente. »

Voitures autonomes sur la route

Quel est le meilleur partage de la responsabilité en cas de collision avec une voiture autopilotée ?

Getty

Leurs résultats ont révélé qu’un partage précis de la responsabilité dans divers cas conduisait au scénario optimal consistant à empêcher les conducteurs ou opérateurs humains de devenir complaisants tout en assurant que les voitures étaient développées pour être sûres. Une telle politique évoluerait, notamment lorsque de plus en plus de voitures à conduite autonome entreront sur les routes. Les résultats aident également à déterminer comment les législateurs pourraient s’adapter à ce nouveau paysage et comment les fabricants pourraient être incités (par des subventions et des réglementations) à développer des voitures plus performantes que les voitures à conduite exclusivement humaine, encourageant la sécurité même avec des coûts de production accrus.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.