Le 18 mars 2018, à près de 22 heures, une Volvo autopilotée a heurté et tué une piétonne, une femme nommée Elaine Herzberg. La mort de Herzberg a été le premier décès de piéton impliquant une voiture autopilotée. La voiture autonome était un véhicule d’essai, une voiture qu’Uber testait en Arizona. Elle n’a pas pu déterminer si la femme était un piéton, une bicyclette ou une autre voiture, ni prédire où elle allait. La vidéo a montré que la conductrice de la voiture autonome, agissant en tant que « sauvegarde de sécurité », ne regardait pas la route au moment de la collision. Au lieu de cela, elle regardait un épisode de « The Voice ».
Cet accident a incité Uber à cesser temporairement de tester ses voitures à conduite autonome à Tempe, San Francisco, Pittsburgh et Toronto, et a déclenché une vague d’actions en justice. Il a également amené les gens à revoir la question – qui est en faute dans un accident avec une voiture autopilotée ?
Dans le cas de la collision qui a tué Herzberg, le blâme a été divisé entre le conducteur de sécurité, Uber, la voiture autopilotée, la victime et l’État de l’Arizona.
Dans une nouvelle étude de l’Université de Columbia, les chercheurs se sont attaqués au problème de la responsabilité dans une collision impliquant une voiture autonome. Qui est en faute – le conducteur, la voiture, le constructeur, ou quelqu’un d’autre ? Les chercheurs ont élaboré un modèle de théorie des jeux qui régit les conducteurs, le fabricant de la voiture autonome, la voiture elle-même et les législateurs. L’objectif des chercheurs était d’aboutir à un scénario de responsabilité optimal tout en garantissant que chaque partie ne profite pas de l’autre.
Ils ont constaté que les « conducteurs » humains des voitures à conduite autonome accordaient une bonne dose de confiance à la voiture « intelligente », allant jusqu’à prendre plus de risques. Le Dr Xuan (Sharon) Di, auteur principal de l’article, déclare : « Nous avons constaté que les conducteurs humains pourraient profiter de cette technologie en conduisant de manière imprudente et en prenant plus de risques, car ils savent que les voitures à conduite autonome seraient conçues pour conduire de manière plus prudente. »
Leurs résultats ont révélé qu’un partage précis de la responsabilité dans divers cas conduisait au scénario optimal consistant à empêcher les conducteurs ou opérateurs humains de devenir complaisants tout en assurant que les voitures étaient développées pour être sûres. Une telle politique évoluerait, notamment lorsque de plus en plus de voitures à conduite autonome entreront sur les routes. Les résultats aident également à déterminer comment les législateurs pourraient s’adapter à ce nouveau paysage et comment les fabricants pourraient être incités (par des subventions et des réglementations) à développer des voitures plus performantes que les voitures à conduite exclusivement humaine, encourageant la sécurité même avec des coûts de production accrus.