Am 18. März 2018 um fast 22 Uhr wurde eine Fußgängerin, eine Frau namens Elaine Herzberg, von einem selbstfahrenden Volvo angefahren und getötet. Herzbergs Tod war der erste tödliche Zusammenstoß mit einem selbstfahrenden Auto, an dem eine Fußgängerin beteiligt war. Bei dem selbstfahrenden Auto handelte es sich um ein Testfahrzeug, das von Uber in Arizona getestet wurde. Es konnte weder herausfinden, ob es sich bei der Frau um eine Fußgängerin, ein Fahrrad oder ein anderes Auto handelte, noch konnte es vorhersagen, wohin sie fahren würde. Videoaufnahmen zeigten, dass der Fahrer des selbstfahrenden Autos, der als „Sicherheits-Backup“ fungierte, zum Zeitpunkt des Zusammenstoßes nicht auf die Straße schaute. Stattdessen schaute sie sich eine Folge von „The Voice“ an.
Dieser Unfall veranlasste Uber, die Tests seiner selbstfahrenden Autos in Tempe, San Francisco, Pittsburgh und Toronto vorübergehend einzustellen, und löste eine Welle von Rechtsstreitigkeiten aus. Er veranlasste die Menschen auch, sich erneut mit der Frage zu befassen, wer bei einem Unfall mit einem selbstfahrenden Auto die Schuld trägt?
Im Fall des Zusammenstoßes, bei dem Herzberg ums Leben kam, wurde die Schuld zwischen dem Sicherheitsfahrer, Uber, dem selbstfahrenden Auto, dem Opfer und dem Staat Arizona aufgeteilt.
In einer neuen Studie der Columbia University befassten sich Forscher mit dem Problem der Haftung bei einem Zusammenstoß mit einem selbstfahrenden Auto. Wer trägt die Schuld – der Fahrer, das Auto, der Hersteller oder jemand anderes? Die Forscher entwickelten ein spieltheoretisches Modell, das die Fahrer, den Hersteller des selbstfahrenden Autos, das Auto selbst und den Gesetzgeber regulierte. Ziel der Forscher war es, ein optimales Haftungsszenario zu finden und gleichzeitig sicherzustellen, dass keine der Parteien die andere ausnutzt.
Sie fanden heraus, dass die menschlichen „Fahrer“ von selbstfahrenden Autos dem „intelligenten“ Auto sehr viel Vertrauen entgegenbringen und sogar mehr Risiken eingehen. Dr. Xuan (Sharon) Di, Hauptautorin der Studie, sagt: „Wir haben festgestellt, dass menschliche Fahrer diese Technologie möglicherweise ausnutzen, indem sie unvorsichtig fahren und mehr Risiken eingehen, weil sie wissen, dass selbstfahrende Autos so konstruiert sind, dass sie vorsichtiger fahren.“
Sie fanden heraus, dass eine genaue Haftungsverteilung in verschiedenen Fällen zum optimalen Szenario führt, um zu verhindern, dass menschliche Fahrer oder Betreiber selbstgefällig werden, während gleichzeitig sichergestellt wird, dass die Autos so entwickelt wurden, dass sie sicher sind. Eine solche Politik würde sich weiterentwickeln, auch wenn mehr und mehr selbstfahrende Autos auf die Straßen kommen. Die Ergebnisse tragen auch dazu bei, zu bestimmen, wie sich die Gesetzgeber an diese neue Landschaft anpassen könnten und wie Hersteller (durch Subventionen und Vorschriften) dazu angeregt werden könnten, Autos zu entwickeln, die besser sind als ausschließlich von Menschen gesteuerte Autos, wodurch die Sicherheit auch bei höheren Produktionskosten gefördert wird.