PDF DOWNLOAD

Flottenmanagement: Herr Professor Capurro, das automatisierte Fahren wirft neben technischen Herausforderungen vor allem im ethisch-moralischen Bereich noch viele Fragestellungen auf. Um direkt auf das wohl bekannteste Dilemma einzugehen: Wie kann die Reaktion eines autonomen Fahrzeugs aussehen, wenn es vor der Entscheidung steht, Fahrzeuginsassen oder Fußgänger zu schädigen? Anhand welcher Kriterien sollte die Entscheidung getroffen werden?

Prof. Rafael Capurro: Wir müssen zwischen automatisiertem oder assistiertem und vollautomatisiertem oder autonomem Fahren unterscheiden. Ethische Fragen stellen sich vor allem in dem Fall, wo ein Algorithmus mit moralischen und rechtlichen Regeln den Fahrer voll ersetzt. Mit Moral meine ich implizite oder explizite Gewohnheitsregeln (Latein: mores = Gewohnheiten), die auf Werten und Prinzipien des guten Lebens beruhen, die jeder Gesellschaft zugrunde liegen, im Unterschied zu Ethik im Sinne einer wissenschaftlichen und auch alltäglichen Reflexion darüber.

Ein Algorithmus befolgt Regeln, die ihm vorgegeben werden. Verantwortung können nur Personen übernehmen, die einem Kontext von offenen, nicht berechenbaren Möglichkeiten ausgesetzt sind und über solche Regeln vor- und nachdenken können. Es ist schier unmöglich, alle Möglichkeiten von Handlungssituationen im Voraus zu kennen und sie einzuprogrammieren. Das ethisch Problematische beim autonomen Fahren ist nicht die Berechenbarkeit an sich, sondern der Glaube an die Berechenbarkeit, die eine Sicherheit vortäuscht, die es nicht geben kann.

Das „bekannteste Dilemma“, das Sie ansprechen, ergibt sich aus der Festlegung bestimmter Regeln für Standardsituationen, die aber in der Realität ganz anders ausfallen können. Was in Form eines Algorithmus einprogrammiert werden kann, sind lediglich Regeln der geltenden Moral und des geltenden Rechts für solche Standardsituationen. Eine Regel, die auf den Schutz der Insassen ausgerichtet ist, kann in einer nicht vorhersehbaren Situation auch zu einer Gefährdung der Insassen führen.

Wenn weder der Hersteller noch der Programmierer noch der Fahrzeugbesitzer die moralische Verantwortung für die Unfallfolgen eines autonomen Fahrzeugs übernehmen können, bewegen wir uns scheinbar in einem Zustand der Amoralität. Ich sage scheinbar, weil es in der Verantwortung eines jeden Einzelnen sowie der Gesellschaft insgesamt liegt, sich auf solche Fahrzeuge einzulassen und sie zuzulassen. Es ist dann die Frage, wann eine Gesellschaft sich dazu entschließt und ob die Bürger, die letztlich die Nutzer oder Opfer dieser Technologie sind, bereit sind, die Risiken und die Verantwortung dafür zu tragen. Diese politische und gesellschaftliche Entscheidung lässt sich nicht „weg-algorithmisieren“.

Beim jetzigen Stand der Technik sollten autonome Fahrzeuge nur dann zugelassen werden, wenn solche Dilemmata beinahe ausgeschlossen sind. Solange es keine digitalisierten Straßenleitsysteme gibt, die dem autonomen Fahrzeug einen Teil seiner Autonomie abnehmen, ist das nicht der Fall.

Es stellt sich die Frage, für wen und wofür das autonome und das automatisierte Fahren jeweils Sinn machen. Zwischen einem Fahrzeug, das die Verantwortung auf den Fahrer abwälzt, und einem autonomen Fahrzeug gibt es viele Möglichkeiten. Automatisierte Fahrzeuge, die dem Fahrer zu einer technisch aufgeklärten Verantwortung verhelfen können, können tendenziell darauf ausgerichtet sein, diesen nicht nur zu entlasten, sondern zu ersetzen.

Die gesellschaftliche Akzeptanz hängt davon ab, ob tatsächlich das autonome Fahren in bestimmten Alltagssituationen, vor allem im Stadtverkehr, das Fahren für die Insassen und die sonstigen nicht autonomen Fahrzeuge sowie für Fußgänger, Radfahrer und so weiter sicherer und fließender machen. Es ist auch die Frage, ob in naher oder ferner Zukunft alle Verkehrsteilnehmer sich danach richten. Erfahrungsgemäß brauchen solche Umstellungen von Gewohnheiten eine gewisse Zeit.

Flottenmanagement: Christoph von Hugo, Abteilungsleiter für Aktive Sicherheit im Daimler- Konzern, sagte auf dem Pariser Autosalon, dass ein autonomes Auto bei einem Unfall im Zweifel immer die Insassen schützen sollte. Seine Begründung: Bei einer komplexen Unfallsituation wisse man noch nicht, was mit den Menschen passiere, die man ursprünglich gerettet habe. Zwar ruderte der Konzern bereits schon etwas zurück, jedoch bleibt die Aussage erst einmal im Raum stehen. Wäre ein Fahrzeug, das sich im Zweifelsfall gegen die Insassen entscheidet, überhaupt zu vermarkten?

Prof. Rafael Capurro: Das Fahrzeug entscheidet sich streng genommen für nichts. Die anthropomorphen Redewendungen in diesem Bereich führen in die Irre, weil sie den Eindruck erwecken, das fahrer- aber nicht führungslose Fahrzeug wäre ein autonomes Wesen, das sich die Regeln seines Handelns, einschließlich des Zieles seines Handelns, selbst gibt und dabei auf das gesamte Wohlergehen der Gesellschaft achtet. Autonome Fahrzeuge sind aber keine Mitglieder der menschlichen Gesellschaft und sie können sich auch keine eigenen Ziele geben.

Es ist der Hersteller, der dem Käufer versichert, er kann beruhigt sein, wenn bei einem Unfall „immer die Insassen“ und nicht die anderen geschützt werden. Das ist kein gutes ethisches Kriterium für das gute Leben, da es den Besitzer des Wagens von seiner Verantwortung für Nichtinsassen abkoppelt. Das Risiko, dass der Algorithmus gegebenenfalls gegen den Schutz der Insassen entscheidet, ist ethisch gesehen genauso fragwürdig, wie die nicht einlösbare Versicherung, er würde die Insassen zuerst schützen. Der Käufer und die Insassen müssen mit der Unsicherheit des nicht einprogrammierbaren Unvorhergesehenen leben und gegebenenfalls sterben. Das Leben der Insassen ist nicht mehr Wert als das der Nichtinsassen. Das Recht des Stärkeren darf nicht gelten. Autonome Fahrzeuge schaffen eine Situation, bei der es letztlich keinen Verantwortlichen gibt.

Auch wenn die Unfallzahlen durch eine vorwiegend oder gar ausschließliche massive Verbreitung von autonomen Fahrzeugen reduziert würden, was sich kaum abschätzen und verwirklichen lässt, bliebe dennoch die Verantwortungsfrage offen. Im Falle von automatisierten Fahrzeugen wäre dies vermutlich nicht der Fall. Sicherheit lässt sich letztlich nicht mit der Aufgabe von Freiheit und Risiko erkaufen.

Vermarkten lassen sich demgegenüber automatische Fahrzeuge und Mobilitätssysteme, die das Risiko von (Todes-)Unfällen, so gut es geht, minimieren. Menschliches Versagen kann nicht ausgeschlossen werden. Algorithmen sind nicht unfehlbar und sie dürfen nicht Menschenleben gegen Menschenleben verrechnen. Ein Fahrzeug, das auf solchen Dilemmata beruht, ist ethisch unhaltbar, denn es stellt die Grundlagen des sozialen Lebens infrage, was wir nicht wollen können.

Flottenmanagement: Laut einer Befragung des Psychologen Jean-François Bonnefon wünscht sich die Mehrheit der 2.000 Teilnehmer ein Fahrzeug mit einem utilitaristischen Programmiercode. Halten Sie das für richtig? Wie sollte das autonome Fahrzeug Ihrer Meinung nach agieren?

Prof. Rafael Capurro: Die Frage ist, was unter einem „utilitaristischen Programmcode“ verstanden wird, denn es gibt verschiedene Varianten des Utilitarismus, wie etwa den Regelutilitarismus, den Handlungsutilitarismus oder den Präferenzutilitarismus. Es gibt auch andere ethische Theorien, wie etwa die Güterethik, die Gerechtigkeitsethik, die deontologische Ethik oder die ökologische Ethik, um nur einige zu nennen. Solche „Programmcodes“ geben dem Fahrzeug einen Schein von Autonomie. In Wahrheit ist es kein Fahrzeug mehr, sondern etwas Gespenstisches, ein technischer Zombie, der Wissen und Verantwortung vorgaukelt. Solche Zombies können gehackt und zu Mordmaschinen missbraucht werden. Die Frage der Sicherheit (security) ist deshalb nicht weniger wichtig als die nach dem Schutz der Insassen und Nichtinsassen (safety).

Flottenmanagement: Wer sollte Ihrer Ansicht nach die Entscheidungen über das Verhalten der autonomen Fahrzeuge treffen? Wie können dabei internationale und interkulturelle Standards geschaffen werden? Was halten Sie in diesem Zusammenhang von der von Minister Dobrindt eingesetzten Ethikkommission?

Prof. Rafael Capurro: Autonome Fahrzeuge treffen keine Entscheidungen und sie verhalten sich auch nicht. Sie folgen Regeln. Erst wenn wir uns begrifflich darüber im Klaren sind, können wir überlegen, ob, wann und wofür solche Fahrzeuge Sinn machen, eine Aufgabe, die die von Minister Dobrindt eingesetzte Ethikkommission übernommen hat. Wir brauchen aber auch eine breite wissenschaftliche und gesellschaftliche Diskussion über die Zukunft der Mobilität. Angesichts der immer weiter zunehmenden Dichte des Verkehrs besonders in Ballungsgebieten und Megacitys sind wir vor große Herausforderungen gestellt, wie es überhaupt gewährleistet werden kann, dass wir uns sowie unsere Güter sicher, flüssig und reibungslos über die Erde bewegen können.

Bei der Frage nach internationalen und interkulturellen Standards im Falle autonomer Fahrzeuge muss es meines Erachtens primär darum gehen, zu überlegen, wo die Risiken höher als die erhofften Vorteile sind. Auf die jeweilige Lebenswelt sowie auf die unterschiedlichen Straßenverkehrsverordnungen basierenden Algorithmen müssen erprobt werden. Das schließt die sofortige Vermarktung von autonomen Zombies aus. Sie können das Vertrauen der Gesellschaft auch in das automatisierte Fahren erschüttern und verhindern, das bisherige Mobilitätssystem besser und sicherer zu machen. Die auch ökonomisch realistische Devise lautet: Fahrer entlasten, nicht ersetzen. Das sei alles mit Vorsicht gesagt. Niemand kann vorausschauen, wie die Zukunft der Mobilität in 20, 50 oder gar 100 Jahren aussehen wird.