„Soll das Auto Kind oder Oma überfahren?“
Der Fraunhofer-Forscher Ilja Radusch fordert Industrie, Politik und Gesellschaft auf, ethische Aspekte bei selbstfahrenden Autos zu bedenken. Schließlich sollen die autonomen Maschinen auch in komplexen Gefahrenlagen gut und richtig agieren.
VDI nachrichten: Herr Radusch, Sie sagen, die Entwicklung autonomer Fahrzeuge fordere nicht nur die Automobilindustrie heraus, sondern die ganze Gesellschaft. Warum?
Ilja Radisch: Da kommen jetzt Fahrzeuge in den Verkehr, in denen kein Fahrer sitzt. Stattdessen sind es Maschinen, die handeln. Ein Fahrstuhl ist auch selbstständig. Ich drücke auf den Knopf, gebe einmal den Befehl, in die sechste Etage zu fahren, und was danach passiert, geschieht ohne mein Zutun. Beim Fahrstuhl sorgen wir durch Gitter dafür, dass hier beispielsweise keine Kinder spielen können.
- forscht gemeinsam mit der Automobilindustrie an autonomen und vernetzten Fahrzeugen und rückt dem Auto der Zukunft mit Algorithmen und kritischen Fragen zu Leibe.
- ist Leiter des Geschäftsbereichs Smart Mobility am Fraunhofer-Institut für Offene Kommunikationssysteme (Fokus) in Berlin und Leiter des Daimler Center for Automotive Information Technology Innovations (DCAITI) an der TU Berlin. Am DCAITI arbeiten Wissenschaftler der Uni mit Ingenieuren von Daimler an Forschungsprojekten in der Automobilelektronik.
- ist 39 Jahre alt und hat an der TU Berlin in Informatik promoviert.
- setzt privat auf elektrische Antriebe und fährt E-Smart.
Aber wir können um die selbstfahrenden Fahrzeuge keinen Zaun bauen, der die ganze Zeit mitfährt. Die Frage ist jetzt: Wie gehen wir damit um? Wie sollen sich diese autonomen Maschinen auf der Straße verhalten? Dazu brauchen wir einen Handlungsrahmen, eine Ethik.
Beim Stichwort Ethik denkt man an Begriffe wie Moral, Werte, gutes und schlechtes Handeln. Brauchen autonome Autos tatsächlich eine Ethik?
Ja, absolut. Besonders deutlich wird das an einer Dilemmasituation. Stellen Sie sich vor: Ein Kind rennt vor einem autonomen Fahrzeug auf die Straße, denn auf der anderen Seite steht die Oma. Ein Unfall ist unvermeidbar und die Software im Auto muss sich entscheiden: Soll das Auto das Kind oder die Oma überfahren? Dieses Dilemma ist natürlich ein Konstrukt. Aber wir hatten gerade bei Google den ersten offiziellen Unfall mit einem Bus, den ein Fahrzeug im selbstfahrenden Zustand verursacht hat.
Das Auto entscheidet, wem es Schaden zufügt?
Nein, denn die Software im Auto muss ja programmiert werden. In der Softwareentwicklung sprechen wir hier von einer implementierbaren Ethik. Nur um das klarzustellen: Wir sind heute in der Sensorik noch nicht so weit, dass Autos zwischen jungen und alten Menschen unterscheiden könnten. Wir sind schon froh, wenn der Fußgänger, der sich Richtung Auto bewegt, erkannt wird. Aber wir sollten nicht abwarten, bis ein gravierender Unfall passiert und die Bevölkerung sich aufregt: Warum hat es denn das Kind überfahren? Es hätte doch lieber die Oma überfahren sollen. Das können wir mit der Technik von heute gar nicht entscheiden. Aber wir stünden plötzlich vor der Frage: Wollen wir in unsere Autos tatsächlich eine Metrik einbauen, die eine Hierarchie über Bevölkerungsgruppen implementiert? Ich denke, sicher nicht.
Wie gehen wir als Gesellschaft denn aktuell damit um, wenn ein Autofahrer in eine vergleichbare Situation gerät?
Wir haben in der geltenden Rechtsprechung schon eine pragmatische Lösung. Das Grundprinzip: Bevor ich Unbeteiligten oder auch mir selbst einen erheblichen Schaden zufüge, darf ich dem Unfallverursacher den Schaden zumuten. Wenn mir jemand die Vorfahrt nimmt, darf ich nicht ausweichen und im Gegenverkehr einen Unfall verursachen. Das gilt auch, wenn mir ein Mensch vors Auto läuft.
Sie arbeiten jetzt als Forscher an der Entwicklung von Fahrzeugen, die sich in den Verkehr integrieren und perspektivisch, ab 2025, das Ruder übernehmen sollen. Werden diese intelligenten, hochvernetzten Maschinen den Handlungsraum Straße verändern und vielleicht ganz neue ethische Fragen aufwerfen?
Ich denke, ja. Und wir sind gar nicht so weit davon weg. Auch dazu eine Dilemmasituation: Sie fahren mit einem autonomen Fahrzeug auf der Landstraße und plötzlich schießt ein Radfahrer auf Sie zu. Die Situationsanalyse der Software stellt fest: Sie bauen gleich einen Unfall. Die Software weiß aber auch: Sie können den Radfahrer schützen, indem Ihr Auto abdreht und dabei mit geringer Geschwindigkeit gegen einen Baum fährt. Airbags und Sicherheitsgurte im Auto sind gut – Sie und die Insassen kommen mit einem Schrecken davon. Ihr Auto ist natürlich beschädigt.
Mit den autonomen Maschinen kommen auch neue Handlungsmöglichkeiten. Wenn wir über eine implementierbare Ethik sprechen, müssen wir also klären: Soll sich mein Fahrzeug selbst zerstören, um andere zu schützen?
Erste teilautomatisierte Fahrzeuge sollen spätestens 2020 auf den Markt kommen. Welche praktischen Erfahrungswerte gibt es heute schon?
Man merkt jetzt schon bei den ersten Fahrversuchen, die gelaufen sind, dass die Autos grundsätzlich sehr defensiv eingestellt sind. Die halten eher mal an, als dass sie durchfahren. Es gibt nun aber Situationen an Engstellen, wie an einem Kreisverkehr, da muss man als Autofahrer auch mal einen „Leap of Faith“ machen und losfahren. Denn wenn man alle anderen Autos artig vorlässt, wartet man selbst bis zum Sankt-Nimmerleins-Tag.
Die Sensorik im Auto weiß nur, wenn dieser Laster da vorne nicht gleich anhält, dann stoßen wir zusammen. Als Mensch weiß ich, der Laster wird schon anhalten, denn jetzt bin ich dran – und dann fahr ich los. Für den Entwickler ist das eine Herausforderung. Denn offensichtlich müssen wir autonomen Autos für solche Situationen etwas Mut beibringen.
Wie stark wird das Handeln im Straßenverkehr durch das bloße Befolgen von Regeln bestimmt? Und wie viel hängt davon ab, dass man freiwillig Rücksicht nimmt oder auch mutig losfährt?
Offizielle Regel ist natürlich, dass die Straßenverkehrsordnung mein Handeln zu 100 % abdeckt. Da steht dann auch, Rücksichtnahme ist oberstes Ziel. Wenn man sich aber den Verkehr anschaut, gibt es auch viele Grauzonen, beispielsweise bei der Geschwindigkeitsbegrenzung. In Städten wird eher 60 km/h statt 50 km/h gefahren.
Google erlaubt seinem Fahrzeug deshalb einen bestimmten Bereich der Geschwindigkeitsüberschreitung, um im Verkehrsfluss mitschwimmen zu können. Grundsätzlich gehen wir davon aus, dass die fahrerlosen Fahrzeuge sich an die StVO halten sollen. Dieses Mitschwimmen ist dann aber eine Rechtsverletzung.
Die Frage ist jetzt: Würde es die Gesellschaft eher akzeptieren, wenn sich autonome Fahrzeuge nur an die StVO halten und dann potenzielle Verkehrshindernisse sind. Oder akzeptiert sie, dass sie sich wie der Mensch in Teilen nicht daran halten. Auch das ist wieder ein Teilaspekt der Ethik.
Wie geht man das Thema implementierbare Ethik bei Fahrzeugherstellern wie Daimler an?
Daimler hat diese Fragestellung schon mit der aktuellen E-Klasse, die seit dem letzten Wochenende verfügbar ist, aufgegriffen. Bei Funktionen wie dem Staufolgefahren kann der Fahrer auf der Autobahn hier schon mal für längere Zeit die Hände vom Lenkrad lassen, aber er muss den autonomen Vorgang überwachen. Wir haben also noch keine scharfen Bedingungen für eine implementierbare Ethik, sondern eine Art Testfeld.
Aber die Folgen einer noch nicht angestoßenen Diskussion, die könnten wir schon mit teilautomatisierten Autos erleben, wenn nämlich ein Unfall passieren sollte, während gerade kein Mensch am Steuer war.
Es wäre fatal, wenn das Ergebnis einer offenen Diskussion wäre, dass die Gesellschaft diese autonomen Fahrzeuge dann ablehnt. Dazu haben die Hersteller schon zu viel investiert. Auch deshalb sollte man frühzeitig und proaktiv darüber reden, damit man zeitnah zu einem Handlungsrahmen kommt.
Welche Rolle spielt die Politik dabei?
Von der Entwicklungsseite erhoffen wir uns vom Bundesverkehrsministerium oder Bundesjustizministerium klare Handreichungen. Wir sehen natürlich die Schwierigkeit, wenn man autonomen Fahrzeugen beispielsweise erst mal einräumt, dass sie 10 km/h schneller fahren dürfen als Menschen. Wenn sich später herausstellt, dass 5 km/h besser sind, wäre das übrigens kein Problem.
Aber der Entwickler braucht tatsächlich einen Grenzwert. Das kann ein Prozentwert sein, das kann ein absoluter Wert sein, aber er muss in seine Software etwas Konkretes reinschreiben.
Haben Sie generell den Eindruck, dass die Hersteller und die Politik die ethischen Dimensionen des Themas ausreichend im Blick haben?
Das Bundesverkehrsministerium hat einen runden Tisch „Automatisiertes Fahren“ einberufen, um einen Diskurs mit der Fachwelt zu starten.
Ich denke, es wird hier im Laufe der Zeit auch Aktivitäten geben, um breitere Kreise mit einzubeziehen. Wir müssen auf jeden Fall darauf aufmerksam machen, dass da etwas mit dem Auto passiert, über das man sich eine Meinung bilden muss. Wir Entwickler haben hier nicht die letzten Antworten, sondern das sind Fragen, die wir an die Gesellschaft stellen. Ich sehe hier nicht nur die Politik an vorderster Front. Diese Ethik ist eine gesamtgesellschaftliche Aufgabe.
Und, wird das autonome Fahrzeug künftig elektrisch fahren?
Sagen wir so: Ich denke, das selbstfahrende Auto könnte der E-Mobilität durchaus auf die Sprünge helfen. Weil es sich dann ganz autonom – und ohne dass ich dabei sein muss – die nächste Ladesäule suchen kann.
Verraten Sie, was für ein Auto Sie fahren?
Ich fahre seit ein paar Jahren einen E-Smart und bin hier in Berlin schon heute recht gut elektrisch unterwegs.