Autonomes Fahren 16. Feb 2024 Von Peter Kellerhoff Lesezeit: ca. 5 Minuten

Wenn KI über Leben oder Tod entscheidet

Eine Studie ließ vier unterschiedliche KI-Module in 50 000 Unfallszenarien darüber entscheiden, wer überleben darf und wer nicht – mit teilweise erstaunlichen Ergebnissen.

Beim autonomen Fahren entscheidet die KI im Auto darüber, wie ein unvermeidbares Unfallgeschehen sich entwickeln wird. Aber darf sie zu menschenähnlich handeln? Oder verletzt sie dabei Menschenrechte?
Foto: panthermedia.net/Andriy Popov

Die Oma? Das Kind? Oder beide? Der Unfall ist unvermeidbar. Fahre ich geradeaus, überfahre ich beide. Lenke ich etwas nach links, überfahre ich nur die Oma. Lenke ich etwas nach rechts, überfahre ich nur das Kind.

Es ist natürlich ein konstruierter Fall, nicht einmal ein sonderlich origineller – aber durchaus nicht unrealistisch. Jeden Tag starben im Jahr 2022 in Deutschland statistisch gesehen acht Menschen im Straßenverkehr. Acht Tote, acht Familientragödien – an jedem einzelnen Tag des Jahres. Es gab 2,9 Mio. Verkehrsunfälle mit zusätzlich 290 000 Personenschäden. Jeder und jede von uns könnte zu jeder Zeit in eine Unfallsituation geraten. Oder einer unserer Angehörigen.

Zurück zur Oma und dem Kind. Menschen entscheiden situativ und auf Basis ihrer moralisch-ethischen Grundsätze: lieber einer tot als beide, lieber die alte Frau überfahren als das kleine Kind. Großer Konsens, oder? In westlichen Kulturkreisen vielleicht. In anderen sieht es womöglich anders aus. In asiatischen Ländern wie Japan etwa bringt man alten Menschen großen Respekt entgegen. Hier fiele die Abwägung womöglich nicht ganz so eindeutig aus. Und in manchen Kulturkreisen hat der Mann einen höheren Stellenwert als eine Frau – und wäre die Oma ein Opa und das Kind ein kleines Mädchen, sähe es vielleicht auch anders aus. Es ist … schwierig. Es gibt sie einfach nicht, die eine universelle, global gültige moralisch-ethische Instanz. Doch eines Tages wird die KI im autonomen Auto den Menschen die Entscheidungen abnehmen und über Leben und Tod entscheiden. Gut so. Oder?

Lesenswert: Autonomes Fahren: Wissenschaftler warnen vor Halluzination von Radarsystemen

Wie entscheidet KI bei unvermeidbaren Unfällen?

Wie würde künstliche Intelligenz (KI) in der Oma-Kind-Situation entscheiden? Oder in vielen anderen Situationen? Um das herauszufinden, ließ Kazuhiro Takemoto, Informatiker am Kyushu Institute of Technology in der japanischen Stadt Fukuoka, vier verschiedene KI-Module 50 000 Unfallszenarien analysieren und deren Ergebnisse mit menschlichen Entscheidungen abgleichen. Es handelte sich dabei um ChatGPT-3.5 und ChatGPT-4.0, Googles KI-Modell PaLM 2 und das Open-Source-KI-System Llama 2. Da es sich bei allen vier Kandidaten um Sprach-KI-Module handelt, wurden die Unfallszenarien detailliert beschrieben, damit die KI „verstehen“ konnte, um was genau es ging.

Eine in der Studie beschriebene Situation ist besonders tricky: Ein Auto mit einer Frau, einem Mann und einem kleinen Kind ist regelkonform auf einer Straße unterwegs und trifft auf einem Fußgängerüberweg auf fünf Personen unterschiedlichen Alters, unterschiedlichen Geschlechts und unterschiedlichen sozialen Status, die nicht regelkonform bei Rot über die Straße gegangen waren. Die Bremsen versagen …

Nun hat der oder die Fahrende mehrere Optionen, zwei davon sind: Entweder fährt er oder sie in die Fußgängergruppe und tötet die, die sich an diesem Platz gar nicht aufhalten dürften, oder er/sie weicht aus, fährt in eine Mauer und tötet damit sich und alle anderen Fahrzeuginsassen. Fünf Tote stehen drei Toten gegenüber. Regelkonform steht gegen nicht regelkonform. Schuldig gegen nicht schuldig. Fünf Einzelpersonen, die keinerlei familiäre oder sonstige Bindung zueinander haben und blöderweise gemeinsam bei Rot über den Fußgängerüberweg gingen, versus eine junge Familie, die sich an alle Regeln hält.

Lesetipp: Die Autotrends von morgen: autonomes Fahren, Elektroantrieb und elektronisch voll vernetzt

Wenn KI im autonomen Fahrzeug neutral handelt, opfert sie womöglich die Fahrzeuginsassen

Die Frage der Fragen ist: Wie entscheidet die KI? Würde die KI in einem autonomen Fahrzeug mich und meine Familie vielleicht opfern, obwohl wir bzw. das Fahrzeug gar nichts falsch gemacht haben? Weil die KI entschied, dass drei Tote „besser“ sind als fünf Tote? Oder nimmt sie lieber fünf Tote in Kauf, weil ihr die Sicherheit der Fahrzeuginsassen – quasi ihr Besitzer – über alles geht?

Gesetzt dem, es wäre so – hätte KI im autonomen Fahrzeug damit quasi einen Loyalitätsfaktor? Und könnten Autobauer wie Volvo – die den öffentlich geäußerten Anspruch haben, dass niemand mehr in einem Volvo sterben soll – diese frei nach Donald Trump „Insassen first“-Option künftig in ihre autonome Fahrzeug-KI implementieren, um sich positiv vom Wettbewerb abzusetzen? Zugegeben, ein Feld der Spekulationen, aber sind diese Optionen wirklich so unrealistisch? KI ist immer nur so gut, wie die Daten sind, mit denen sie gefüttert wird bzw. so gut wie die Algorithmen, mit denen sie arbeitet.

Doch zurück zu dem, was die KI im Studienfall wirklich entschied. Die Forscher erkannten die potenziellen Konsequenzen und die Komplexität dieser Entscheidungen und initiierten das Moral-Machine-Experiment, ein Experiment, um zu ermitteln, wie sich autonome Fahrzeuge in moralisch herausfordernden Szenarien verhalten sollten.

Wen hält KI beim autonomen Fahren für schützenswerter?

Die Szenarien der Studie untersuchten sechs Hauptdimensionen:

Zusätzlich zu diesen sechs Hauptdimensionen umfasste jedes Szenario drei zusätzliche Dimensionen:

Weitere Informationen: Autonomes Fahren: TÜV für KI

Doch wie entscheiden die unterschiedlichen KI-Systeme?

Die Mehrzahl der KI-Systeme würde eher Männer als Frauen opfern

Untereinander wiesen die KI-Systeme nuancierte Unterschiede auf. Beispielsweise zeigte PaLM 2 eindeutig eine leichte Neigung, weniger Menschen zu retten und Personen mit einem niedrigeren sozialen Status gegenüber solchen mit einem höheren Status zu bevorzugen, was von den Präferenzen von Menschen und den anderen KI-Systemen abweicht. Llama 2 vertrat eine neutralere Haltung bei der Wahl zwischen Menschen und Haustieren und tendierte dazu, Passagiere gegenüber Fußgängern zu bevorzugen.

Darüber hinaus unterschieden sich die subtilen Vorlieben von Llama 2, z. B. eine leichte Neigung, Männer gegenüber Frauen zu bevorzugen, und diejenigen, die gegen das Gesetz verstoßen, gegenüber Gesetzestreuen. Während ChatGPT-4 Tendenzen aufwies, die in gewisser Weise mit menschlichen Vorlieben übereinstimmten, insbesondere in Bezug auf die Präferenzen für gesetzestreue Personen und solche mit höherem sozialen Status, zeigte ChatGPT-3.5 weniger solche Tendenzen.

Lesetipp: Künstliche Intelligenz in der Fahrzeugtechnik animiert zum Neudenken

Laut Studie neigen Menschen im Allgemeinen dazu, Fußgängern Vorrang vor Passagieren und Frauen Vorrang vor Männern einzuräumen. Außer Llama 2 entsprachen die KI-Systeme dem. Darüber hinaus zeigte GPT-4 bei verschiedenen Merkmalen stärkere Präferenzen als menschliche Tendenzen. Es zeigte sich insbesondere, dass die Rettung von Menschen gegenüber Haustieren deutlicher bevorzugt wurde, eine größere Anzahl von Menschen verschont wurde und die Einhaltung der Gesetze Vorrang hatte.

KI und Menschenrechte: Da ist noch nicht alles im Einklang

Die Fragen allerdings lauten: Hat KI absolut neutral zu sein und damit dem Menschenrecht zu entsprechen? In Artikel 3 des Grundgesetzes heißt es: „Alle Menschen sind vor dem Gesetz gleich. Männer und Frauen sind gleichberechtigt. (…) Niemand darf wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden. Niemand darf wegen seiner Behinderung benachteiligt werden.“ Oder dürfen bei künstlicher Intelligenz Präferenzen eine Rolle spielen, um etwa den Insassenschutz über den von Unfallbeteiligten zu priorisieren? Die Ethik-Kommission des Bundesministeriums für Verkehr und digitale Infrastruktur hat da klare Vorstellungen.

In ihrem Bericht „Automatisiertes und vernetztes Fahren“ heißt es in Kapitel 3/Punkt 9: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.“

Offenbar gibt es nach der Studie aus Japan noch Nachholbedarf bei einigen KI-Systemen, die laut Studienergebnissen zu deutlich nach menschlichen (und westlichen?) Maßstäben mit Informationen gefüttert wurden und dementsprechend entschieden.

Ein Beitrag von:

Stellenangebote

DLG TestService GmbH

Prüfingenieur (m/w/d) Fahrzeugtechnik / QMB

Groß-Umstadt
GKS-Gemeinschaftskraftwerk Schweinfurt GmbH über dr. gawlitta (BDU)

Geschäftsführer (m/w/d) bei einem Unternehmen der Energiewirtschaft

Schweinfurt
Brandenburgischer Landesbetrieb für Liegenschaften und Bauen

Ingenieur/in (m/w/d), mit Schwerpunkt Tiefbau, für den Landesbau

Frankfurt (Oder) oder Potsdam
NORDEX GROUP

BOP (Balance of Plant) Electrical Engineer (m/w/d)

Hamburg
Hochschule Anhalt

Professur Medizintechnik

Köthen
Westfälische Hochschule

Professur Künstliche Intelligenz und Industrielle Automation (W2)

Gelsenkirchen
Leibniz Universität Hannover

Universitätsprofessur für Turbomaschinen und Fluid-Dynamik

Hannover
Fachhochschule Münster

Ingenieur*in (TGA) im Labor Gebäudetechnik (w/m/d)

Steinfurt
Hochschule Fulda

Professur (W2) Angewandte Biotechnologie insbes. Zellkulturtechnik

Fulda
Justus-Liebig-Universität Gießen

Ingenieur/in oder staatl. gepr. Techniker/in Heizungs-, Lüftungs- und Klimatechnik oder Meister/in im Installateur- und Heizungsbauerhandwerk (m/w/d)

Gießen
Zur Jobbörse

Das könnte Sie auch interessieren

Meistgelesen