Konkret geht es dabei zum Beispiel um die Frage, wie künstliche Intelligenz (KI) in einem autonomen Fahrzeug lenken soll, wenn ein Crash auf jeden Fall unausweichlich ist. In dem Zusammenhang ist dann auch zu entscheiden, wer bei dem Unfall verletzt wird: ein Tier, ein anderer Verkehrsteilnehmer oder die Insassen des betreffenden Fahrzeugs. Diese Situation würde auch viele Menschen in einen Konflikt stürzen.

US-Forscher vom Massachusetts Institute of Technology (MIT) in Cambridge haben nun versucht, herauszubekommen, welche Prioritäten Menschen in einem solchen Fall setzen würden. Sie starteten im Internet unter dem Titel „Moral Machine“ eine Umfrage, die weltweit große Resonanz fand. Deshalb konnten die Wissenschaftler nahezu 40 Millionen Entscheidungen in Dilemma-Situationen auswerten. Allerdings darf die Untersuchung nicht als repräsentativ gelten, weil an ihr unter anderem überproportional viele junge Männer teilnahmen.

Dennoch erwiesen sich die Antworten auf die den Teilnehmern gestellten Fragen als aufschlussreich. So mussten die Probanden auswählen, ob etwa drei ältere Passanten, die bei Rot eine Straße überqueren, bei versagenden Bremsen überfahren werden sollten oder ob der autonome Wagen diese Menschen verschonen und stattdessen das Auto gegen eine Betonwand fahren sollte. Letztere Aktion bedeutete dabei den Tod der Insassen des Wagens, unter ihnen ein Kind. Alles in allem hatten die Teilnehmer an der Umfrage in neun kniffligen Situationen zu entscheiden, zwischen Fahrzeuginsassen und Fußgängern, Männern und Frauen, jüngeren und älteren Menschen etc. Auch Personen mit einem höheren oder niedrigeren sozialen Status standen zur Wahl.

Bei der Auswertung der Antworten machten die MIT-Forscher drei regionale Gruppen aus: In den asiatischen Ländern (östlicher Cluster) tendierten die Teilnehmer an der Erhebung eher dazu, jüngere Menschen nicht zu verschonen. Damit wichen sie von den anderen Gruppen – dem westlichen Cluster (Europa, Nordamerika) und südlichen Cluster (Mittel- und Südamerika) – ab. Das erklären die Wissenschaftler mit dem Respekt, der älteren Menschen in asiatischen Ländern bis heute von der Gesellschaft entgegengebracht wird. Im Vergleich der westlichen und südlichen Cluster fiel auf, dass die Mittel- und Südamerikaner sehr viel öfter in das Geschehen eingreifen würden, als einfach nur Passagier zu bleiben und das Lenken der automatischen Steuerung zu überlassen.

Unterm Strich zeigten sich bei der MIT-Studie „Moral Machine“ einige Abweichungen von den „notwendigen ethischen Leitlinien für das automatisierte und vernetzte Fahren“, die von der deutschen Ethik-Kommission im Auftrag des Bundesverkehrsministeriums erarbeitet und 2017 vorgestellt wurden. Darin heißt es unter anderem, dass Sachschaden immer Personenschaden vorzuziehen sei. Das bedeutet: In Gefahrensituationen hat der Schutz menschlichen Lebens stets höchste Priorität, wie der ADAC erläutert. Daraus ergebe sich für die Programmierung der Systeme, dass in einer sogenannten Dilemma-Situation Tier- oder Sachschäden in Kauf zu nehmen seien, wenn damit Personenschäden vermieden werden könnten, folgert der Verband. In unausweichlichen Unfallsituationen soll laut den Ethik-Leitlinien jedoch jede Qualifizierung von Menschen nach persönlichen Merkmalen – also Alter, Geschlecht, körperlicher oder geistiger Konstitution etc. – unzulässig sein. Ebendies erwies sich in den Entscheidungssituationen der MIT-Studie als nicht realistisch. Eine Aufrechnung von Menschenleben ist nach den deutschen Ethikregeln ebenfalls untersagt.

Grundsätzlich stellt die Kommission in ihren Kernaussagen fest, dass automatisiertes und vernetztes Fahren nur dann ethisch vertretbar sei, wenn die Systeme weniger Unfälle verursachten als menschliche Fahrer. Die Steuerungssysteme sollen demzufolge für eine defensive und vorausschauende Fahrweise programmiert werden.

Links

Den Recherche-Tipp jeden Mittwoch als E-Mail

Hinweise zum Datenschutz: Bei der Anmeldung werden verschiedene personenbezogene Daten erhoben. Personenbezogene Daten sind Daten, mit denen Sie persönlich identifiziert werden können. Die Datenschutzerklärung erläutert, welche Daten wir erheben und wofür wir sie nutzen. Sie erläutert auch, wie und zu welchem Zweck das geschieht. Die Austragung aus unseren Verteilern ist jederzeit mit einer formlosen E-Mail an info@goslar-institut.de möglich.