csm_2017_07_06_Studie_Suetfeld_Uni_Osnabrueck_Autonomes_Fahren_808px_602cd24d89

Im Rahmen einer virtuellen Simulation setzte die Universität Osnabrück Probanden einer unvermeidlichen Crashsituation aus. (Bild: Universität Osnabrück)

Eine auf dem Portal „Frontiers in Behavioral Neuroscience“ veröffentlichten Studie der Universität Osnabrück zeigt, dass sich menschlich-ethische Entscheidungen auch in Maschinen implementieren lassen und autonome Fahrzeuge somit bald moralische Dilemma im Straßenverkehr bewältigen könnten.

Um Regeln oder Empfehlungen definieren zu können sind zwei Schritte notwendig. Als Erstes muss man menschliche moralische Entscheidungen in kritischen Situationen analysieren und verstehen. Als zweiten Schritt muss man das menschliche Verhalten statistisch beschreiben, um Regeln ableiten zu können, die dann in Maschinen genutzt werden können“, erklärt Gordon Pipa, einer der leitenden Wissenschaftler der Studie. Zu diesem Zweck griffen die Forscher auf Virtual Reality-Anwendungen zurück, um Versuchspersonen in simulierten Verkehrssituationen zu beobachten. Im Verlauf der Experimente kam es dabei zu unvermeidlichen Situationen, bei denen Menschen, Tiere oder Objekte als Hindernisse auf den Fahrspuren standen – Die Probanden mussten sich zwischen zwei Spuren der Straße entscheiden, ein komplettes Ausweichmanöver oder eine Vollbremsung waren im Versuchsaufbau nicht vorgesehen.

Die beobachteten Entscheidungen wurden anschließend durch eine statistische Analyse ausgewertet und ein Regel übersetzt. „Das menschliche moralische Verhalten lässt sich durch den Vergleich von einer Wertigkeit des Lebens, das mit jedem Menschen, jedem Tier oder jedem Objekt assoziiert ist, erklären beziehungsweise mit beachtlicher Präzision vorhersagen„, erklärt Leon Sütfeld, der Hauptautor der Studie. „Das zeigt, dass menschliche moralische Entscheidungen prinzipiell mit Regeln beschrieben werden können und dass diese Regeln als Konsequenz auch von Maschinen genutzt werden könnten.“ Diese Erkenntnisse widersprechen den im Juni veröffentlichten Thesen der Ethik-Kommission Automatisiertes und Vernetztes Fahren, in denen die Annahme getroffen wurde, moralische Entscheidungen seien nicht modellierbar.

Ebenso wie das menschliche Gehirn seien künstliche Intelligenzen in der Lage, auf Basis statistischer Abwägungen neue Situationen zu bewerten. „Deshalb müssen die Regeln nicht abstrakt am Schreibtisch durch einen Menschen formuliert, sondern aus dem menschlichen Verhalten abgeleitet und gelernt werden. So stellt sich die Frage, ob man diese nun gelernten und konzeptualisierten Regeln nicht auch als moralischen Aspekt in Maschinen nutzen sollte“, so Sütfeld. Derzeit offene Fragen in der Ethik-Diskussion um autonomes Fahren seien jedoch, so die Studienautoren, welchen Einfluss moralische Werte auf die Richtlinien für maschinelles Verhalten ausüben dürften und inwieweit Maschinen sich (nur) menschlich verhalten sollen.

Sie möchten gerne weiterlesen?