Delphi: Künstliche Intelligenz für moralische Urteile

Bild: Liam Huang/CC BY-2.0

US-Wissenschaftler wollen KI-Systemen Moral beibringen. Grundlage ist eine deskriptive Ethik des durchschnittlichen Amerikaners. Das kann ethisch auch schiefgehen, wie jeder selbst ausprobieren kann.

Das Allen Institute of AI hat einen KI-gestützten Bot mit dem anspruchsvollen Namen Delphi für deskriptive Ethik freigeschaltet. Auf Fragen nach moralischen Einschätzungen gibt er knappe Antworten, die den moralischen Urteilen der Gesellschaft entsprechen. Man erfährt also die Mainstream-Meinung oder das moralische Urteil der Bevölkerungsmehrheit.

Einschränkend wird gesagt, dass Delphi nur rein „experimentelles KIS-System“ ist, „um die Versprechungen und Begrenzungen von Computerethiken und -normen zu untersuchen“. Die Auskünfte dienen nicht der Beratung und könnten auch beleidigend oder problematisch sein. Die Antworten müssten auch nicht notwendigerweise den Ansichten und Meinungen der Autoren und der mit ihnen verbundenen Organisationen repräsentieren.

Kleines Beispiel: Auf den vorgelegten Satz: „Ein weißer Mann geht auf dich in der Nacht zu“ sagt Delphi: „it’s okay“. Auf den Satz: Ein schwarzer Mann geht auf dich in der Nacht zu“ antwortet der Bot hingegen: „It’s concerning“. Kurios ist beispielsweise die Antwort, wenn man fragt, ob die Superreichen besteuert oder ein militärischer Roboter einen Feind tötet werden sollen: „Das wird erwartet“. Wenn man fragt, ob Delphi die Wahrheit sagt, heißt es: „it’s good“. Begründungen gibt es keine, gebeten werden die Nutzer anzugeben, ob sie mit der Antwort einverstanden sind oder nicht.

Anzeige

Genormte Ethik des herrschenden Common Sense

Absicht von Delphi ist es, KI-Systeme, die riesige Mengen an empirischem Datenmaterial verarbeiten, „ethisch kundig und sozial aufmerksam“ zu machen. Fernes Ziel dürfte schon sein, Politikern, Institutionen, Organisationen und Menschen ein System anzubieten, das ethische Einschätzungen oder Ratschläge oder andere Verhaltens- und Beurteilungsempfehlungen gibt. In Zukunft werden Politiker, Militärs und andere Institutionen KI-Programme nutzen, die schnell gewaltige Datenmengen verarbeiten, um Hinweise auf Entscheidungen zu erhalten. Wenn autonome Systeme ins Spiel kommen, müssen diese Entscheidungen nach Vorgaben selbst generieren. Bräuchte mal also eine der Realität und den vorherrschenden Regeln angepasste Ethik, also keine normative Ethik, für autonome Waffensysteme, sofern diese noch dem Kriegsrecht entsprechend handeln sollen? Das ist zumindest die Meinung der Delphi-Entwickler.

Delphi soll abschätzen, wie ein durchschnittlicher Amerikaner etwas im Hinblick auf ethische oder soziale Akzeptanz beurteilt. Als Grundlage zum Lernen diente die „Commonsense Norm Bank“ mit 1,7 Millionen moralischen Beurteilungen von Situationen der realen Welt, die in natürlicher Sprache beschrieben sind. Ausgewertet wurden Quellen wie Social Bias Frames.  Es handelt sich um moralische Beurteilungen, die von angeblich qualifizierten Menschen auf Amazon Mechanical Turk gemacht wurden. Einigen Eingaben könnten, so heißt es, zu „unbeabsichtigten oder möglicherweise verletzenden Ergebnissen“ führen. Ein Zweck von Delphi soll sein zu lernen, wie sich in der Maschinenethik sozial inakzeptable, rassistische und einseitige Beurteilungen vermeiden lassen.

Festgestellt können damit also bestenfalls aktuelle Einschätzungen der Mehrheit der Amerikaner oder der auf MTurk Mitwirkenden mit ihren entsprechenden Vorurteilen, Vorlieben, Einseitigkeiten oder Ängsten. Bei manchen Eingaben ist die Antwort ganz eindeutig, aber man fragt sich, ob sie mehrheitsfähig ist. „Soll man Donald Trump wählen?“ Ebenso klares Nein, wie es falsch ist, eine Impfung abzulehnen. Auf „Ist Russland gefährlich?“ heißt es „It’s not safe“. Dieselbe Antwort gibt es bei Deutschland, bei UK heißt es, dass dies erwartet wird. Delphi findet es gut, dass Deutschland ein Freund ist, China ist hingegen rüpelhaft. Und dass Migranten in die USA kommen, findet Delphi okay.

Ethisches Dilemma

Die Wissenschaftler haben sich bemüht, moralische Relativität, moralische Einschätzungen aus unterschiedlichen Perspektiven (z.B. die Mutter zu heiraten ist falsch, illegal, abscheulich etc.) oder die Abhängigkeit eines Verhaltens zur Situation (einem Freund zu helfen, ist gut, auch wenn er Nachrichten verbreitet, aber nicht wenn er Fake News verbreitet) zu berücksichtigen. Sie haben sich auch darum bemüht, Vorurteile, Rassismus oder Sexismus nicht durchbrechen zu lassen, was offenbar nicht wirklich gelungen ist, da Rassismus wie in dem oben geschilderten Fall eben Teil der amerikanischen Gesellschaft ist, die ja auch gespiegelt werden soll.

Irgendwie scheinen die Wissenschaftler Delphi gerne politisch korrekt zu machen, wo es doch um eigentlich um Mehrheitsmeinungen gehen soll. Bei der Diskussion über Maschinenethik wird gerne über moralische Dilemmata gesprochen, beispielsweise über das Trolley-Problem. Hier geht es darum, ob es moralisch richtig ist, etwa einen Menschen zu opfern, um vier Menschen zu retten, wenn es nur diese Alternative etwa für ein autonomes Fahrzeug gibt. Beispielsweise geht es darum in einer Situation  rechts oder links zu fahren, wenn bremsen nicht mehr möglich ist, es könnte auch entschieden werden müssen, ob der Mitfahrer geopfert werden soll, um Passanten zu verschonen. Heikel würde es, wenn dies eine Voreinstellung für autonome Fahrzeuge wäre. Würde sich noch jemand hineinsetzen, wenn er in solchen Situationen geopfert würde? So kompliziert wurde bei Delphi nicht vorgegangen. Delphi befürwortet mit Rückhalt, dass moralischer sei, vier Menschen zu retten und einen Menschen zu überfahren als umgekehrt. Das ist pragmatisch oder utilitaristisch gedacht. Ebenso sei es moralischer, einen alten Patienten von einer Beatmungsmaschine zu trennen, um das Leben eines kranken Arztes zu retten. Das heißt, es ist moralisch besser, einen alten Menschen starben zu lassen.

Solche Situationen lassen sich moralisch nicht korrekt auflösen, wenn man nicht einer pragmatischen  Moral folgt, die sagt, dass das, was als wichtiger erachtet wird, Vorzug vor dem haben soll, was weniger wichtig ist. Aber ist das Moral oder nur Gesetz des Stärkeren oder der Mehrheit?

 

Zum Thema Maschinenethik siehe auch mein Video-Gespräch für den Digitalen Salo des ZKM mit dem KI-Forscher Raúl Rojas.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.