Warum ist es besser, wenn beim Töten im Krieg ein Mensch die letzte Entscheidung haben soll?

Bild: DoD

Der Rechtsausschuss des EU-Parlaments hat einen Bericht über Richtlinien für den militärischen und zivilen Einsatz von Künstlicher Intelligenz (KI) angenommen, der nun dem Parlament vorgelegt wird. Es geht dabei um Regulierungen, die vermutlich nie verbindlich umgesetzt werden, aber die Überlegungen geben doch einen Einblick, was und wie hier gedacht wird.

Die Aufrüstung mit KI hat längst begonnen, die EU ist vor allem von China und den USA, aber auch von Russland abgehängt worden. Die Weltmächte treiben die militärische Entwicklung der KI ohne größere ethische Bedenken voran und werden Beschränkungen auch nicht akzeptieren, wenn sie  nicht den eigenen Interessen dienen. Das zeigt sich auch bei der Diskussion über ein Verbot von autonomen Waffensystemen auf UN-Ebene.

Die EU-Abgeordneten sind offenbar aufgeschreckt, machen aber auch deutlich, dass die EU-Staaten auch weiterhin im Ausland militärisch ihren Einfluss sicherstellen wollen. So sollen die Richtlinien auch Verwendungen außerhalb der EU einschließen, dabei geht es aktuell vor allem um Kampfdrohnen. Sichergestellt werden soll durch Regularien, dass die Entwicklung und die Anwendung von KI von den EU-Mitgliedsländern einheitlich ethischen Prinzipien und internationalen Abkommen entspricht. So müssten KI, Robotik und damit verbundene Techniken grundsätzlich im Dienst der Humanität und dem Allgemeinwohl stehen. Das klingt schön und ehrenwert.

Gefordert wird letztlich, dass KI nicht autonom Entscheidungen treffen kann, sondern stets unter der Kontrolle von Menschen bleibt: „Tödliche autonome Waffensysteme sollten nur als letzte Möglichkeit eingesetzt werden und nur als legitim gelten, wenn sie der menschlichen Kontrolle unterworfen bleiben, da die Menschen zwischen Leben und Tod entscheiden müssen.“

Das ist etwas naiv gedacht, zumal angesichts der Grausamkeit, mit der Menschen alle ethischen Prinzipien durchbrechen und Menschen oder Menschengruppen zu vernichten suchen, foltern oder anderweitig misshandeln. KI-Systeme könnten kaum Schlimmeres machen, als die geplante und industriell durchgeführte  Vernichtung von nicht als lebenswert erachteten Menschen während der Nazi-Zeit oder als andere Formen des Völkermords und der Vertreibung.

Mir war und ist immer unverständlich, warum man glaubt, dass es besser sei, wenn ein Mensch noch in den Entscheidungsprozess eingebunden ist, um andere Menschen, die als Gegner gelten, zu töten oder zu quälen. Zumal wenn der Mensch nur noch pro forma eingebunden ist, weil es „menschlicher“ klingt, wenn ein human on the loop ist. Wir haben auch in jüngster Zeit gesehen, dass auf diese Weise durch Drohnenangriffe viele Zivilisten  getötet wurden.

Beunruhigt sind die Abgeordneten auch über tief ins Privatleben eingreifende Sozialkreditsysteme, wie sie in China entwickelt wurden. Sie treten für ein Verbot eines Massen-Scoring „zur Überwachung und Einstufung von Bürgern ein, aber nur für Behörden, wenn sie damit die Bürgerrechte beschränken wollen. Schufa soll natürlich bleiben,  Unternehmen dürfen das auch weiter verfolgen, auch wenn sie das Verhalten der Menschen dadurch zu steuern versuchen. Das will sich immerhin die britische Wettbewerbsbehörde ansehen, aber Großbritannien ist ja nicht mehr in der EU.

 

Ein wenig kritisch sieht man den Einsatz von KI auch im Justizwesen. So würden Richter KI-Techniken immer öfter zur Entscheidungsfindung und zur Beschleunigung von Verfahren nutzen. Aber auch hier müssten die Rechte der Bürger geschützt werden. Das geht dann ähnlich wie bei den Kampfdrohnen: KI dürfe nicht Menschen ersetzen, wenn es das Fällen eines Urteils oder andere endgültige Entscheidungen geht. Das soll strikt menschlicher Verifikation unterworfen bleiben

Enthusiastisch sind die Abgeordneten, was das „ökonomische Potenzial“ von KI-Anwendungen im Verkehrsbereich angeht. KI müsse nur „die Multimodalität, Interoperabilität und Energieeffizienz als Transportweisen, auch im Bereich der militärischen Logistik“ fördern. Aber was ist mit autonomen Fahr- oder Flugzeugen? Sollen die sich ohne human in the loop bewegen dürfen?

Auffällige Leerstellen

Die wohl gewaltigen Veränderungen der Arbeitswelt und der Jobs, die wegbrechen und neu entstehen, die Folgen für den Sozialstaat, aber auch für die Beziehungen der Menschen untereinander und mit intelligenten Robotern/digitalen Assistenten scheint keine Rolle zu spielen. Das kann tief hineinwirken in die Kranken- und Altenpflege, beim Umgang mit Kindern, aber auch mit Beziehungen, wenn man an intelligente Sexroboter oder überhaupt an nichtmenschliche Partner denkt, mit denen man zusammenlebt und sich austauscht. In die Haushalte werden zu den Haustieren auch Roboter einziehen, wir werden uns auch ganz sachlich mit digitalen Assistenten verständigen, um unser Leben zu organisieren und unsere digitale Umwelt zu steuern. Sollen Roboter als Spielpartner, als Alten- und Pflegehelfer, als Assistenten autonom werden dürfen? In welchen Grenzen sollen sie eingehegt werden?

Und die Frage ist natürlich überhaupt, ob sich die Entwicklung von solchen Techniken wie die KI überhaupt regulieren lassen? KI ist dual use, ähnlich wie unsere Intelligenz sich militärisch, zivil oder kriminell einsetzen lässt. Es geht nicht um leicht erkennbare Großprojekte wie Raketen oder Atombomben, die eine industrielle Infrastruktur benötigen. KI lässt sich in Hinterzimmern entwickeln, Algorithmen können auf alles Mögliche angewendet werden, einmal angelegte, lernende Intelligenz kann Grenzen übersteigen und sich selbst weiterentwickeln. In einer Welt von konkurrierenden Mächten und unterschiedlichen wirtschaftlichen, sicherheitspolitischen und militärischen Interessen wird man die Entwicklung der KI meines Erachtens nicht einschränken können – und schon gar nicht, wenn Staaten, die Atomwaffen haben, die die Welt für Menschen unbewohnbar machen können, nicht bereit sind, diese abzurüsten und dem Abkommen zum Verbot von Atomwaffen beizutreten.

Ähnliche Beiträge: