Künstliche Intelligenz gegen Desinformation als Waffe im Cyberwar

Bild: Johann Walter Bantz/unsplash.com

US-Militär will mit KI-System automatisch Desinformation, Beeinflussungskampagnen und Propaganda erkennen

 

Das Militär entdeckt in digitalen Zeiten nicht nur den Cyberwar als neues Kriegsgebiet, sondern auch den Informationsfluss. So hatte sich der ehemalige US-Verteidigungsminister Rumsfeld im Irak-Krieg immer wieder beschwert, dass die Terroristen und Aufständischen medial einen größeren Einfluss haben und Kriege heutzutage weniger auf dem traditionellen Schlachtfeld, sondern durch Verbreitung von Informationen gewonnen oder verloren werden. Er sprach von einer Niederlage im Medienkrieg und versuchte, im Pentagon eine neue Propagandaabteilung zur Beeinflussung der Öffentlichkeit einzurichten, das  Office of Strategic Influence.

Das scheiterte damals noch am Kongress, was sich aber durchgesetzt hat, sind nun Maßnahmen zur Desinformationsbekämpfung, also auch Propaganda oder strategische Kommunikation, die vorgibt, die pure Wahrheit zu verbreiten (Desinformation über Desinformationskampagnen), und die Rede von Information als Waffe – weaponised information („Das Netz muss wie ein feindliches Waffensystem bekämpft werden“).

 

Heute will man mit Künstlicher Intelligenz und Big Data aber den Kampf gegen Desinformation automatisieren. Die US-Luftwaffe hat die KI-Firma Primer den Auftrag gegeben, ein System zu entwickeln, mit dem sich Desinformation in natürlicher Sprache identifizieren lassen soll – und damit auch die Wahrheit oder Richtigkeit von Texten. Das ist wagemutig, schließlich müssen Behauptungen nicht nur erkannt, sondern auch überprüft werden, was maschinelles Lernen aber nur aufgrund von vorgegebenen Daten erlernen kann, was von vorneherein einen Bias mit sich bringen dürfte. Da Desinformation nur immer die anderen verbreiten, es also um gegnerische Desinformation geht, dürfte etwa das Pentagon oder der US-Präsident nicht einbezogen werden. Dann exekutiert die KI nur interessengeleitete Desinformation als vermeintliche Aufklärung.

Anzeige

Primer hat schon vorgebaut und verkündet, dass Cyberwar und Desinformationskampagnen eine größere Bedrohung als ein wirklicher Krieg darstellen, es sei ein „Angriff auf die Wahrheit“. Der gefährlichste Cyberwar sei, unseren Kopf und unsere Glaubenssysteme übernehmen oder hacken zu wollen. Früher hatte man von Memetik gesprochen, eine Idee, die vom Evolutionstheoretiker Richard Dawkins entwickelt wurde. Das war auch schon virologisch gedacht. Das Wirken der Meme, also von bestimmten Gedanken oder Bildern, wird mit Viren verglichen, um die Bereitschaft zur Nachahmung von Verhalten und Einstellungen durch Ansteckung und Epidemien zu erklären.

Die Bereitschaft, das Denken der Menschen als ein System zu denken, das durch Ansteckung, mitunter auch durch gezielt konstruierte Meme oder Informationspakete als Manipulationswaffen, verändert werden kann, setzt voraus, dass Menschen letztlich dumm sind und ein löchriges kognitives Immunsystem haben, wenn sie nicht staatlicherseits geschützt werden. Im Hintergrund steht wohl immer die Vorstellung, dass die Menschen eigentlich auf unserer Seite stehen würden, wenn sie nicht von Gegnern manipuliert werden, weswegen man die Beeinflussung mitsamt der Abwehr perfektionieren müsse. Aber es stimmt, wenn man Desinformation bekämpfen will, müsste man die Wahrheit kennen.

Kann eine KI die Wahrheit kennen, vor allem eine, die in politischen Kämpfen um die Wahrheit  umstritten ist? Primer sagt, dass die KI-Programme große Datenmengen durchsuchen und Trends sowie Muster erkennen können. Man will das in Echtzeit in einem Dashboard aufzeigen, was aber nichts über Wahrheit und Lüge aussagt. Wenn dann der Gründer von Primer, Sean Gourley, sagt, dass „KI-gestützte Desinformation Wahlen und kritische Infrastruktur sowie die grundlegende Wahrheit unserer Nation gestört“ habe, dies aber nur auf „unsere Feinde“ schiebt, dann ist schon klar, dass die beanspruchte Wahrheit nur selektiv sein kann. Desinformation ist Teil eines jeden Wahlkampfs, jeder politischen Auseinandersetzung und Teil jeder Berichterstattung, die kaum je objektiv und neutral ist, sondern aufgrund von bestimmten Informationen eine Situation wie immer sachlich formuliert interpretiert. Eine Ausschreibung der Navy will ein Programm, das Beeinflussungskampagnen und Propaganda in Echtzeit erkennen soll, die Emotionen wie Angst, Furcht, Hass und Abscheu auslösen.

Patrick Tucker von Defense One feiert das Projekt. Hoffentlich könne Primers Technik „die Informationslandschaft überwachen und falsche Narrative identifizieren“.  Das ist vielleicht schon selbst ein falsches Narrativ, aber Tucker fragt sich auch, wie man einem neuronalen Netzwerk lernen könne, glaubwürdige von unglaubwürdigen Behauptungen zu unterscheiden. Er meint, das sei so ähnlich, wie man einem Kind beibringt, glaubwürdige Quellen von unglaubwürdigen zu unterscheiden.

Das ist eigentlich ein schiefes Argument, denn es müsste darum gehen, Informationen als richtig oder falsch einzuordnen, unabhängig von der Vertrauenswürdigkeit der Quelle. Wenn dann das Projekt auf der Einschätzung von Benutzern der Sondereinheiten und der Luftwaffe beruht, welche Informationen vertrauenswürdig sind, wäre das eine Bestätigung einer bestimmten, militärisch oder sicherheitsstrategisch geprägten Weltsicht. Allerdings würde damit Desinformation und Propaganda aus dem eigenen Lager ausgeblendet, da es sich ja um vertrauenswürdige Quellen handelt.

Anscheinend soll die KI anhand der Einschätzungen des militärischen Personals lernen, welche Quellen glaubwürdig sind. Bislang werden Informationen aus Nachrichten, sozialen Medien und anderen verfügbaren Quellen etwa über eine Region oder einen Konflikt automatisch gesammelt und so gruppiert, dass sich erkennen lassen soll, welche Regierungen oder Gruppen was zu einem Ereignis äußern. Das Personal bewertet die Glaubwürdigkeit der Quellen aus seiner Sicht, wodurch das System lernen soll zu unterscheiden, welche Behauptungen eher auf Fakten basieren und welche Quellen anderes sagen. Daraus sollen sich dann Vorhersagemöglichkeiten des Systems entwickeln, die wiederum getestet und bewertet werden.

Ziel soll es sein, eine Nachricht oder eine Behauptung/Äußerung auf einer Richtigkeitsskala auf dem Hintergrund der Glaubwürdigkeit einer Quelle und Informationen anderer mehr oder weniger glaubwürdigen Quellen einzuordnen. Wie das System die Richtigkeit beurteilt, soll sich auch von Menschen zur Überprüfung nachvollziehen lassen.

Der Knackpunkt ist wohl schon alleine bei der Beurteilung der Glaubwürdigkeit von Quellen. Ist die New York Times glaubwürdiger als Fox News, ist eine Regierung glaubwürdiger als eine NGO, sind Inhalte von CNN glaubwürdiger als die auf Facebook? Sind Quellen bei bestimmten Themen glaubwürdig, bei anderen eher nicht? Ist die amerikanische Regierung glaubwürdiger als die deutsche oder die russische. Kommt es darauf an, wer etwa sagt, sind also Personen Quellen? Ist eine Person immer glaubwürdig, egal ob sie einen Artikel in der Washington Post oder etwas auf Twitter schreibt, ein Interview gibt etc. unabhängig vom Thema. Ohne Faktencheck scheint man mit solch einem System zur Erkennung von Desinformation nur einen vorurteilsgeladenen Beurteilungsmechanismus aufbauen zu können.

Aber das ist militärisch wohl weniger ein Problem, weil man da keine selbstreflexiven Erkenntnisse gewinnen will, sondern eine Welt aus Informationen vor sich hat, in der Freund (Richtigkeit) und Feind (Desinformation) klar gegenüberstehen. Sean Gourley, Gründer und Geschäftsleiter von Primer argumentiert entsprechend holzschnittartig. Er unterscheidet schon einmal demokratische Länder und autoritäre Regime. Letztere könnten Lügen zu geringen Kosten verbreiten, weil sie Wählern und demokratischen Alliierten gegenüber nicht verantwortlich seien. Das würde zu einem großen Problem, weil Desinformation im Sinne von „Informationsangriffen so schnell und billig online verbreitet werden könne:

„Es gibt hier eine Asymmetrie. Das ist wie eine IED-Explosion (selbstgebaute Sprengbombe). Man kann sie sehr billig anbringen, aber die Kosten, sich dagegen zu verteidigen, sind sehr hoch.“ Und nachdem er die Situation so dramatisiert hat, dass die USA zum wehrlosen Opfer von autoritären Desinformations-Superspreadern werden, kommt eben die Rettung durch seine Firma: „Das lässt sich durch Menschen nicht lösen. Man geht mit einem Messer in einem Kampf mit Gewehren, wenn man Menschen auf dieses Problem ansetzt.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Weitere Artikel aus