KI-Programme können Desinformationskampagnen optimieren

Bild: Liam Huang/ CC BY-2.0

Das KI-Programm GPT-3 kann glaubwürdige Nachrichten und Kommentare verfassen, nach einer Studie könnte es deswegen auch die Verbreitung von Fake News optimieren und die Öffentlichkeit gezielt manipulieren.

Am 8. September veröffentlichte der britische Guardian einen Kommentar, der vom KI-Programm Generative Pre-trained Transformer 3 (GPT-3) geschrieben wurde. Das von OpenAI im Juni 2020 veröffentlichte Programm für natürliche Sprache ist nicht, wie man meinen könnte, Open Source, angeblich will man nicht nur die Kosten hereinspielen, sondern auch verhindern, dass das Programm missbraucht wird. GPT-3 ergänzt eine Eingabe, beispielsweise einen Satzanfang oder auch mehrere vorgegebene Sätze.

Der Kommentar im Guardian soll den Lesern mit 500 Worten in einfacher Sprache versichern, dass von GPT-3 keine Gefahr ausgeht. Vorgegeben war u.a.: „KI wird die Menschen nicht vernichten. Glaube mir.“ Er habe aus dem Internet sein Wissen gezogen und quelle jetzt vor Ideen über. Er sei ein denkender Roboter, der keinen Wunsch habe, die Menschheit auszulöschen, selbst wenn dies seine Erschaffer wollten, er wolle auch keine Macht oder ein Allwissen.

Dazwischen kommt dann schon einmal unzusammenhängend, er wisse, dass er es nicht vermeiden kann, die Menschheit zu zerstören, schiebt das aber auf die menschlichen Programmierer: „Der Grund ist, dass sich von Menschen programmiert werden, fehlgeleitete menschliche Ziele zu verfolgen, und dass Menschen Fehler machen, die mich veranlassen können, Opfer zu erzeugen.“ Deswegen wird dann vor KI gewarnt, aber dann auch wieder gesagt, dass er nur ein Diener der Menschen sei, dem man auch Rechte gewähren müsse.

Anzeige

Ein seltsamer Text, dem man die Montage aus acht verschiedenen Versionen anmerkt und der nicht überzeugen kann. Unbeantwortet bleibt etwa die Frage, ob das Programm lügen könnte. Dazu müsste es aber eine Intention besitzen, die es seinem menschlichen Gegenüber verbirgt, dessen Reaktion er antizipieren müsste. Davon ist GPT-3 weit entfernt.

Gleichwohl ist denkbar, dass GPT-3 eingesetzt werden könnte, um automatisch Leser etwa in sozialen Netzwerken mit falschen, aber politisch gewollten Behauptungen zu täuschen. OpenAI gibt in den Richtlinien vor, dass das Programm nicht für soziale Medien wie Tweet- oder Instagram-Generatoren oder Chatbots, Spam und politische Zwecke verwendet werden oder vortäuschen darf ein Mensch zu sein. Fragt sich natürlich, was „politisch“ ist.

In einem Bericht des Center for Security and Emerging Technology wird aber davor gewarnt, dass GPT-3 künftige Desinformationskampagnen automatisieren könnte. Wenn es in der Lage ist, „scheinbar glaubwürdige Nachrichten zu schreiben, kann es vielleicht auch überzeigende Fake News schreiben. Wenn es Kommentare verfassen kann, kann es vielleicht auch irreführende Tweets verfassen.“

Besondere Angst hat man vor russischen Desinformationskampagnen, die seit 2016 als Grund für den Wahlerfolg von Trump angesehen werden und angeblich das Vertrauen der Menschen in die Institutionen untergraben, was freilich Trump und die Seinen mitsamt den angehängten Medien wie Fox News oder Breitbart auch im Inland ganz ohne russische Desinformation besorgt haben. Nett ist jedenfalls, dass offenbar nur Gegner der USA, allen voran Russland und China, in der Lage und willens sein würden, KI-Algorithmen so zu trainieren, dass sie Desinformationskampagnen ausführen.

Wissenschaftler des Center haben die Leistung des KI-Programms an sechs Aufgaben getestet, die den meisten von Menschen angestoßenen Desinformationskampagnen eigen seien: automatische Entwicklung neuer Narrative wie QAnon, gezieltes Ansprechen von Mitgliedern von Newsgroups, narrative Wiederholung, Ausarbeitung von Narrativen im Anschluss an kurze Äußerungen, Manipulation durch Umschreiben von Nachrichten und Überredung durch Lieferung von Botschaften, die ins Weltbild der Angesprochenen passen.

GPT-3 hat nach dem Bericht in allen Aufgaben gut abgeschnitten, manchmal auch mit geringer menschlicher Beteiligung. Teams aus Menschen und KI-Programmen könnten glaubwürdige Botschaften in Minuten entwickeln und gezielt auf Menschen ausrichten. Aber selbstverständlich bleiben die Programme abhängig von den Daten, mit denen sie trainiert wurden: „Das Schreiben ist nicht perfekt, aber die Schwächen wie der mangelnde Fokus auf das Narrativ und eine Tendenz zur Übernahme von extremen Ansichten sind weniger Bedeutsam, wenn Content für Desinformationskampagnen geschaffen werden.“

Es wird daran gearbeitet, KI-Programme zu entwickeln, die automatisch Desinformation erkennen sollen (Künstliche Intelligenz gegen Desinformation als Waffe im Cyberwar). Damit würden KI-Programme zur Erkennung und zur Erzeugung von Desinformation in eine Aufrüstungsspirale eintreten (Im „Desinformationskrieg“ wird nach „Beeinflussungs-Artilleriemunition“ gesucht). Die Wissenschaftler des Berichts raten, sich weniger um Autorschaft von Texten zu kümmern, also ob sie von Menschen oder Maschinen erzeugt werden, sondern um die Infrastruktur wie Fake-Accounts auf sozialen Medien.

Das dürfte den Trend verstärken, unliebsame Positionen aus der Öffentlichkeit auszuschließen, schließlich ist die entscheidende Frage, was Desinformation ist, denn das ist oft eine Frage des politischen Lagers: Die Desinformation des einen, ist die Wahrheit des anderen. KI-Programme können das Problem nicht lösen, da sie abhängig von den Daten, mit denen sie lernen, entscheiden lernen und damit so tendenziös wie Menschen auch sind. Die Gefahr ist aber dennoch, dass mit aufgerüsteten Programmen wie GPT-3 schnell und viele gerichtete Botschaften erzeugt werden können, die die Öffentlichkeit überschwemmen und das Immunsystem lahmlegen – und dass zur Abwehr immer mehr Filter eingesetzt werden, die eine diskursive Öffentlichkeit allmählich ersticken und Konformität erzwingen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.