Künstliche Intelligenz und Desinformation: Risiko oder Chance? 

von weitklick-Redaktion | 16.10.2023

Auf meine Merkliste

Blog KI und Desinformation
© Rob Hampson | pexels

Von ChatGPT einen Text für eine Geburtstagskarte schreiben lassen oder in immer weiter automatisierten Autos fahren – Künstliche Intelligenz (KI) hält mehr und mehr Einzug in unser Leben. Und sie lässt sich immer einfacher durch alle nutzen. Das erleichtert den Alltag, birgt aber auch Gefahren.

Eine der größten Bedrohungen stellt der Einfluss von KI auf die politische Meinungsbildung dar. Aus einer repräsentativen Forsa-Umfrage geht hervor, dass 51 Prozent der deutschen Bevölkerung zwischen 16 und 75 Jahren in generativen KI-Anwendungen wie ChatGPT eine Gefahr für die Demokratie sehen. 61 Prozent fürchten das Risiko, ohne ihr Wissen manipuliert zu werden.

Und diese Ängste sind berechtigt, wie konkrete Beispiele beweisen: Deepfakes lassen täuschend echt aussehende Kopien von realen Personen in Videos frei erfundene Dinge sagen. So schien es zuletzt so, dass Tom Hanks für eine Zahnvorsorge werben würde. Der AfD-Politiker Norbert Kleinwächter nutzt auf seinem Instagram-Kanal unter anderem Bilder, die von einer KI erstellt wurden. Zu sehen sind dort unter anderem aggressiv wirkende Menschen, die Vorurteile von gewaltbereiten Geflüchteten verstärken.

Künstliche Intelligenz überzeugt besser


Aber wie lässt sich erkennen, ob ein Bild echt ist? Woran sieht man, ob der Papst wirklich eine Daunenjacke getragen hat oder Donald Trump von Polizisten verhaftet wurde? Den Wahrheitsgehalt von Informationen im Netz einzuschätzen und zu überprüfen, ist nicht einfach. Und es wird noch schwerer, wenn Künstliche Intelligenz ins Spiel kommt.

Das bestätigt auch eine Studie der Universität Zürich: Die Forschenden ließen rund 700 Personen verschiedene Tweets bewerten. Sie waren zum Teil von einer Künstlichen Intelligenz verfasst, zum Teil von realen User*innen. Darüber hinaus enthielten die Beiträge teilweise Fakten, teilweise Lügen. Das Ergebnis: Die Teilnehmenden konnten nicht zuverlässig unterscheiden, ob Tweets von einer KI oder einer realen Person stammen. Sie stuften KI-generierte Texte sogar häufiger als von Menschenhand geschrieben ein als diejenigen, die tatsächlich von realen Personen getextet waren. Zudem war die Wahrscheinlichkeit bei den KI-generierten Texten um drei Prozent erhöht, dass die Befragten auf falsche Inhalte hereinfallen. Das klingt zwar zunächst nicht viel. Aber wenn Desinformationen durch Künstliche Intelligenz auch nur ein bisschen glaubwürdiger wirken, kann das bei der großen Menge an veröffentlichten Beiträgen einen maßgeblichen Unterschied machen und die Gesellschaft beeinflussen.

Eine weitere Erkenntnis aus der Studie gibt aber auch Hoffnung: Auch wahre Informationen überzeugen nämlich besser, wenn sie von einer KI formuliert sind. Das bedeutet, dass die Teilnehmenden diese eher als wahr einstuften als inhaltlich korrekte Tweets von echten Menschen. Künstliche Intelligenz ist mit Blick auf die Verbreitungsmöglichkeiten von Informationen also nicht an sich gut oder schlecht. Es kommt darauf an, sie auf die richtige Weise zu nutzen. Und sie zu verstehen, damit sie uns nicht täuschen kann.

Die Verbreitung von Desinformation durch Künstliche Intelligenz eindämmen 


Um den Gefahren von Künstlicher Intelligenz umfassend entgegenzuwirken, können gesetzliche Regelungen helfen. 86 Prozent der EU-Bürger*innen sind der Ansicht, dass die Politik mehr tun müsse, damit sich Desinformation nicht so gut verbreiten könne. In der o.g. Forsa-Umfrage forderten 91 Prozent der Bevölkerung einen rechtlichen Rahmen durch den Gesetzgeber, der einen sicheren Einsatz von KI gewährleistet.  

Eine entsprechende EU-Verordnung wird gerade erarbeitet. Sie sieht nach aktuellem Stand unter anderem vor, KI-Anwendungen nach ihrem Risiko für die Gesellschaft zu klassifizieren und dementsprechend entweder zu verbieten oder die Nutzbarkeit zu regulieren. Generative Anwendungen wie ChatGPT sollen demnach zwar erlaubt sein, die Hersteller müssen aber die Risiken ihrer Produkte bewerten. Außerdem soll die Verordnung sicherstellen, dass Künstliche Intelligenz nicht auf verzerrte Datensätze zurückgreift und so Diskriminierung reproduziert.  

Auch die KI-Unternehmen stehen in der Verantwortung. Ein möglicher Ansatz besteht darin, dass sie durch Wasserzeichen Transparenz schaffen. Diese würden die Herkunft von Inhalten eindeutig kennzeichnen, die durch Künstliche Intelligenz generiert wurden. 

Darüber hinaus kann auch Künstliche Intelligenz selbst zur Lösung des Problems beitragen. Das vom Bund geförderte Forschungsprojekt „DeFaktS“ hat zum Ziel, ein KI-Modell so zu trainieren, dass es Desinformation wahrnimmt und davor warnt. Hat die Anwendung einen Fall von Desinformation erkannt, soll sie zudem erläutern können, warum es sich hier um eine falsche Information handeln könnte. Auch das Projekt „noFake“ setzt sich dafür ein, die automatische Erkennung von Falschnachrichten zu optimieren und die Verbreitung so zu beschränken. Dabei soll ein Assistenzsystem große Datenmengen sichten, verdächtige Inhalte zuverlässig vorsortieren und Verbreitungswege aufzeigen, um diese schnell auf ihre Glaubwürdigkeit prüfen zu können. 

Kritisch bleiben und genau hinsehen


Um festzustellen, ob ein Text, Bild oder Video mit KI erstellt wurde, lohnt es sich, die Details näher in den Blick zu nehmen. Bei Bildern weisen beispielsweise sogenannte Artefakte auf den technischen Ursprung hin. Es handelt sich dabei um Teile eines künstlich generierten Bildes, die nicht echt aussehen. Das können zum Beispiel Hände, Ohren oder Münder sein, die nicht zum Rest des Bildes passen – etwa, weil sie ein wenig verzerrt sind oder nicht dem Alter der abgebildeten Person entsprechen. Auf einem der oben erwähnten Bilder von AfD-Politiker Norbert Kleinwächter hat eine Hand zum Beispiel sechs Finger. Über eine Bilder-Rückwärtssuche lässt sich zudem häufig herausfinden, wann ein Foto zum ersten Mal veröffentlicht wurde und ob es von einer seriösen Quelle stammt.   

Zusätzlich hilft es, sich bei Unsicherheit folgende Fragen zu stellen: Ist es plausibel, was zu sehen oder hören ist? Passt es zu dem, was über die Person oder das Thema bekannt ist? Diese Fragen sind besonders wichtig, wenn ein Inhalt starke Emotionen wie Wut oder Irritation hervorruft. Die Bevölkerung zu befähigen, solche Hinweise zu erkennen und kritisch mit Informationen umzugehen, ist das wirksamste Mittel gegen die Verbreitung von Desinformation durch Künstliche Intelligenz.  

 

Webinar von weitklick bietet Informationen

Diesen Ansatz verfolgt weitklick gemeinsam mit der Bundeszentrale für politische Bildung auch mit dem Webinar „Künstliche Intelligenz – Gefahr und Chance zugleich?“ am 15. November 2023 von 15 bis 17 Uhr. Lehrkräfte erfahren hier mehr über die konkreten Risiken und Möglichkeiten von Künstlicher Intelligenz. Im Zentrum steht die Frage, wie sich KI gut nutzen lässt – auch, um gegen Desinformation vorzugehen – und wie dieses Thema im Unterricht integriert werden kann.  

Übersicht Blogbeiträge
Desinformation
Hintergrund
Medienbildung
Mediennutzung
Meinungsbildung
Vorgestellt