Deep Fakes sind nicht das große Problem

von Lukas Fuhr (Gastbeitrag) | 12.07.2021

Auf meine Merkliste

Bild von Lukas Fuhr
© Lukas Fuhr

Die Warnungen nehmen zu: Bald schon könnte es massenhaft authentisch anmutende aber komplett gefälschte Bilder und vor allem Videos geben. Denn solche Deep Fakes werden technisch immer einfacher produzierbar. Ihren Namen verdankt diese bedrohliche Form der digitalen Desinformation der Kombination von Deep Learning und Fake. Realistisch wirkende Foto- oder Videomontagen entstehen dabei auf Basis künstlicher Intelligenz. Die Ergebnisse sind schon jetzt beeindruckend: So warnt zum Beispiel ein täuschend echt wirkender Barack Obama in einem Video davor, alles zu glauben, was man in Online-Videos sehen kann – ein Deep Fake im Dienst der Aufklärung. Solche Fälschungen können aber natürlich auch ungleich destruktiveres Potential entfalten.

Das größere Desinformationsproblem sind aktuell aber nicht Deep Fakes, sondern Cheap Fakes. Diese stellen ebenfalls eine Fälschung dar, allerdings keine, die Zugang und Beherrschung von KI voraussetzt. Cheap Fakes zeichnen sich dadurch aus, dass sie durch tendenziell einfache Bearbeitung Desinformation schaffen. Sie sind günstig, leicht zu produzieren und daher ohne allzu hohen Aufwand in großen Mengen herstellbar.

Die typischste Variante des Cheap Fakes ist die Dekontextualisierung von an sich korrekter Information. Wer etwa ein Bild nimmt, das aus dem syrischen Bürgerkrieg stammt, es in einem Sozialen Netzwerk postet und behauptet, es handele sich um einen aktuellen islamistischen Anschlag in Deutschland, muss keine Bildbearbeitungsprogramme beherrschen oder ein KI-Tool nutzen.

Wie bei Deep Fakes auch lassen sich Cheap Fakes in der Regel nicht mit dem bloßen Auge erkennen. Es hilft gegen beide, den Absender zu prüfen und nach weiteren Quellen zu suchen. Doch das kann schnell mühsam werden. Wer sich vor Desinformation schützen will, kann aber immerhin eine einfache Technik nutzen, mit der zumindest viele Cheap Fakes enttarnt werden können: eine Rückwärtssuche. Cheap Fakes nutzen oft online verfügbares Bildmaterial und stellen es in einen irreführenden Kontext. Die Tatsache, dass es sich um bereits publizierten Content handelt, lässt sich nutzen. Denn die Rückwärtssuche des Bildes (ein Video ist nichts anderes als eine Folge von Bildern) zeigt, ob das Material bereits länger online steht. Ein Bild, das bereits vor Jahren online erschienen ist, kann keinen aktuellen Anschlag zeigen.

Übersicht Blogbeiträge
Desinformation