Mit KI gegen Desinformation – Rückblick auf das dritte weitklick-Webinar
von weitklick-Redaktion | 25.09.2025
Künstliche Intelligenz und Desinformation online
Zu Beginn des Webinars wurden die Grundlagen zu KI und Desinformation vermittelt und zentrale Begriffe voneinander abgegrenzt. Anhand praktischer Beispiele wurde veranschaulicht, wie Menschen mit generativer KI – etwa große Sprachmodelle (LLMs) – versehentlich Falschinformationen oder gezielt Desinformation erzeugen können. Schon ungenaue oder reißerische Prompts können zu verzerrten Ergebnissen führen. Entscheidend ist dabei der Umgang mit den KI-generierten Inhalten: Werden sie kritisch überprüft, oder unreflektiert weiterverwendet und veröffentlicht?
Neben der unbeabsichtigten Weitergabe ungenauer oder falscher Informationen spielt auch die absichtliche Manipulation eine Rolle – etwa durch das Herauslösen einzelner Fakten aus dem Zusammenhang oder die Erstellung und Verbreitung täuschend echter Deepfakes. Diese Zusammenhänge und Prozesse konnten anschaulich anhand der Experience AI Lektion 10 erklärt werden. Weitere Infos zu Experience AI finden Sie hier.

Virale Dynamik von Desinformation
Generative KI-Anwendungen erleichtern also die Produktion von Desinformation. KI trägt jedoch auch zur Verbreitung von Desinformation bei. Besonders in sozialen Netzwerken verstärken KI-gestützte Empfehlungssysteme diesen Effekt. Sie sorgen dafür, dass emotional aufgeladene Inhalte überdurchschnittlich viel Aufmerksamkeit von Nutzer*innen erhalten und sich besonders schnell auf den Plattformen verbreiten. Da Emotionalisierung ein zentrales Stilmittel von Desinformation ist, verstärkt die algorithmische Logik sozialer Medien ihre Reichweite und Wirkung erheblich.
Forschung: KI als Werkzeug gegen Desinformation
Gastreferent Jonas Fegert, Leiter des House of Participation am Forschungszentrum Informatik (FZI), stellte das Forschungsprojekt DeFaktS vor. Ziel war die Entwicklung eines KI-Modells, das Desinformation anhand sprachlicher Muster erkennt. Gemeinsam mit Sprachwissenschaftler*innen wurde eine Taxonomie erstellt, die Merkmale wie emotionalisierende Sprache oder Begriffe aus Verschwörungserzählungen systematisch erfasst.
Ein zentrales Element ist die Explainable AI: Sie macht sichtbar und nachvollziehbar, warum das System einen Inhalt als Desinformation markiert. Für die Praxis wurde ein interaktives Dashboard entwickelt, in das Artikel eingefügt werden können. Das System hebt typische Merkmale hervor und gibt an, wie hoch die Wahrscheinlichkeit ist, dass seine Einschätzung zutrifft. Dabei dient es als Hinweisgeber, ersetzt aber kein Fact-Checking.
Potenziale und Grenzen von Projekten wie DeFaktS
Die Diskussion zeigte: Projekte wie DeFaktS können ein Bewusstsein für Desinformation schaffen und ihre Mechanismen sichtbar machen. Sie stoßen aber auch an klare Grenzen:
- KI kann kein unabhängiges Fact-Checking ersetzen
- Einschätzungen sind nicht fehlerfrei und können Vorurteile enthalten
- Das gesellschaftliche Problem von Desinformation lässt sich nicht allein technisch lösen
Dennoch liegt der Wert solcher Projekte auf der Hand: Sie fördern Lernprozesse, indem Schüler*innen nachvollziehen können, wie manipulative Sprache funktioniert und wie Desinformation entsteht.
Vom Forschungsprojekt ins Klassenzimmer: DisCoBoard
Auf großen Plattformen werden bislang keine vergleichbaren KI-Tools eingesetzt, aber es bieten sich Anknüpfungspunkte für die schulische Medienbildung. Das partizipative Folgeprojekt DisCoBoard entwickelt ein Dashboard speziell für den Unterricht. Es soll Schüler*innen ab Klasse 9 spielerisch und interaktiv für Desinformation sensibilisieren. Lehrkräfte können später im Projektverlauf damit Unterrichtseinheiten gestalten, in denen Mechanismen wie Emotionalisierung oder fehlende Quellen sichtbar werden.
Ein zentraler Aspekt ist die Vermittlung von KI-Kompetenz: Jugendliche sollen verstehen, dass KI basierend auf Wahrscheinlichkeiten Inhalte generiert, aber keine Wahrheiten liefert.

Fazit: Medienkompetenz als Schlüssel
Das Webinar machte deutlich: KI ist sowohl Risiko als auch Chance. Denn sie kann die Verbreitung von Desinformation beschleunigen – zugleich aber auch Werkzeuge bereitstellen, um deren Mechanismen sichtbar zu machen und kritisches Denken zu fördern. Projekte wie weitklick, DeFaktS und DisCoBoard leisten damit einen wichtigen Beitrag zur Medienbildung in Schulen und bei der Unterstützung von Lehrkräften. So können Jugendliche dazu befähigt werden, digitale Inhalte kritisch zu bewerten, eine wichtige Grundlage für eigene Meinungsbildungsprozesse und Teilhabe an demokratischen Diskursen beim Aufwachsen in einer digitalisierten Welt.