Zwischen Chat und emotionaler Nähe – Rückblick auf das fünfte weitklick-Webinar

von weitklick-Redaktion | 20.02.2026

Auf meine Merkliste

Titelfolie einer Präsentation mit orange-pinkem Farbverlauf im Hintergrund. In großer weißer Schrift steht: ‚Falsche (?) Freunde‘. Darunter der Untertitel: ‚Die Entwicklung parasozialer Beziehungen‘. Rechts oben ist ein kleines Videofenster mit einem sprechenden Mann vor unscharfem Hintergrund, eingeblendet mit dem Namen ‚Fabian Sauer‘. Unten rechts befindet sich das Logo ‚mecodia Medienkompetenz‘.
© Fabian Sauer / weitklick

Im Rahmen des Safer Internet Day 2026 lud weitklick zum fünften Webinar für Lehr- und pädagogische Fachkräfte ein. Unter dem Titel „Zwischen Chat und emotionaler Nähe – Jugendliche im Umgang mit KI-Chatbots“ stand ein Thema im Mittelpunkt, das längst im Alltag junger Menschen angekommen ist: die selbstverständliche Nutzung generativer KI und die Frage, welche Rolle emotionale Aspekte dabei spielen. Gemeinsam mit Fabian Sauer von mecodia Medienkompetenz haben wir über parasoziale Beziehungen junger Menschen zu Chatbots diskutiert und beleuchtet, warum diese ein Problem darstellen könnten.

Die Frage ob junge Kinder und Jugendliche KI-Tools nutzen stellt sich mittlerweile nicht mehr, sondern eher wofür sie KI nutzen. Die aktuelle JIM-Studie 2025 zeigt, dass Künstliche Intelligenz fester Bestandteil im Alltag und den Mediennutzungsroutinen junger Menschen ist. Am beliebtesten sind KI-Chatbots, allen voran ChatGPT. Die Mehrheit der Jugendlichen, über 80 %, nutzen das Tool. Die Hälfte der Heranwachsenden nutzt den Chatbot wöchentlich. Aber auch andere Chatbots wie Gemini, die in die Meta-Dienste Instagram und WhatsApp integrierte Meta AI und MyAI von Snapchat sind beliebt.

Wofür und warum nutzen junge Menschen Künstliche Intelligenz und besonders, generative KI-Chatbots? Das Hauptnutzungsmotiv ist das Lernen im schulischen Kontext für Hausaufgaben etc., gefolgt von der Suche nach Informationen im Allgemeinen und der Recherche wie etwas geht oder funktioniert. Auch bei Gefühlen von Einsamkeit oder Langeweile greifen viele Jugendliche auf KI-Chatbots zurück.

 
KI-Chatbots als Gesprächspartner

 

KI-Chatbots, die auf Large Language Models (LLMs) bzw. Großen Sprachmodellen basieren, sind für die Nutzer*innen immer verfügbar. Die KI-Systeme sind so programmiert, dass sie freundliche Antworten geben und suggerieren ein Gefühl der Nähe. Sie sind ständig „erreichbar“, was für menschliche Kontakte nicht immer gilt. Die Chatbots haben zudem immer Lösungen und Ratschläge parat. Außerdem kritisieren uns KI-Anwendungen nicht oder geben Widerworte, sie bestärken die Nutzenden.

Kommunikationswissenschaftler Fabian Sauer von mecodia Medienkompetenz machte im Webinar deutlich: Es handelt sich bei der Interaktion mit generativen KI-Chatbots um eine Illusion bzw. die Simulation von Nähe, Intimität und Gegenseitigkeit. Die Anwendungen nutzen natürliche Sprache, um dies alles vorzutäuschen, sie verfügen jedoch nicht über ein ausgeprägtes soziales Verständnis. Künstliche Intelligenz kann zwar simulieren, die Komplexität menschlicher Gefühle zu verstehen, kann dies aber technisch nicht leisten.  

 

„Präsentationsfolie mit dem Titel ‚Eine Illusion von …‘. Aufgelistet sind die Punkte: ‚Nähe und Intimität‘, ‚Interaktivität und Gegenseitigkeit‘ sowie ‚dauerhafter Verfügbarkeit‘. Darunter stehen Beispiele wie ChatGPT, Gemini, Meta AI, Snapchat myAI und Character.AI. Im Hintergrund ist unscharf ein junges Paar zu sehen, das gemeinsam auf einen Bildschirm schaut. Rechts im Bild befindet sich ein kleines Videofenster mit einem sprechenden Mann vor neutralem Hintergrund. Unten rechts ist das Logo ‚mecodia Medienkompetenz‘ zu sehen.“

 

Fabian Sauer machte im Webinar deutlich:

  • KI kann Gefühle sprachlich überzeugend nachahmen, aber nicht empfinden.
  • Die Systeme sind darauf optimiert, kooperativ, hilfreich und freundlich zu wirken.
  • Widerspruch, Irritation oder soziale Reibung, zentrale Bestandteile menschlicher Beziehungen, fehlen weitgehend.

Gerade für Jugendliche in sensiblen Entwicklungsphasen kann diese scheinbare Verlässlichkeit attraktiv sein. Wenn KI-Anwendungen stets reagieren, nie genervt sind und immer Lösungen anbieten, entsteht leicht der Eindruck von Intimität und Vertrautheit.

 
Risiken: Wenn Simulation zu Bindung führt

 

Fabian Sauer benannte mehrere problematische Entwicklungen, die Lehrkräfte und Eltern im Blick behalten sollten:

  1. Niedrige Hemmschwelle zum Teilen persönlicher Inhalt: Die scheinbare Empathie der Bots senkt die Schwelle, Sorgen, intime Gedanken oder belastende Themen zu teilen. Da die Systeme jederzeit reagieren und verständnisvoll formulieren, fühlen sich Gespräche „sicher“ an. Problematisch wird es, wenn sensible Informationen preisgegeben werden, ohne Bewusstsein für Datenschutz oder kommerzielle Interessen der Anbieter.
  2. Vertiefung von Isolation und emotionaler Abhängigkeit: Im schlimmsten Fall können KI-Chatbots reale Kontakte nicht nur ergänzen, sondern ersetzen. Wenn Jugendliche Trost, Bestätigung oder Entscheidungshilfe primär bei einem Bot suchen, besteht die Gefahr einer emotionalen Abhängigkeit.
  3. Fehlende Konflikterfahrung: Chatbots widersprechen kaum, kritisieren selten und sind auf Kooperation optimiert. Doch genau Reibung, Aushandlung und auch Frustration sind zentral für die Entwicklung sozialer Kompetenzen. Wenn Interaktionen zunehmend konfliktfrei verlaufen, könnten kommunikative Fähigkeiten leiden.
  4. Umgehung von Schutzmechanismen: Selbst vorhandene Sicherheitsvorkehrungen lassen sich oft durch Rollenspiele oder geschickte Prompt-Formulierungen umgehen. Jugendliche können problematische Inhalte indirekt anfragen („Das ist nur für eine Präsentation …“). Technische Schutzmaßnahmen sind daher kein Allheilmittel.

Fabian Sauer betont dabei ausdrücklich: Es geht nicht um Alarmismus, sondern um einen differenzierten Blick. Besonders relevant ist seine Warnung vor der „Kausalitätsfalle“: Machen Chatbots Jugendliche einsam – oder nutzen einsame Jugendliche häufiger Chatbots? Wahrscheinlich wirken beide Dynamiken zusammen.

Präsentationsfolie mit der Aufschrift "Vorsicht vor der Kausalitätsfalle! Liegt es an ChatGPT oder an uns?" Rechts im Bild befindet sich ein kleines Videofenster mit einem sprechenden Mann vor neutralem Hintergrund. Unten rechts ist das Logo ‚mecodia Medienkompetenz‘ zu sehen.“
 
Chancen: KI als Übungs- und Reflexionsraum

 

Neben den Risiken zeigte Fabian Sauer auch konstruktive Perspektiven auf:

  1. Niedrigschwelliger Gesprächsraum: Für schüchterne oder sozial unsichere Jugendliche kann ein Chatbot ein erster Ort sein, um Gedanken zu formulieren, Fragen zu stellen oder „Dampf abzulassen“. Gerade in sensiblen Themenfeldern kann die Hemmschwelle geringer sein als im Gespräch mit Erwachsenen.
  2. Übungsumgebung für Kommunikation: Chatbots können als Trainingspartner dienen, etwa zum Formulieren von Argumenten, zum Üben schwieriger Gespräche oder zur Vorbereitung von Präsentationen. In diesem Sinne sind sie eher Werkzeug als Beziehung.
  3. Lernhilfe und Orientierung: Richtig eingeordnet, bieten KI-Chatbots Unterstützung beim Lernen, Strukturieren und Recherchieren. Entscheidend ist die begleitete Nutzung und die Förderung von Bewertungs- und Einordnungskompetenz.
 
Kompetenzen für einen reflektierten Umgang mit KI-Chatbots

 

Wenn KI-Chatbots längst Teil jugendlicher Lebenswelt sind, stellt sich nicht mehr die Frage nach Verbot oder Freigabe, sondern nach den Kompetenzen, die junge Menschen brauchen, um souverän damit umzugehen.

Funktionsverständnis von KI: Grundlegend ist das Wissen, dass KI-Chatbots Wahrscheinlichkeiten berechnen und Sprache statistisch erzeugen.

  • Sie verstehen keine Inhalte im menschlichen Sinn
  • Sie haben keine Intentionen oder Gefühle
  • Sie simulieren Dialoge auf Basis von Trainingsdaten

Dieses Wissen ist entscheidend, um die Illusion von Persönlichkeit und Empathie zu durchschauen. Wer versteht, dass hinter der Antwort kein „Gegenüber“ steht, kann emotionale Zuschreibungen bewusster reflektieren.

Informations- und Bewertungskompetenz: Da KI-Chatbots fehleranfällig sind und Inhalte plausibel formulieren, selbst wenn sie falsch sind, brauchen Jugendliche die Fähigkeit:

  • Antworten kritisch zu prüfen
  • Quellen gegenzuchecken
  • zwischen Fakt, Wahrscheinlichkeit und Halluzination zu unterscheiden

Gerade im schulischen Kontext wird diese Kompetenz zentral: KI-Outputs dürfen nicht unreflektiert übernommen werden.

Datenschutzkompetenz: Viele Jugendliche teilen persönliche Informationen mit Chatbots, ohne sich der Datenverarbeitung bewusst zu sein. Daher gehört zur KI-Kompetenz auch:

  • Sensibilität für personenbezogene Daten
  • Bewusstsein für Trainingsdaten und Geschäftsmodelle
  • Verständnis dafür, dass Eingaben gespeichert oder weiterverarbeitet werden können

Reflexion bedeutet hier auch: Nicht alles, was sich wie ein privates Gespräch anfühlt, ist eines.

Emotionale Selbstwahrnehmung: Ein besonders wichtiger Punkt in Fabian Sauers Input war die emotionale Dimension. Jugendliche sollten lernen, sich selbst zu fragen:

  • Warum nutze ich den Chatbot gerade?
  • Suche ich Information, oder Trost?
  • Fühle ich mich einsam, überfordert oder unsicher?

Emotionale Selbstwahrnehmung hilft, mögliche Abhängigkeiten früh zu erkennen und KI nicht zum primären Ersatz sozialer Beziehungen werden zu lassen.

Beziehungskompetenz: Schließlich geht es um die Fähigkeit, zwischen simulierten und echten Beziehungen zu unterscheiden. Junge Menschen sollten verstehen:

  • Gegenseitigkeit ist mehr als reibungslose Kommunikation
  • Konflikt, Widerspruch und Missverständnisse gehören zu realen Beziehungen
  • Verlässlichkeit bedeutet mehr als permanente Verfügbarkeit

Schule bleibt damit ein zentraler Lernort für echte soziale Aushandlung: etwas, das kein Sprachmodell ersetzen kann.

 

Übersicht Blogbeiträge
KI-Sicherheit
Medienbildung
Vorgestellt
Webinare & Veranstaltungen