Algorithmen in den sozialen Medien – sie beeinflussen, was wir sehen

von weitklick-Redaktion | 08.11.2022

Auf meine Merkliste

Jemand schaut auf den Bildschirm eines Smartphones, worauf der Newsfeed eines sozialen Netzwerks zu sehen ist
© charlesdeluvio (Unsplash)

Die Welt der sozialen Medien ist schnell und undurchsichtig

Soziale Medien stellen besondere Kommunikationsräume dar. Anders als bei klassischen Medien werden die Inhalte hier nicht nur von Journalist*innen (unter Einhaltung redaktioneller Normen) veröffentlicht, sondern von uns allen. Es gelten zwar die jeweiligen Plattformregeln (z. B. Community  Guidelines genannt), sie sind jedoch nicht vergleichbar mit journalistischen Standards wie dem Pressekodex. Der Wahrheitsgehalt von Informationen kann daher nicht als selbstverständlich vorausgesetzt werden. Die Rückverfolgung zur Quelle eines Beitrags ist schwierig, denn Inhalte verbreiten sich netzartig und schnell: Nutzer*innen setzen sich häufig nicht intensiv mit den Inhalten auseinander, sondern agieren affektiv. Beiträge können durch einfache Share- und Like-Funktionen geteilt und verbreitet werden und erreichen so teilweise in kürzester Zeit enorme Reichweiten. Gleichzeitig finden sich auf Social-Media-Plattformen häufig kompakte Beiträge, die nur wenig Raum für komplexe Darstellungen bieten. Welche Quelle sich hinter einem Beitrag verbirgt, ist dadurch nicht auf den ersten Blick ersichtlich. Die digitale Kommunikationslandschaft eignet sich daher auch besonders für die Verbreitung von Desinformation.

Algorithmen kennen Nutzer*innen besser als sie sich selbst

Doch nicht nur die undurchsichtigen Verbreitungswege und der häufig „unbedachte“ Konsum durch Nutzer*innen machen die sozialen Medien zu optimalen Kommunikationskanälen für Desinformation. Eine entscheidende Rolle spielen dabei auch Algorithmen. Sie beeinflussen unbemerkt, wie unsere digitale Realität aussieht. Denn welche Beiträge auf unseren Newsfeeds landen, entscheiden nicht allein wir. Damit Nutzer*innen nicht von der Informationsflut in sozialen Medien überfordert werden, treffen Algorithmen eine personalisierte Auswahl von Beiträgen für sie. Konsumiert ein*e Nutzer*in beispielsweise besonders häufig Beiträge zum Thema Reisen, wird der Algorithmus innerhalb kurzer Zeit vermehrt Inhalte mit diesem Schwerpunkt ausspielen. Die Informationsvielfalt in den sozialen Medien wird durch diesen Schritt reduziert, personalisiert und vorsortiert. Das ist durchaus positiv. Wo ist also das Problem? Algorithmen können nicht zwischen glaubwürdigen Inhalten und Desinformation unterscheiden. Das macht soziale Medien für diejenigen, die Desinformation gezielt verbreiten, zu einem attraktiven „Distributionstool“. Desinformationen werden bewusst provokant gestaltet. Ihre Sprache ist emotional aufgeladen und von rhetorischen Figuren geprägt, die affektive Reaktionen bei Nutzer*innen hervorrufen sollen. Dazu gehören konfliktreiche oder skandalöse Überschriften. Oft finden sich auch starke Übertreibungen, die provozieren. Außerdem findet sich in Falschnachrichten häufig ein Schwarz-Weiß-Denken: Eine Position wird als die einzig Richtige präsentiert, andere Perspektiven kategorisch ausgeschlossen. Durch diese rhetorischen Mittel erhalten Desinformationen einen vermeintlichen „Sensationscharakter“, der ihnen auf den sozialen Medien eine große Aufmerksamkeit verschafft. Diese Aufmerksamkeit (in Form von Likes etc.) wird von Algorithmen erkannt.

Die Folge: Algorithmen stufen Desinformation als besonders sehenswert ein und verschaffen ihnen eine priorisierte Position in den Newsfeeds. Prüfende Stimmen und Richtigstellungen sanktionieren die Algorithmen zumeist. Denn Algorithmen arbeiten im Sinne der sozialen Medien. Durch das Sortieren und Priorisieren von Beiträgen erzielen die Plattformen eine Steigerung der Aktivität und Verweildauer der Nutzer*innen. Algorithmen haben so einen großen Anteil am kommerziellen Erfolg der Plattformen. Richtigstellungen und Korrekturen sind zumeist sachlich und unauffällig. Dadurch erhalten sie weniger Aufmerksamkeit – von Nutzer*innen und von den Algorithmen. Einige Plattformen haben auf dieses Problem zumindest in Teilen reagiert: Zum Beispiel weist Instagram bei Beiträgen mit sensiblen Themen, wie der Coronapandemie, direkt auf weiterführende Informationen hin. Außerdem arbeiten Plattformen wie facebook und YouTube zunehmend mit unabhängigen Faktenchecker*innen zusammen. Die Aufmerksamkeitslogik der Algorithmen bleibt jedoch weiterhin bestehen. 

Schlechte Chancen für Perspektivenvielfalt und Meinungsaustausch

Algorithmen beeinflussen also entscheidend, wie unsere Realität auf den sozialen Medien aussieht, ohne dass uns dies immer bewusst ist. Sie sorgen dafür, dass aus der eigentlich bestehenden Perspektivenvielfalt auf den Plattformen stark selektiert wird: Es können homogene Kommunikationsräume entstehen, sogenannte „Filterblasen“ oder „Echokammern“, in denen sich Nutzer*innen ausschließlich mit Gleichgesinnten austauschen, die sie in ihrem eigenen Weltbild und ihren Meinungen bestätigen. Das ist besonders problematisch, wenn hier vor allem Desinformation oder sehr einseitige Sichtweisen kursieren. Eine reale Darstellung unterschiedlicher Perspektiven und Weltbilder wird dadurch erschwert, was einen Einfluss auf die psychische Gesundheit der Nutzer*innen, aber auch auf die Deutung politischer Prozesse und gesamtgesellschaftlicher Ereignisse nehmen kann.

Für immer fremdgesteuert? Tipps, wie Schüler*innen Algorithmen überlisten können

Ein Bewusstsein für Algorithmen und ihre Wirkungsweisen sollte schon bei Schüler*innen geschaffen werden, denn gerade sie sind es, die sich vermehrt in den sozialen Medien bewegen und austauschen. Und mit dem Wissen, wie sie damit umgehen können, können sie soziale Medien bewusster und selbstwirksamer nutzen. Betreiber*innen der Plattformen stehen für ihren Einsatz von Algorithmen vermehrt in der Kritik. Viele reagieren bereits, indem sie Einstellungen anbieten, durch die Nutzer*innen stärker selbst steuern können, welche Inhalte ihnen angezeigt werden. Fakt ist aber: Algorithmen sind und bleiben ein fester Bestandteil der sozialen Medien. Deswegen ist es wichtig, dass Schüler*innen verstehen, dass Algorithmen automatisiert Entscheidungen treffen, bevor sie selbst eine Gelegenheit dazu haben. Lehrer*innen können dabei unterstützen:

Aufklärung: Wer weiß, dass das eigene Nutzungsverhalten einen Einfluss auf die dargestellten Beiträge hat, kann sein Verhalten bewusst anpassen. Direkt abrufbare Tipps und Unterrichts-Materialien, die für das Thema sensibilisieren, bietet der NDR. Weitere Materialien und Tipps finden Sie in der weitklick-Materialsammlung.

Demonstration: Schüler*innen können schon beim Vergleich des Newsfeeds mit der Freundin oder dem Freund erkennen, wie unterschiedlich Prioritäten und Filter gesetzt werden. Lassen Sie die Schüler*innen reflektieren, warum sich ihr jeweiliger Newsfeed wohl so zusammensetzt, wie er es tut.

Einstellungen anpassen: Algorithmen lassen sich nicht vollends umgehen, aber einige Plattformen bieten Möglichkeiten, selbst über die Anordnung oder Priorisierung gezeigter Beiträge zu entscheiden. Nutzer*innen können beispielsweise entscheiden, ob Beiträge in ihrem Feed chronologisch oder durch den Algorithmus sortiert angezeigt werden sollen. Außerdem besteht häufig die Möglichkeit, nur noch Content von favorisierten Konten einzublenden. Beiträge oder Stories von Konten, die Nutzer*innen als nicht relevant einstufen, können stummgeschaltet werden. Oft geht das schon mit nur wenigen Klicks. Was Sie auf den einzelnen Plattformen dafür machen müssen, erfahren Sie hier:

 

Übersicht Blogbeiträge
Desinformation
Hintergrund
Mediennutzung