Adobe Stock, Marina Sun | Bearbeitung: MvonS

Adobe Stock, Marina Sun | Bearbeitung: MvonS
Meinungsbildung auf Social Media
Die sozialen Medien sind eine faszinierende, wenn auch mit Vorsicht zu genießende Welt. Denn dahinter stecken Algorithmen, die anhand statistischer Annahmen entscheiden, wer welche Inhalte sieht. Während die einen also vor allem Tiervideos ausgespielt bekommen, sehen andere Nachrichtenbeiträge über vermeintliche Impfschäden und Regierungsverschwörungen. Warum ist das so? Ein Blick hinter die Kulissen.
Eilmeldung von der Lokalzeitung in der Facebook-Timeline: In Köln wurde eine Weltkriegsbombe gefunden, das ganze Stadtviertel wird evakuiert, damit die Bombe entschärft werden kann. Direkt darunter erscheint ein Beitrag von Gertrud: „Hier sind schon wieder so Frauen mit Kopftuch unterwegs, die einfach überall klingeln. Seid wachsam!“ Und Kollege Lukas teilt einen Link zu einer Seite mit dem Titel „Bundesregierung testet Steuerung des Volks via 5G“ und kommentiert: „Wusste ich es doch!“.
Viele informieren sich zum Großteil über soziale Netzwerke
Was ist Meinung, was ist Fakt? Die Grenzen verschwimmen auf Social Media immer stärker. Das ist besonders gefährlich, weil Facebook, Twitter, TikTok und Co aus unserem Leben nicht mehr wegzudenken sind. 89 Prozent der Deutschen, die im Internet unterwegs sind, waren laut dem Branchenverband Bitkom in den vergangenen zwölf Monaten in sozialen Netzwerken aktiv. Mehr als die Hälfte der 16- bis 29-Jährigen weiß ohne soziale Netzwerke sogar gar nicht mehr, was in der Welt geschieht. Und 43 Prozent der unter-30-Jährigen sagen: Soziale Netzwerke haben Einfluss auf meine politische Meinung. Diese Entwicklung überrascht nicht, zeigt aber die Macht, die die sozialen Medien auf die Meinungsbildung haben. Während sich die Familie früher vor der Tagesschau versammelt hat, wo sie von unabhängigen Journalistinnen und Journalisten ausgewählte Informationen präsentiert bekam, sucht sich heute jeder seine Informationen selbst zusammen – und das oft ohne professionelle Prüfung oder Einordnung.
Jan-Hinrik Schmidt ist wissenschaftlicher Mitarbeiter am Leibniz-Institut für Medienforschung und setzt sich genau mit diesem Thema auseinander. Er erklärt, wie Meinungsbildung funktioniert: „Publizistische Medien stellen ihren Nutzern Material für die eigene Meinungsbildung zur Verfügung, sie ordnen Themen ein und bilden verschiedene Perspektiven der Bevölkerung ab.“ In Sozialen Medien gibt es solche Beiträge auch, schließlich sind auch etablierte Medienhäuser auf Facebook und Co, um dort ihre Nachrichten und Recherchen zu vertreten und teilen.
Ein paar Dinge laufen online aber doch anders. Soziale Medien sind Netzwerke, das heißt, sie leben von der Vernetzung der Nutzer*innen untereinander. Jeder kann eigene Beiträge posten, die Beiträge anderer Menschen teilen und kommentieren. So können sich Menschen austauschen, die sich im realen Leben vielleicht nie begegnen würden. Das ist aus Sicht von Kommunikationswissenschaftler Schmidt eine sehr wichtige Funktion, die auch zur Meinungsbildung beiträgt: „Viele Menschen werden sich ihrer Meinung erst bewusst, wenn sie diese aktiv äußern.“ Ein weiterer Pluspunkt: Jede*r hat Zugang zu sozialen Medien, also sind dort zum Beispiel auch Nischeninformationen zu finden.
Natürlich ist es nett, wenn man die Geschichte von Hobby-Angler Ingo auf Facebook liest, wie er einen eineinhalb Meter langen Barsch gefangen hat. Oder wenn man ein Gruppenfoto auf Instagram sieht vom Bastelnachmittag der örtlichen Kitagruppe. Diese Art von Informationen schaffen es häufig nicht in die Zeitung, es fehlt schlicht und einfach der Nachrichtenwert. Das liegt daran, dass auf der Welt so viele Dinge passieren, dass wir gar nicht von allen erfahren können – es muss also jemand über ihre Relevanz entscheiden. Und genau hier kann es gefährlich werden: Während Journalistinnen und Journalisten eine Informationsauswahl nach transparenten und publizistischen Kriterien treffen, sieht das in den sozialen Medien anders aus.

In sozialen Medien wird häufig Erfahrungswissen geteilt oder etwas, das man von anderen so gehört hat. Das kann faktisch stimmen, muss es aber nicht.
Publizistische Medien arbeiten nach journalistischen Grundsätzen und teilen zum Beispiel nur Informationen, die sie geprüft haben. In den sozialen Medien kann dagegen jeder Informationen verbreiten. Ob Nachbarin Gertrud wirklich Einbrecher*innen auf der Spur ist? Woher Kollege Lukas seine Infos zur „5G-Lüge“ hat? Wir wissen es nicht. Experte Schmidt drückt das so aus: „In sozialen Medien wird häufig Erfahrungswissen geteilt oder etwas, das man von anderen so gehört hat. Das kann faktisch stimmen, muss es aber nicht.“
Weil’s dir gefällt: Algorithmen sortieren nach Geschmack
Während sich Medien bemühen, möglichst neutral zu berichten, lebt die Online-Welt von Personalisierung – denn persönliche Geschichten schweißen zusammen. Und zwar getreu dem Motto: Gleich und gleich gesellt sich gern. Wir fühlen uns zu Menschen mit ähnlichen Werten hingezogen. Postet Laura zum Beispiel einen Aufruf zum Klimaprotest, gefällt das Grünen-Wähler*innen. Bernd, der mit seinem neuen Porsche posiert, bekommt dagegen keinen Like. Über dieses Verhalten lernt uns der Algorithmus, also die Technik hinter Facebook, Twitter und TikTok, kennen.
Er merkt sich, was uns gefällt, wo wir Kommentare hinterlassen und worüber wir einfach hinwegscrollen. Und weil die Betreiber*innen der Netzwerke wollen, dass wir möglichst viel Zeit auf den Seiten verbringen, damit wir zum Beispiel viele Anzeigen sehen – womit soziale Medien wiederum Geld verdienen – zeigt uns der Algorithmus irgendwann nur noch Sachen an, die uns gefallen könnten. Ganz nach dem Amazon-Prinzip: Sie haben das gekauft, dann könnte Ihnen auch das gefallen. Experten nennen das „personalisierte Empfehlungssysteme“.
Die gemeinnützige Forschungsorganisation Algorithmwatch sagt, dass diese Systeme unsere Meinungen und unser Verhalten beeinflussen können, gerade weil sie uns Informationen ausspielen und zur Interaktion anregen. Zusammengenommen ergibt sich eine gefährliche Mischung. Das Problem dabei: Die Feeds von Facebook, Twitter, Instagram und Co sind grundsätzlich nicht mehr chronologisch. In den Anfangstagen der Plattformen wurden Inhalte noch nach Datum und Uhrzeit sortiert ausgespielt. Jetzt entscheidet der Algorithmus, was er uns in welcher Reihenfolge anzeigt. Das kann auch bedeuten, dass er die Geburtstagsbilder der entfernten Verwandten weniger wichtig findet als den Beitrag von Gudrun aus der Nachbarschaftsgruppe. Möchte man dies nicht, kann man es bei Twitter oder Instagram aktuell über kleine Umwege umgehen.
Wenn wir uns also auf die Auswahl sozialer Medien verlassen und nicht bewusst auch andere Medien konsumieren, verpassen wir Geschehnisse, bekommen die Meinungen Andersdenkender nicht mehr mit und rutschen immer tiefer in ein bestimmtes Meinungsspektrum. Im schlimmsten Fall werden wir innerhalb einer solchen Echokammer empfänglicher für Verschwörungstheorien und Fake News – der Algorithmus befeuert das. Das Problem lässt sich nicht so einfach beheben. „Algorithmen sind nicht transparent und entwickeln sich durch maschinelles Lernen stetig weiter. Deshalb wissen manchmal selbst die Programmierer*innen gar nicht mehr, wie der Algorithmus heute im Einzelnen funktioniert“, sagt Kommunikationswissenschaftler Schmidt.
Ein weiteres Problem stellen die Nutzer*innen selbst dar. Denn woher soll man wissen, ob Gertrud überhaupt in der Nachbarschaft wohnt, geschweige denn existiert? Nicht jede*r Nutzer*in ist echt. Entweder geben echte Menschen vor, jemand anderes zu sein und kommentieren, teilen und liken in dessen Namen. Oder das Ganze läuft komplett automatisiert, dann spricht man von sogenannten Bots. Ein Computerprogramm sucht zum Beispiel nach Schlagworten auf der Social-Media-Plattform und teilt für ihn passend erscheinende Inhalte, manchmal noch mit automatisch generiertem Kommentar.
Und es gibt noch eine dritte Form: Trollfabriken. So nennt man gezielte Manipulation und Stimmungsmache auf Social Media. Solche Trollfabriken gibt es zum Beispiel in Russland. Dort sitzen in Hallen oder Großraumbüros etliche Menschen, die den ganzen Tag mit verschiedenen Fake-Profilen Propaganda und falsche Nachrichten teilen, polarisierende bis extreme Kommentare in Debatten verfassen und liken, was ins Bild passt. Studien haben belegt, dass sich russische Trolle in den US-Wahlkampf eingemischt und für den ehemaligen US-Präsidenten Donald Trump Werbung gemacht haben. Die USA hat deshalb 13 Personen angeklagt.
Manipulation geht aber auch im kleinen Stil. 2019 fiel zum Beispiel vielen Nutzer*innen auf, dass sich die AfD Darmstadt auf Facebook selbst lobt, freilich ohne das zugeben zu wollen. Hat die Partei etwas gepostet, haben Fake-Nutzer*innen sie in den Kommentaren für ihre „wirklich guten und mutigen Beiträge“ gelobt. Aufgefallen ist das Ganze, weil die Verantwortlichen aus der Partei einmal vergessen hatten, zuerst zum Fake-Account zu wechseln und der Kommentar dann im Namen der AfD Darmstadt erschien.
So werden Social-Media-Plattformen zur Verantwortung gezogen
Der Druck auf Konzerne wie Facebook-Mutter Meta steigt, die Verbreitung von Inhalten stärker zu kontrollieren. In Deutschland gibt es dafür seit dem Jahr 2018 das Netzwerkdurchsetzungsgesetz (kurz NetzDG), das Hasskriminalität, strafbare Falschnachrichten und andere strafbare Inhalte wirksamer als bislang bekämpfen soll. Wer auf Facebook beispielsweise andere beleidigt oder verleumdet, zu Straftaten und Volksverhetzung aufruft oder Gewaltvideos postet, bekommt unter Umständen Besuch von der Polizei. In jedem Fall müssen die Betreiber*innen der Netzwerke dafür sorgen, dass die Inhalte verschwinden. Und: Nutzer*innen müssen strafbare Inhalte jederzeit melden können. Die Betreiber haben dann 24 Stunden Zeit, den Beitrag zu löschen oder den dahinterstehenden Nutzer*innen zu sperren. Passiert das nicht, müssen die Betreiber*innen tief in die Tasche greifen: Im Juli 2021 musste Meta beispielsweise fünf Millionen Euro Strafe zahlen, weil es zu diesem Zeitpunkt unter anderem kein nutzungsfreundliches Beschwerdeverfahren gab. Ab Februar 2024 gilt EU-weit ein Regulierungsgesetz – der Digital Services Act (DSA, auf Deutsch Gesetz über digitale Dienste).
Die Organisation Reporter ohne Grenzen befürwortet zwar, dass strafbare Inhalte gelöscht werden, warnt aber auch vor Einschnitten in die Meinungs- und Pressefreiheit: „Eine zu weitgreifende Regulierung kann gerade in Ländern mit eingeschränkter Pressefreiheit zu einer mittelbaren Durchsetzung staatlicher Zensur führen, etwa wenn die Unternehmen auf Druck von Strafverfolger*innen vermeintliche Falschnachrichten löschen sollen, die jedoch gar nicht strafbar sind“, sagt die Organisation. So geschehen bei Twitter: Der Kurznachrichtendienst hatte Mitte Mai, wenige Tage vor der Präsidentschaftswahl in der Türkei, den Zugang zu einigen Inhalten in der Türkei beschränkt. Das teilte Twitter in einem Statement mit – und gab als Grund ein Gerichtsverfahren an.
Ein kritischer Umgang mit Social-Media-Inhalten bleibt wichtig
Trotz aller Regulierungsbemühungen liegt die Verantwortung am Ende bei uns selbst. Während wir bei der Tagesschau im Fernsehen einfach unbemerkt zuschauen, hinterlassen wir im Netz Spuren – wir sind also keine passiven Nutzer*innen, auch wenn wir selbst nichts posten, teilen und kommentieren. Und wenn wir uns aktiv einbringen, ist die Verantwortung noch viel größer: Mit jedem Video, das wir teilen, sorgen wir dafür, dass dieses Video immer mehr anderen Menschen angezeigt wird. Ob die Inhalte echt sind oder gefälscht, lässt sich nicht immer beantworten.
Künstliche Intelligenz ist inzwischen so weit, dass sie Bilder und Videos so manipulieren kann, dass sie täuschend echt aussehen – man denke nur an die Fotos vom Papst in Daunenjacke oder an das Foto von Angela Merkel und Barack Obama, die gemeinsam im Sand spielen.
„Es ist nicht realistisch, dass wir Menschen alles nachrecherchieren, alles hinterfragen und immer prüfen, ob Informationen stimmen“, sagt Kommunikationswissenschaftler Schmidt. Deshalb ist es wichtig, dass andere die Informationen für uns prüfen – also etwa die Wissenschaft oder Journalistinnen und Journalisten. „Deren Aufgabe ist es, das Wahre vom Falschen zu unterscheiden“, sagt Schmidt. Hellhörig werden sollten Nutzer*innen bei Medienangeboten, die sich offensiv als „alternative“ oder „einzig wahre“ Informationsverbreiter darstellen. „Da ist die Chance recht hoch, auf Falschinformationen und politisch gefärbte Informationen zu stoßen“, sagt Schmidt.
Das Schwierige hierbei: Auch im professionellen Journalismus gibt es redaktionelle Färbungen und Zuspitzungen. Auch wenn Meinungsbeiträge, etwa Kommentare und Glossen, in der Regel von Profis als solche kenntlich gemacht sein sollten. Eine objektive Darstellung der Wahrheit gibt es grundsätzlich nicht, denn es findet immer eine Auswahl statt. „Aber das heißt nicht, dass Alternativmedien besser sind. Die sind noch einseitiger, noch reißerischer, noch unzuverlässiger“, sagt Schmidt. Eine gewisse Grundskepsis ist also nötig – und vor allem ein Bewusstsein dafür, dass wir in den sozialen Medien sehen, was uns gefällt. Das ist der Zauber dieser virtuellen Welt.
Bildquellen: Adobe Stock, Marina Sun, Bearbeitung: MvonS, Leibniz Institut für Medienforschung
Schon gewusst?
Mehr als die Hälfte der 16- bis 29-Jährigen Internetnutzer*innen in Deutschland wäre ohne soziale Netzwerke nicht über das Weltgeschehen informiert. 43 Prozent der unter-30-Jährigen bestätigen einen Einfluss auf ihre politische Meinung.

Adobe Stock, Marina Sun | Bearbeitung: MvonS
Meinungsbildung auf Social Media
Die sozialen Medien sind eine faszinierende, wenn auch mit Vorsicht zu genießende Welt. Denn dahinter stecken Algorithmen, die anhand statistischer Annahmen entscheiden, wer welche Inhalte sieht. Während die einen also vor allem Tiervideos ausgespielt bekommen, sehen andere Nachrichtenbeiträge über vermeintliche Impfschäden und Regierungsverschwörungen. Warum ist das so? Ein Blick hinter die Kulissen.
Eilmeldung von der Lokalzeitung in der Facebook-Timeline: In Köln wurde eine Weltkriegsbombe gefunden, das ganze Stadtviertel wird evakuiert, damit die Bombe entschärft werden kann. Direkt darunter erscheint ein Beitrag von Gertrud: „Hier sind schon wieder so Frauen mit Kopftuch unterwegs, die einfach überall klingeln. Seid wachsam!“ Und Kollege Lukas teilt einen Link zu einer Seite mit dem Titel „Bundesregierung testet Steuerung des Volks via 5G“ und kommentiert: „Wusste ich es doch!“.
Viele informieren sich zum Großteil über soziale Netzwerke
Was ist Meinung, was ist Fakt? Die Grenzen verschwimmen auf Social Media immer stärker. Das ist besonders gefährlich, weil Facebook, Twitter, TikTok und Co aus unserem Leben nicht mehr wegzudenken sind. 89 Prozent der Deutschen, die im Internet unterwegs sind, waren laut dem Branchenverband Bitkom in den vergangenen zwölf Monaten in sozialen Netzwerken aktiv. Mehr als die Hälfte der 16- bis 29-Jährigen weiß ohne soziale Netzwerke sogar gar nicht mehr, was in der Welt geschieht. Und 43 Prozent der unter-30-Jährigen sagen: Soziale Netzwerke haben Einfluss auf meine politische Meinung. Diese Entwicklung überrascht nicht, zeigt aber die Macht, die die sozialen Medien auf die Meinungsbildung haben. Während sich die Familie früher vor der Tagesschau versammelt hat, wo sie von unabhängigen Journalistinnen und Journalisten ausgewählte Informationen präsentiert bekam, sucht sich heute jeder seine Informationen selbst zusammen – und das oft ohne professionelle Prüfung oder Einordnung.
Jan-Hinrik Schmidt ist wissenschaftlicher Mitarbeiter am Leibniz-Institut für Medienforschung und setzt sich genau mit diesem Thema auseinander. Er erklärt, wie Meinungsbildung funktioniert: „Publizistische Medien stellen ihren Nutzern Material für die eigene Meinungsbildung zur Verfügung, sie ordnen Themen ein und bilden verschiedene Perspektiven der Bevölkerung ab.“ In Sozialen Medien gibt es solche Beiträge auch, schließlich sind auch etablierte Medienhäuser auf Facebook und Co, um dort ihre Nachrichten und Recherchen zu vertreten und teilen.
Ein paar Dinge laufen online aber doch anders. Soziale Medien sind Netzwerke, das heißt, sie leben von der Vernetzung der Nutzer*innen untereinander. Jeder kann eigene Beiträge posten, die Beiträge anderer Menschen teilen und kommentieren. So können sich Menschen austauschen, die sich im realen Leben vielleicht nie begegnen würden. Das ist aus Sicht von Kommunikationswissenschaftler Schmidt eine sehr wichtige Funktion, die auch zur Meinungsbildung beiträgt: „Viele Menschen werden sich ihrer Meinung erst bewusst, wenn sie diese aktiv äußern.“ Ein weiterer Pluspunkt: Jede*r hat Zugang zu sozialen Medien, also sind dort zum Beispiel auch Nischeninformationen zu finden.
Natürlich ist es nett, wenn man die Geschichte von Hobby-Angler Ingo auf Facebook liest, wie er einen eineinhalb Meter langen Barsch gefangen hat. Oder wenn man ein Gruppenfoto auf Instagram sieht vom Bastelnachmittag der örtlichen Kitagruppe. Diese Art von Informationen schaffen es häufig nicht in die Zeitung, es fehlt schlicht und einfach der Nachrichtenwert. Das liegt daran, dass auf der Welt so viele Dinge passieren, dass wir gar nicht von allen erfahren können – es muss also jemand über ihre Relevanz entscheiden. Und genau hier kann es gefährlich werden: Während Journalistinnen und Journalisten eine Informationsauswahl nach transparenten und publizistischen Kriterien treffen, sieht das in den sozialen Medien anders aus.

In sozialen Medien wird häufig Erfahrungswissen geteilt oder etwas, das man von anderen so gehört hat. Das kann faktisch stimmen, muss es aber nicht.
Publizistische Medien arbeiten nach journalistischen Grundsätzen und teilen zum Beispiel nur Informationen, die sie geprüft haben. In den sozialen Medien kann dagegen jeder Informationen verbreiten. Ob Nachbarin Gertrud wirklich Einbrecher*innen auf der Spur ist? Woher Kollege Lukas seine Infos zur „5G-Lüge“ hat? Wir wissen es nicht. Experte Schmidt drückt das so aus: „In sozialen Medien wird häufig Erfahrungswissen geteilt oder etwas, das man von anderen so gehört hat. Das kann faktisch stimmen, muss es aber nicht.“
Weil’s dir gefällt: Algorithmen sortieren nach Geschmack
Während sich Medien bemühen, möglichst neutral zu berichten, lebt die Online-Welt von Personalisierung – denn persönliche Geschichten schweißen zusammen. Und zwar getreu dem Motto: Gleich und gleich gesellt sich gern. Wir fühlen uns zu Menschen mit ähnlichen Werten hingezogen. Postet Laura zum Beispiel einen Aufruf zum Klimaprotest, gefällt das Grünen-Wähler*innen. Bernd, der mit seinem neuen Porsche posiert, bekommt dagegen keinen Like. Über dieses Verhalten lernt uns der Algorithmus, also die Technik hinter Facebook, Twitter und TikTok, kennen.
Er merkt sich, was uns gefällt, wo wir Kommentare hinterlassen und worüber wir einfach hinwegscrollen. Und weil die Betreiber*innen der Netzwerke wollen, dass wir möglichst viel Zeit auf den Seiten verbringen, damit wir zum Beispiel viele Anzeigen sehen – womit soziale Medien wiederum Geld verdienen – zeigt uns der Algorithmus irgendwann nur noch Sachen an, die uns gefallen könnten. Ganz nach dem Amazon-Prinzip: Sie haben das gekauft, dann könnte Ihnen auch das gefallen. Experten nennen das „personalisierte Empfehlungssysteme“.
Die gemeinnützige Forschungsorganisation Algorithmwatch sagt, dass diese Systeme unsere Meinungen und unser Verhalten beeinflussen können, gerade weil sie uns Informationen ausspielen und zur Interaktion anregen. Zusammengenommen ergibt sich eine gefährliche Mischung. Das Problem dabei: Die Feeds von Facebook, Twitter, Instagram und Co sind grundsätzlich nicht mehr chronologisch. In den Anfangstagen der Plattformen wurden Inhalte noch nach Datum und Uhrzeit sortiert ausgespielt. Jetzt entscheidet der Algorithmus, was er uns in welcher Reihenfolge anzeigt. Das kann auch bedeuten, dass er die Geburtstagsbilder der entfernten Verwandten weniger wichtig findet als den Beitrag von Gudrun aus der Nachbarschaftsgruppe. Möchte man dies nicht, kann man es bei Twitter oder Instagram aktuell über kleine Umwege umgehen.
Wenn wir uns also auf die Auswahl sozialer Medien verlassen und nicht bewusst auch andere Medien konsumieren, verpassen wir Geschehnisse, bekommen die Meinungen Andersdenkender nicht mehr mit und rutschen immer tiefer in ein bestimmtes Meinungsspektrum. Im schlimmsten Fall werden wir innerhalb einer solchen Echokammer empfänglicher für Verschwörungstheorien und Fake News – der Algorithmus befeuert das. Das Problem lässt sich nicht so einfach beheben. „Algorithmen sind nicht transparent und entwickeln sich durch maschinelles Lernen stetig weiter. Deshalb wissen manchmal selbst die Programmierer*innen gar nicht mehr, wie der Algorithmus heute im Einzelnen funktioniert“, sagt Kommunikationswissenschaftler Schmidt.
Ein weiteres Problem stellen die Nutzer*innen selbst dar. Denn woher soll man wissen, ob Gertrud überhaupt in der Nachbarschaft wohnt, geschweige denn existiert? Nicht jede*r Nutzer*in ist echt. Entweder geben echte Menschen vor, jemand anderes zu sein und kommentieren, teilen und liken in dessen Namen. Oder das Ganze läuft komplett automatisiert, dann spricht man von sogenannten Bots. Ein Computerprogramm sucht zum Beispiel nach Schlagworten auf der Social-Media-Plattform und teilt für ihn passend erscheinende Inhalte, manchmal noch mit automatisch generiertem Kommentar.
Und es gibt noch eine dritte Form: Trollfabriken. So nennt man gezielte Manipulation und Stimmungsmache auf Social Media. Solche Trollfabriken gibt es zum Beispiel in Russland. Dort sitzen in Hallen oder Großraumbüros etliche Menschen, die den ganzen Tag mit verschiedenen Fake-Profilen Propaganda und falsche Nachrichten teilen, polarisierende bis extreme Kommentare in Debatten verfassen und liken, was ins Bild passt. Studien haben belegt, dass sich russische Trolle in den US-Wahlkampf eingemischt und für den ehemaligen US-Präsidenten Donald Trump Werbung gemacht haben. Die USA hat deshalb 13 Personen angeklagt.
Manipulation geht aber auch im kleinen Stil. 2019 fiel zum Beispiel vielen Nutzer*innen auf, dass sich die AfD Darmstadt auf Facebook selbst lobt, freilich ohne das zugeben zu wollen. Hat die Partei etwas gepostet, haben Fake-Nutzer*innen sie in den Kommentaren für ihre „wirklich guten und mutigen Beiträge“ gelobt. Aufgefallen ist das Ganze, weil die Verantwortlichen aus der Partei einmal vergessen hatten, zuerst zum Fake-Account zu wechseln und der Kommentar dann im Namen der AfD Darmstadt erschien.
So werden Social-Media-Plattformen zur Verantwortung gezogen
Der Druck auf Konzerne wie Facebook-Mutter Meta steigt, die Verbreitung von Inhalten stärker zu kontrollieren. In Deutschland gibt es dafür seit dem Jahr 2018 das Netzwerkdurchsetzungsgesetz (kurz NetzDG), das Hasskriminalität, strafbare Falschnachrichten und andere strafbare Inhalte wirksamer als bislang bekämpfen soll. Wer auf Facebook beispielsweise andere beleidigt oder verleumdet, zu Straftaten und Volksverhetzung aufruft oder Gewaltvideos postet, bekommt unter Umständen Besuch von der Polizei. In jedem Fall müssen die Betreiber*innen der Netzwerke dafür sorgen, dass die Inhalte verschwinden. Und: Nutzer*innen müssen strafbare Inhalte jederzeit melden können. Die Betreiber haben dann 24 Stunden Zeit, den Beitrag zu löschen oder den dahinterstehenden Nutzer*innen zu sperren. Passiert das nicht, müssen die Betreiber*innen tief in die Tasche greifen: Im Juli 2021 musste Meta beispielsweise fünf Millionen Euro Strafe zahlen, weil es zu diesem Zeitpunkt unter anderem kein nutzungsfreundliches Beschwerdeverfahren gab. Ab Februar 2024 gilt EU-weit ein Regulierungsgesetz – der Digital Services Act (DSA, auf Deutsch Gesetz über digitale Dienste).
Die Organisation Reporter ohne Grenzen befürwortet zwar, dass strafbare Inhalte gelöscht werden, warnt aber auch vor Einschnitten in die Meinungs- und Pressefreiheit: „Eine zu weitgreifende Regulierung kann gerade in Ländern mit eingeschränkter Pressefreiheit zu einer mittelbaren Durchsetzung staatlicher Zensur führen, etwa wenn die Unternehmen auf Druck von Strafverfolger*innen vermeintliche Falschnachrichten löschen sollen, die jedoch gar nicht strafbar sind“, sagt die Organisation. So geschehen bei Twitter: Der Kurznachrichtendienst hatte Mitte Mai, wenige Tage vor der Präsidentschaftswahl in der Türkei, den Zugang zu einigen Inhalten in der Türkei beschränkt. Das teilte Twitter in einem Statement mit – und gab als Grund ein Gerichtsverfahren an.
Ein kritischer Umgang mit Social-Media-Inhalten bleibt wichtig
Trotz aller Regulierungsbemühungen liegt die Verantwortung am Ende bei uns selbst. Während wir bei der Tagesschau im Fernsehen einfach unbemerkt zuschauen, hinterlassen wir im Netz Spuren – wir sind also keine passiven Nutzer*innen, auch wenn wir selbst nichts posten, teilen und kommentieren. Und wenn wir uns aktiv einbringen, ist die Verantwortung noch viel größer: Mit jedem Video, das wir teilen, sorgen wir dafür, dass dieses Video immer mehr anderen Menschen angezeigt wird. Ob die Inhalte echt sind oder gefälscht, lässt sich nicht immer beantworten.
Künstliche Intelligenz ist inzwischen so weit, dass sie Bilder und Videos so manipulieren kann, dass sie täuschend echt aussehen – man denke nur an die Fotos vom Papst in Daunenjacke oder an das Foto von Angela Merkel und Barack Obama, die gemeinsam im Sand spielen.
„Es ist nicht realistisch, dass wir Menschen alles nachrecherchieren, alles hinterfragen und immer prüfen, ob Informationen stimmen“, sagt Kommunikationswissenschaftler Schmidt. Deshalb ist es wichtig, dass andere die Informationen für uns prüfen – also etwa die Wissenschaft oder Journalistinnen und Journalisten. „Deren Aufgabe ist es, das Wahre vom Falschen zu unterscheiden“, sagt Schmidt. Hellhörig werden sollten Nutzer*innen bei Medienangeboten, die sich offensiv als „alternative“ oder „einzig wahre“ Informationsverbreiter darstellen. „Da ist die Chance recht hoch, auf Falschinformationen und politisch gefärbte Informationen zu stoßen“, sagt Schmidt.
Das Schwierige hierbei: Auch im professionellen Journalismus gibt es redaktionelle Färbungen und Zuspitzungen. Auch wenn Meinungsbeiträge, etwa Kommentare und Glossen, in der Regel von Profis als solche kenntlich gemacht sein sollten. Eine objektive Darstellung der Wahrheit gibt es grundsätzlich nicht, denn es findet immer eine Auswahl statt. „Aber das heißt nicht, dass Alternativmedien besser sind. Die sind noch einseitiger, noch reißerischer, noch unzuverlässiger“, sagt Schmidt. Eine gewisse Grundskepsis ist also nötig – und vor allem ein Bewusstsein dafür, dass wir in den sozialen Medien sehen, was uns gefällt. Das ist der Zauber dieser virtuellen Welt.
Bildquellen: Adobe Stock, Marina Sun, Bearbeitung: MvonS, Leibniz Institut für Medienforschung
Latest (Top 5)
Schon gewusst?
Mehr als die Hälfte der 16- bis 29-Jährigen Internetnutzer*innen in Deutschland wäre ohne soziale Netzwerke nicht über das Weltgeschehen informiert. 43 Prozent der unter-30-Jährigen bestätigen einen Einfluss auf ihre politische Meinung.