„@Bot123 gefällt das“ – Was steckt hinter (Social) Bots?
Viele Tätigkeiten im Internet sind automatisiert – von Bezahlvorgängen über KI-Chatbots bis hin zu Politiker-Accounts, die massenhaft Nachrichten von einer Partei teilen. Sie alle fußen auf der Bot-Technologie. Viele Menschen verbinden mit diesem Begriff aber ein Gefühl von Unsicherheit und Täuschung. Insbesondere sorgen Schlagzeilen über Fake-Accounts und Meinungsmache durch Social Bots auf Social-Media-Plattformen für Unbehagen. Das Gefahrenpotenzial von Social Bots ist allerdings schwer zu bestimmen, auch wie man diese überhaupt erkennt. Wir zeigen, woran das liegt und wie du Bots als Instrument der Gegenrede nutzen kannst.
Du hast eben ein Urlaubsfoto auf deinem Instagram-Profil gepostet und – schwupps – den ersten Kommentar von einem unbekannten Account bekommen: „Das sieht traumhaft aus. Schau doch mal auf unserer Seite vorbei.“ Kann das wirklich echt sein? Wer so schnell reagiert und obendrauf mit einem werbeähnlichen Spruch antwortet, kann das doch nur organisiert machen, denkst du dir vielleicht. Selbst Websites gehen davon aus, dass sich nicht nur Menschen durch das Internet bewegen. Wenn man beispielsweise zu viele Suchanfragen innerhalb kürzester Zeit in die Google-Suchmaschine eingibt, kommt die Benachrichtigung „Ungewöhnlich viele Zugriffe über Ihr Computernetzwerk“. Einige Anbieter*innen verwenden auch die sogenannte Captcha-Abfrage. Hier muss man Wörter eingeben oder beispielsweise Ampel-Bilder auswählen, um zu bestätigen, kein Bot zu sein.
Was sind Bots überhaupt?
Das Wort „Bot“ ist eine Abkürzung für „Roboter“ und vielleicht etwas irreführend. Es handelt sich zwar um eine programmierte Maschine, die automatisch Befehle ausführt. Aber ein Bot ist eine Software und hat keinen festen Körper – anders als ein Roboter wie du ihn aus großen Industriehallen oder als Bodenwischroboter im Haushalt kennst. Als einer der ersten und bekannten Bots gilt das Programm Daemon aus dem Jahr 1963, entwickelt von einem US-Wissenschaftsteam um den Informatiker Fernando J. Corbató am Massachusetts-Institut für Technologie in Massachusetts, USA. Es scannte das Speichersystem eines Computers und fertigte Sicherungskopien von Dateien an.
Es gibt verschiedene Arten von Bots, angefangen von einfachen Anmeldeskripten wie Passwortspeicher im Browser bis hin zu komplexen Programmen, die mit künstlicher Intelligenz ausgestattet sind. Außerdem kommen Bots in teil- und vollautomatisierten Prozessen zum Einsatz. Das heißt, manchmal nehmen sie die Rolle eines digitalen Assistenten ein, andere Male ist menschliches Eingreifen gar nicht nötig. Zu den typischen Bots zählen beispielsweise:
- Chatbots: Sie sind oftmals integriert in eine Reihe bestehender Dienste wie auf Unternehmenswebsites oder in Messenger-Programmen von Whatsapp, Telegram und Co. Bekannte KI-Chatbots sind ChatGPT oder Bard. Auch in speziell angefertigten Maschinen wie Smart-Home-Geräten werden Chatbots eingesetzt.
- Web-Crawler: Diese Algorithmen durchsuchen das Internet, indem sie etwa Websites anhand ihrer Daten bewerten (crawlen) und in Suchmaschinen auflisten.
- Spambots: Hier werden massenhaft unerwünschte Nachrichten in Kommentarspalten, per Email und Co. versendet. Inhaltlich geht es dabei in der Regel um Produktwerbung oder Links zu dubiosen Seiten, auf denen sich auch Schadprogramme befinden können.
Mit dem Aufkommen sozialer Plattformen ist es aber vor allem der Social Bot, wenn man heute an automatisierte Akteure im Netz denkt. Dabei handelt es sich um Social-Media-Accounts, die menschliches Verhalten wie das Liken oder Erstellen von Beiträgen imitieren. Gerade weil Social Bots per Definition vorgeben, Menschen zu sein, und darüber hinaus mit anderen Nutzer*innen kommunizieren, werden sie mit böswilligen Handlungen in Verbindung gebracht. Social-Media-Plattformen sind hierfür die idealen Verbreitungswege. Sie bieten öffentliche Programmierschnittstellen (sogenannte API) an, die eine Software-Steuerung erlaubt und Programmierer*innen so den Einbau von Bots ermöglicht.
Wie gehen Social-Media-Plattformen mit Bots um?
Jede Social-Media-Plattform verfolgt ihre eigene Agenda, was den Zugang von Bots und Verstöße gegen die Community-Richtlinien betrifft. Beispielsweise verlangen X und Meta von Entwickler*innen, dass ihr Konto, über das ein Bot verknüpft werden soll, mit einer eindeutigen Telefonnummer und Email-Adresse verifiziert werden muss. Mit dem Verhaltenskodex für Desinformation verpflichten sich etwa Meta, Google und TikTok innerhalb der EU zur Selbstregulierung, um die Verbreitung von Fake News auf ihren Plattformen einzudämmen. Das beinhaltet unter anderem die Schließung von Bot-Konten.
Für Social-Media-Nutzer*innen ist es dennoch kompliziert, automatisierte Akteure zu erkennen. Weil die Plattformen solche Technologie zuerst einmal erkennen müssen, dann selbst entscheiden, wie genau sie gegen Verstöße vorgehen und an welchem Punkt der Bearbeitung Nutzer*innen davon Wind bekommen. So ist es denkbar, dass ein Social Bot ein KI-generiertes Profilbild verwendet und Kontakt zu anderen automatisierten Accounts knüpft. Eine ganze Spambot-Architektur kann die Folge sein, auf deren Grundlage ohne Ende Likes für hetzerische Beiträge verteilt würden, die die Mitlesenden eigentlich gar nicht gut finden. Wurde die Kampagne durch Menschen gesteuert, die zuvor Bot-erstellte Accounts übernahmen? Zu welchem Zeitpunkt greift die Plattform ein? Ist die eigene Meinung da bereits beeinflusst?
In der medialen Berichterstattung werden Social Bots häufig als Gruppe beziehungsweise Armee dargestellt. So berichtete die Süddeutsche Zeitung im April 2023 von Putins Bot-Armee auf Social Media und die Investigativ-Gruppe Forbidden Stories enthüllte im Februar 2023 den Einsatz eines Bot-Netzwerkes bei der weltweiten Desinformationskampagnen aus Israel. Das klingt alarmierend und deckt sich mit weiteren Schlagzeilen aus den vergangenen Jahren, die andeuten, dass Social-Bot-Aktivitäten ein globaler Trend quer durch alle Themenbereiche sind. Twitter-Bots hätten die Aktien des Elektrobauers Tesla beeinflusst, schreibt etwa Wirtschaftswoche. Auch seien Bots laut Spiegel-Berichterstattung als Meinungsmaschinen bereits 2016 im Rahmen des Brexit-Referendums eingesetzt worden.
Herausforderungen bei der Bot-Erkennung
Mittlerweile mischt sich in das Stimmungsbild aus den Medien aber auch ein anderer Blickpunkt. Denn in der Wissenschafts-Community ist die Frage nach Social Bots und deren Existenz durchaus ein Streitthema. Der Datenjournalist Michael Kreil geht sogar so weit zu sagen, dass Social Bots auf einer Misinformation aus dem Jahr 2016 fußen. Zahlreiche seriöse Medien weltweit hätten damals nicht wissenschaftlich anerkannte Forschungsergebnisse von einigen Wissenschaftler*innen übernommen. Zu einer Zeit, als händeringend nach Erklärungen für Donald Trumps Sieg in den US-Präsidentschaftswahlen und den Brexit-Ausstieg gesucht wurde. „Die Beweislast aus den damals veröffentlichten Paper ist schon sehr dünn. Da wurde mit niedrigen wissenschaftlichen Standards gearbeitet. Beispielsweise wurde es versäumt zu überprüfen, ob die verwendeten Bot-Erkennungstools überhaupt Bots erkennen können“, sagt Kreil.
Seine Bot-Recherchen bündelte Kreil zusammen mit dem Co-Autoren Florian Gallwitz von der Technischen Hochschule Nürnberg in der Untersuchung The Rise and Fall of „Social Bot“ Research, veröffentlicht auf Tomorrow’s Research Today. Darin zeigen sie, dass fast alle Studien zu Social Bots gravierende wissenschaftliche Mängel aufweisen und die meisten vermeintlich entdeckten Social Bots in Wirklichkeit echte Menschen sind. „Man hat Social Bots so definiert, dass sie nicht von Menschen zu unterscheiden sind, und dann versucht, sie doch von Menschen zu unterscheiden. Genauso gut könnte man nach unsichtbaren Einhörnern suchen“, sagt Kreil. So gesehen könne jedes menschliche Verhalten auch als Social Bot erklärt werden – weil Menschen durch beispielsweise das Posten wie aus einem Kanonenrohr Aufmerksamkeit suchen oder wie zu Zeiten der Pandemie wirre Thesen verbreiten, würden sie oft als Social Bots verdächtigt.
Bots als Mittel der Gegenrede
Dass Bots auch verhärtete Diskussionen in Kommentarspalten aufbrechen und Leute zum Lachen bringen können, dokumentiert die Online-Plattform botwiki.org. So reagiert der schwedische Bot @invandringgarna auf Hate Speech gegen Flüchtlinge auf X mit moralischer Verantwortung, diese Menschen willkommen zu heißen. u/nwordcountbot zählt rassistische Beiträge auf Reddit, die das sogenannte N-Wort benutzen. Die Quellcodes einiger der mehr als 2.000 aufgelisteten Bots sind frei verfügbar, sodass man sie auch selbst für eigene Projekte verwenden kann. „Das Wort ‚Bot‘ ist mit einem gewissen Stigma behaftet. In hitzigen Online-Konversation beschuldigen sich Menschen gegenseitig, Bots zu sein. Selbst wenn das der Fall ist, die Dinge, die ein Bot online stellt, wurden tatsächlich von einem Menschen geschrieben“, sagt Stefan Bohacek, Webentwickler und Botwiki-Gründer.
Bohacek hat die US-amerikanische Plattform vor acht Jahren gegründet und leitet das Projekt zusammen mit einem kleinen Team ehrenamtlich. Zugleich ist Botwiki Anlaufstelle für Menschen, die daran interessiert sind, Bots selbst zu kreieren. Laut Bohacek sind es mehr als 5.500 registrierte Nutzer*innen, die ihre Erfahrungen inzwischen in der Online-Community botmakers austauschen. Alle Mitglieder müssen Verhaltensregeln beachten, die etwa das Erstellen von betrügerischen Bots verbieten. Der Spaß am Botmachen steht für Bohacek im Mittelpunkt. „Denk nicht zu sehr über technische Entscheidungen nach. Lass glückliche Zufälle geschehen.“ Eine vergleichbare Plattform wie Botwiki gibt es in Deutschland nicht.
Woran entlarvt man Bots?
Es ist wichtig, sich klarzumachen, dass auf Social Media oder bei Messenger-Diensten nicht nur Menschen miteinander kommunizieren. Gerade weil automatisierte Accounts missbräuchlich eingesetzt werden können, um Nutzer*innen zu täuschen. Folgt daraus aber, sich selbst eine Indizienliste zur Erkennung von Bots anzufertigen? Nach Einschätzungen der oben befragten Experten führt das am Kernproblem vorbei. Vielmehr geht es um die Frage, ob ein Account zuverlässige Informationen liefert und an sich vertrauenswürdig ist – damit du betrügerischen und irreführenden Informationen gar nicht erst auf den Leim gehst. Tipps und Merkmale für die Beurteilung kannst du in unserem Beitrag Das habe ich bei Whatsapp gelesen – vertrauenswürdige Quellen erkennen nachlesen.
Fazit
Wie ausgeklügelt Bots sind und wie sie tatsächlich auf Nutzer*innen wirken, das fordert Wissenschaftler*innen aktuell heraus. Bots bedrohen unsere Debatten und Demokratie nicht von sich aus. Sie sind zunächst einmal automatisierte Programme. In den falschen Händen können sie eben Schlechtes bewirken. Aber auch für Service-Zwecke, Unterhaltung sowie als Mittel der Gegenrede sind Bots nützlich und wünschenswert. Im Umgang mit Nutzerkonten jedweder Art solltest du dich eher darauf berufen, die Verlässlichkeit der Informationen zu prüfen. Mach dir auch klar, dass hinter Likes und Shitstorms gezielte Kampagnen stecken können – ob vollautomatisiert, durch rein menschliches Eingreifen über sogenannte Trolle oder durch eine Mischung aus beidem.
Weiterführende Links:
- Youtube-Video zu einem Vortrag von Michael Kreil über Social Bots auf einer Tagung des Chaos Computer Club im Dezember 2017 34C3 – Social Bots, Fake News und Filterblasen
- Beitrag von der Bundeszentrale für politische Bildung Social Bots: Zwischen Phänomen und Phantom von Mai 2019
- Beitrag von Spektrum.de Wie Menschen zu Bots werden von Mai 2020
Bildquellen: Michael Kreil, Stefan Bohacek | Bearbeitung: MvonS
Über die Autorin
Victoria Graul ist freie Journalistin und engagiert sich auf vielen Ebenen mit eigenen Workshops und Vorträgen zu den Themen Faktencheck, Desinformation und Medienkompetenz. Sie betreibt den Podcast Digga Fake – Fake News & Fact-Checking. Davor arbeitete sie als Online-Redakteurin, unter anderem für die Freie Presse und das RND RedaktionsNetzwerk Deutschland.
Schon gewusst?
Ob Bot-Konten auf Social-Media-Plattformen gelöscht werden, entscheidet jedes Tech-Unternehmen für sich. In der EU gilt seit 2018 ein Verhaltenskodex für Desinformation. Darin verpflichten sich die Unterzeichnenden freiwillig, Fälschung und Manipulation auf ihren Plattformen zu bekämpfen. Zu den 44 Unternehmen gehören aktuell Meta, Google und TikTok.
„@Bot123 gefällt das“ – Was steckt hinter (Social) Bots?
Viele Tätigkeiten im Internet sind automatisiert – von Bezahlvorgängen über KI-Chatbots bis hin zu Politiker-Accounts, die massenhaft Nachrichten von einer Partei teilen. Sie alle fußen auf der Bot-Technologie. Viele Menschen verbinden mit diesem Begriff aber ein Gefühl von Unsicherheit und Täuschung. Insbesondere sorgen Schlagzeilen über Fake-Accounts und Meinungsmache durch Social Bots auf Social-Media-Plattformen für Unbehagen. Das Gefahrenpotenzial von Social Bots ist allerdings schwer zu bestimmen, auch wie man diese überhaupt erkennt. Wir zeigen, woran das liegt und wie du Bots als Instrument der Gegenrede nutzen kannst.
Du hast eben ein Urlaubsfoto auf deinem Instagram-Profil gepostet und – schwupps – den ersten Kommentar von einem unbekannten Account bekommen: „Das sieht traumhaft aus. Schau doch mal auf unserer Seite vorbei.“ Kann das wirklich echt sein? Wer so schnell reagiert und obendrauf mit einem werbeähnlichen Spruch antwortet, kann das doch nur organisiert machen, denkst du dir vielleicht. Selbst Websites gehen davon aus, dass sich nicht nur Menschen durch das Internet bewegen. Wenn man beispielsweise zu viele Suchanfragen innerhalb kürzester Zeit in die Google-Suchmaschine eingibt, kommt die Benachrichtigung „Ungewöhnlich viele Zugriffe über Ihr Computernetzwerk“. Einige Anbieter*innen verwenden auch die sogenannte Captcha-Abfrage. Hier muss man Wörter eingeben oder beispielsweise Ampel-Bilder auswählen, um zu bestätigen, kein Bot zu sein.
Was sind Bots überhaupt?
Das Wort „Bot“ ist eine Abkürzung für „Roboter“ und vielleicht etwas irreführend. Es handelt sich zwar um eine programmierte Maschine, die automatisch Befehle ausführt. Aber ein Bot ist eine Software und hat keinen festen Körper – anders als ein Roboter wie du ihn aus großen Industriehallen oder als Bodenwischroboter im Haushalt kennst. Als einer der ersten und bekannten Bots gilt das Programm Daemon aus dem Jahr 1963, entwickelt von einem US-Wissenschaftsteam um den Informatiker Fernando J. Corbató am Massachusetts-Institut für Technologie in Massachusetts, USA. Es scannte das Speichersystem eines Computers und fertigte Sicherungskopien von Dateien an.
Es gibt verschiedene Arten von Bots, angefangen von einfachen Anmeldeskripten wie Passwortspeicher im Browser bis hin zu komplexen Programmen, die mit künstlicher Intelligenz ausgestattet sind. Außerdem kommen Bots in teil- und vollautomatisierten Prozessen zum Einsatz. Das heißt, manchmal nehmen sie die Rolle eines digitalen Assistenten ein, andere Male ist menschliches Eingreifen gar nicht nötig. Zu den typischen Bots zählen beispielsweise:
- Chatbots: Sie sind oftmals integriert in eine Reihe bestehender Dienste wie auf Unternehmenswebsites oder in Messenger-Programmen von Whatsapp, Telegram und Co. Bekannte KI-Chatbots sind ChatGPT oder Bard. Auch in speziell angefertigten Maschinen wie Smart-Home-Geräten werden Chatbots eingesetzt.
- Web-Crawler: Diese Algorithmen durchsuchen das Internet, indem sie etwa Websites anhand ihrer Daten bewerten (crawlen) und in Suchmaschinen auflisten.
- Spambots: Hier werden massenhaft unerwünschte Nachrichten in Kommentarspalten, per Email und Co. versendet. Inhaltlich geht es dabei in der Regel um Produktwerbung oder Links zu dubiosen Seiten, auf denen sich auch Schadprogramme befinden können.
Mit dem Aufkommen sozialer Plattformen ist es aber vor allem der Social Bot, wenn man heute an automatisierte Akteure im Netz denkt. Dabei handelt es sich um Social-Media-Accounts, die menschliches Verhalten wie das Liken oder Erstellen von Beiträgen imitieren. Gerade weil Social Bots per Definition vorgeben, Menschen zu sein, und darüber hinaus mit anderen Nutzer*innen kommunizieren, werden sie mit böswilligen Handlungen in Verbindung gebracht. Social-Media-Plattformen sind hierfür die idealen Verbreitungswege. Sie bieten öffentliche Programmierschnittstellen (sogenannte API) an, die eine Software-Steuerung erlaubt und Programmierer*innen so den Einbau von Bots ermöglicht.
Wie gehen Social-Media-Plattformen mit Bots um?
Jede Social-Media-Plattform verfolgt ihre eigene Agenda, was den Zugang von Bots und Verstöße gegen die Community-Richtlinien betrifft. Beispielsweise verlangen X und Meta von Entwickler*innen, dass ihr Konto, über das ein Bot verknüpft werden soll, mit einer eindeutigen Telefonnummer und Email-Adresse verifiziert werden muss. Mit dem Verhaltenskodex für Desinformation verpflichten sich etwa Meta, Google und TikTok innerhalb der EU zur Selbstregulierung, um die Verbreitung von Fake News auf ihren Plattformen einzudämmen. Das beinhaltet unter anderem die Schließung von Bot-Konten.
Für Social-Media-Nutzer*innen ist es dennoch kompliziert, automatisierte Akteure zu erkennen. Weil die Plattformen solche Technologie zuerst einmal erkennen müssen, dann selbst entscheiden, wie genau sie gegen Verstöße vorgehen und an welchem Punkt der Bearbeitung Nutzer*innen davon Wind bekommen. So ist es denkbar, dass ein Social Bot ein KI-generiertes Profilbild verwendet und Kontakt zu anderen automatisierten Accounts knüpft. Eine ganze Spambot-Architektur kann die Folge sein, auf deren Grundlage ohne Ende Likes für hetzerische Beiträge verteilt würden, die die Mitlesenden eigentlich gar nicht gut finden. Wurde die Kampagne durch Menschen gesteuert, die zuvor Bot-erstellte Accounts übernahmen? Zu welchem Zeitpunkt greift die Plattform ein? Ist die eigene Meinung da bereits beeinflusst?
In der medialen Berichterstattung werden Social Bots häufig als Gruppe beziehungsweise Armee dargestellt. So berichtete die Süddeutsche Zeitung im April 2023 von Putins Bot-Armee auf Social Media und die Investigativ-Gruppe Forbidden Stories enthüllte im Februar 2023 den Einsatz eines Bot-Netzwerkes bei der weltweiten Desinformationskampagnen aus Israel. Das klingt alarmierend und deckt sich mit weiteren Schlagzeilen aus den vergangenen Jahren, die andeuten, dass Social-Bot-Aktivitäten ein globaler Trend quer durch alle Themenbereiche sind. Twitter-Bots hätten die Aktien des Elektrobauers Tesla beeinflusst, schreibt etwa Wirtschaftswoche. Auch seien Bots laut Spiegel-Berichterstattung als Meinungsmaschinen bereits 2016 im Rahmen des Brexit-Referendums eingesetzt worden.
Herausforderungen bei der Bot-Erkennung
Mittlerweile mischt sich in das Stimmungsbild aus den Medien aber auch ein anderer Blickpunkt. Denn in der Wissenschafts-Community ist die Frage nach Social Bots und deren Existenz durchaus ein Streitthema. Der Datenjournalist Michael Kreil geht sogar so weit zu sagen, dass Social Bots auf einer Misinformation aus dem Jahr 2016 fußen. Zahlreiche seriöse Medien weltweit hätten damals nicht wissenschaftlich anerkannte Forschungsergebnisse von einigen Wissenschaftler*innen übernommen. Zu einer Zeit, als händeringend nach Erklärungen für Donald Trumps Sieg in den US-Präsidentschaftswahlen und den Brexit-Ausstieg gesucht wurde. „Die Beweislast aus den damals veröffentlichten Paper ist schon sehr dünn. Da wurde mit niedrigen wissenschaftlichen Standards gearbeitet. Beispielsweise wurde es versäumt zu überprüfen, ob die verwendeten Bot-Erkennungstools überhaupt Bots erkennen können“, sagt Kreil.
Seine Bot-Recherchen bündelte Kreil zusammen mit dem Co-Autoren Florian Gallwitz von der Technischen Hochschule Nürnberg in der Untersuchung The Rise and Fall of „Social Bot“ Research, veröffentlicht auf Tomorrow’s Research Today. Darin zeigen sie, dass fast alle Studien zu Social Bots gravierende wissenschaftliche Mängel aufweisen und die meisten vermeintlich entdeckten Social Bots in Wirklichkeit echte Menschen sind. „Man hat Social Bots so definiert, dass sie nicht von Menschen zu unterscheiden sind, und dann versucht, sie doch von Menschen zu unterscheiden. Genauso gut könnte man nach unsichtbaren Einhörnern suchen“, sagt Kreil. So gesehen könne jedes menschliche Verhalten auch als Social Bot erklärt werden – weil Menschen durch beispielsweise das Posten wie aus einem Kanonenrohr Aufmerksamkeit suchen oder wie zu Zeiten der Pandemie wirre Thesen verbreiten, würden sie oft als Social Bots verdächtigt.
Bots als Mittel der Gegenrede
Dass Bots auch verhärtete Diskussionen in Kommentarspalten aufbrechen und Leute zum Lachen bringen können, dokumentiert die Online-Plattform botwiki.org. So reagiert der schwedische Bot @invandringgarna auf Hate Speech gegen Flüchtlinge auf X mit moralischer Verantwortung, diese Menschen willkommen zu heißen. u/nwordcountbot zählt rassistische Beiträge auf Reddit, die das sogenannte N-Wort benutzen. Die Quellcodes einiger der mehr als 2.000 aufgelisteten Bots sind frei verfügbar, sodass man sie auch selbst für eigene Projekte verwenden kann. „Das Wort ‚Bot‘ ist mit einem gewissen Stigma behaftet. In hitzigen Online-Konversation beschuldigen sich Menschen gegenseitig, Bots zu sein. Selbst wenn das der Fall ist, die Dinge, die ein Bot online stellt, wurden tatsächlich von einem Menschen geschrieben“, sagt Stefan Bohacek, Webentwickler und Botwiki-Gründer.
Bohacek hat die US-amerikanische Plattform vor acht Jahren gegründet und leitet das Projekt zusammen mit einem kleinen Team ehrenamtlich. Zugleich ist Botwiki Anlaufstelle für Menschen, die daran interessiert sind, Bots selbst zu kreieren. Laut Bohacek sind es mehr als 5.500 registrierte Nutzer*innen, die ihre Erfahrungen inzwischen in der Online-Community botmakers austauschen. Alle Mitglieder müssen Verhaltensregeln beachten, die etwa das Erstellen von betrügerischen Bots verbieten. Der Spaß am Botmachen steht für Bohacek im Mittelpunkt. „Denk nicht zu sehr über technische Entscheidungen nach. Lass glückliche Zufälle geschehen.“ Eine vergleichbare Plattform wie Botwiki gibt es in Deutschland nicht.
Woran entlarvt man Bots?
Es ist wichtig, sich klarzumachen, dass auf Social Media oder bei Messenger-Diensten nicht nur Menschen miteinander kommunizieren. Gerade weil automatisierte Accounts missbräuchlich eingesetzt werden können, um Nutzer*innen zu täuschen. Folgt daraus aber, sich selbst eine Indizienliste zur Erkennung von Bots anzufertigen? Nach Einschätzungen der oben befragten Experten führt das am Kernproblem vorbei. Vielmehr geht es um die Frage, ob ein Account zuverlässige Informationen liefert und an sich vertrauenswürdig ist – damit du betrügerischen und irreführenden Informationen gar nicht erst auf den Leim gehst. Tipps und Merkmale für die Beurteilung kannst du in unserem Beitrag Das habe ich bei Whatsapp gelesen – vertrauenswürdige Quellen erkennen nachlesen.
Fazit
Wie ausgeklügelt Bots sind und wie sie tatsächlich auf Nutzer*innen wirken, das fordert Wissenschaftler*innen aktuell heraus. Bots bedrohen unsere Debatten und Demokratie nicht von sich aus. Sie sind zunächst einmal automatisierte Programme. In den falschen Händen können sie eben Schlechtes bewirken. Aber auch für Service-Zwecke, Unterhaltung sowie als Mittel der Gegenrede sind Bots nützlich und wünschenswert. Im Umgang mit Nutzerkonten jedweder Art solltest du dich eher darauf berufen, die Verlässlichkeit der Informationen zu prüfen. Mach dir auch klar, dass hinter Likes und Shitstorms gezielte Kampagnen stecken können – ob vollautomatisiert, durch rein menschliches Eingreifen über sogenannte Trolle oder durch eine Mischung aus beidem.
Weiterführende Links:
- Youtube-Video zu einem Vortrag von Michael Kreil über Social Bots auf einer Tagung des Chaos Computer Club im Dezember 2017 34C3 – Social Bots, Fake News und Filterblasen
- Beitrag von der Bundeszentrale für politische Bildung Social Bots: Zwischen Phänomen und Phantom von Mai 2019
- Beitrag von Spektrum.de Wie Menschen zu Bots werden von Mai 2020
Bildquellen: Michael Kreil, Stefan Bohacek | Bearbeitung: MvonS
Über die Autorin
Victoria Graul ist freie Journalistin und engagiert sich auf vielen Ebenen mit eigenen Workshops und Vorträgen zu den Themen Faktencheck, Desinformation und Medienkompetenz. Sie betreibt den Podcast Digga Fake – Fake News & Fact-Checking. Davor arbeitete sie als Online-Redakteurin, unter anderem für die Freie Presse und das RND RedaktionsNetzwerk Deutschland.
Latest (Top 5)
Schon gewusst?
Ob Bot-Konten auf Social-Media-Plattformen gelöscht werden, entscheidet jedes Tech-Unternehmen für sich. In der EU gilt seit 2018 ein Verhaltenskodex für Desinformation. Darin verpflichten sich die Unterzeichnenden freiwillig, Fälschung und Manipulation auf ihren Plattformen zu bekämpfen. Zu den 44 Unternehmen gehören aktuell Meta, Google und TikTok.