Die Nutzung von sozialen Netzwerken wie Facebook oder Twitter sind Teil unserer heutigen Gesellschaft und dienen als Sprachrohr der eigenen Meinung. Immer häufiger kommt es zu Mitteilungen, dass unter den menschlichen Akteuren auch Bots vorhanden sind, die das Meinungsklima in eine bestimmte Richtung lenken (RP Online, 2018; Beuth, 2018). Doch inwiefern haben diese Bots einen Einfluss auf die Mehrheitsmeinungsbildung in sozialen Netzwerken und können heutige Verfahren wie agentenbasierte Modellierung dabei helfen diese Frage zu beantworten?

Der Begriff Bot (von englisch robot) beschreibt ein Algorithmus der selbstständig in der Lage ist über das Internet automatisierte Aufgaben zu erledigen ohne dabei auf menschliche Unterstützung angewiesen zu sein, dabei gibt es unterschiedliche Arten von Bots. Im Gegensatz zu Chatbots welche sich hauptsächlich auf den aktiven Dialog zwischen dem User konzentrieren, agieren Social-Bots in sozialen Netzwerken und haben die Eigenschaft autonom eine Interaktion im Netzwerk zu tätigen. Diese Interaktion kann vielfältig sein wie beispielsweise das Verfassen eines Kommentars oder das Liken oder Teilen eines bestimmten Artikels in einem online Netzwerk. Durch die Nachahmung des menschlichen Verhaltens, ist es derzeitig schwierig diese Social-Bots in einem Netzwerk eindeutig zu identifizieren und festzustellen, ob es sich hierbei um eine reale Person oder einen Algorithmus handelt.  Aktuelle Ansätze zielen darauf ab, mit Machine-Learning Methoden Bots zu erkennen (Subrahmanian et al., 2016). Dabei werden Verfahren des Unsupervised-Learning mit Hilfe von Clustering (Miller et al., 2014) verwendet oder Algorithmen des Supervised Learning benutzt um Menschen codierte Daten vorherzusagen (Varol et al., 2017). Häufig werden diese Bots nicht nur im wirtschaftlichen Bereich eingesetzt, um zum Beispiel die Aufmerksamkeit von verschiedenen Unternehmen und Produkten zu erhöhen, sondern auch im politischen Umfeld, um den gesellschaftlichen Diskurs einzelnen Personen zu manipulieren. Eine Studie von Bessi & Ferrara untersuchte die Aktivität und das Verhalten von Social-Bots zu den US-Präsidentschaftswahlen im Jahre 2016 bei dem in etwa 400.000 Bots identifiziert worden waren und an der politischen Diskussion über die Präsidentschaftswahlen teilnehmen hatten (Bessi & Ferrara, 2016). In dem Zeitraum vom 16. September bis 21. Oktober 2016 hatten diese Bots ca. 3,8 Millionen Tweets geschrieben und somit aktiv in dem Wahlkampf mitagiert.

Mit dieser recht starken Präsenz von Bots in der Online-Kommunikation, ist es vorstellbar, dass diese Bots das Potenzial bergen, ein gewisses politisches Meinungsklima zu vermitteln. Dieses Meinungsklima müsste nicht zwangsläufig die Meinungsverteilung der Bevölkerung widerspiegeln und könnte theoretisch zur Täuschung genutzt werden. Etwa um eine Mehrheitsmeinung zu suggerieren (z.B. Hillary Clinton ist korrupt), die aber faktisch unter BürgerInnen und Social Media-NutzerInnen gar nicht besteht. Wenn man bedenkt, dass Menschen wenige nutzergenerierte Kommentare auf Social Media als Anhaltspunkte nutzen, um auf Meinungstrends in der Bevölkerung zu schließen (Neubaum & Krämer, 2017), könnten Bots, die einstimmig einen Standpunkt vertreten, relativ einfach ein verzerrtes Meinungsbild transportieren. Sollte der Nutzer/die Nutzerin dann feststellen, dass seine/ihre Meinung nicht mit der der Mehrheit (die vielleicht künstlich von Bots geschaffen wurde) übereinstimmt, könnte es dazu kommen, dass er/sie sich nicht mehr traut, öffentlich seinen/ihren politischen Standpunkt zu vertreten. Dieses Prinzip wurde bereits in der Theorie der Schweigespirale festgehalten, welche von (Noelle-Neumann, 1974): Je stärker ich das politische Meinungsklima mit meinem Standpunkt übereinstimmend wahrnehme, desto eher bin ich bereit, diese Meinung auch öffentlich zu äußern. Über eine Zeit hochgerechnet, bedeutet, dass eine Meinungsfraktion (die vermeintliche Mehrheit) immer sichtbarer wird, während eine andere (die vermeintliche Minderheit) immer stärker von der Bildfläche verschwindet.

Vor diesem Hintergrund stellt sich die Frage: Können Bots mit einer starken Aktivität nicht nur ein verzerrtes Meinungsklima vermitteln, sondern auch die Meinungsäußerung des Einzelnen beeinflussen? Neben der Problematik zur Identifikation der Bots, ist es mit derzeitigen Studien nicht realisierbar die dynamischen Prozesse der Schweigespirale mit Hilfe von Laborexperimenten oder Feldversuchen ohne hohen Aufwand und Kosten zu untersuchen und den Prozess detailliert zu simulieren. Die  aktuell erschienene Studie „Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks“ beschreibt einen Ansatz mit Hilfe von agentenbasierter Modellierung und der theoretischen Herleitung der Schweigespiral- Theorie, um den Einfluss von sozialen Bots auf das Meinungsklima innerhalb eines Netzwerkes (Ross et. al, 2019). Hierbei wurden in einer künstlichen Umgebung Kommunikationsprozesse in einem Netzwerk (wie z.B. Facebook oder Twitter) simuliert und getestet, unter welchen Umständen Individuen – und über eine gewisse Zeit hinweg – das ganze Netzwerk ihre Meinung mit anderen teilen. Das menschliche Verhalten wurde auf Basis bisheriger (psychologischer und kommunikationswissenschaftlicher) Literatur programmiert. In dieses Netzwerk wurden aber nicht nur menschlich reagierende Akteure eingebunden, sondern auch Bots in Form von künstlichen Akteuren, die eine programmierte Meinung vertreten.

Die Ergebnisse der Studie zeigen, dass 2 bis 4% Social Bots ausreichen, um das Meinungsklimas im Netzwerk zu beeinflussen und eine Mehrheitsmeinung zu vermitteln. Dabei ist nicht wichtig, welche Meinung der Bot vertritt, sondern (a) wie viele Verbindungen es zwischen den Usern im Netzwerk gibt, (b) ob ein Bot im Netzwerk zentral oder eher am Rand auftritt und (c) ob dieser Bot menschenähnlich kommuniziert oder nicht.

Die Studie knüpft an den Ergebnissen bestehender Forschung im Bereich der Schweigespirale an und gibt neue Ausblicke um Verfahren dahingehend weiterzuentwickeln. Der Vorteil dieser Verfahren ist, dass mit Hilfe von agentenbasierter Modellierung komplexe Verhaltensweisen in einem Netzwerk auf verschiedenen Ebenen behandelt und mehrere Szenarien durchgerechnet werden können. Somit können verschiedene Abläufe miteinander verglichen werden und Annahmen darüber getroffen werden, welche Einflüsse Social Bots in einem sozialen Netzwerk bei einer Mehrheitsverteilung haben.

Im Zuge der Digitalisierung und der stetigen Vernetzbarkeit der Menschen werden Verfahren mit agentenbasierter Modellierung und Simulationen immer wichtiger, weil sie es ermöglichen mit Hilfe von mathematischen Modellen auf Basis von Beobachtungen vorhandener Studien, präzise und reproduzierbare Ergebnisse zu liefern. Dies ermöglicht für die zukünftige Forschung in einem interdisziplinären Gebiet neue Möglichkeiten.

Während diese neuen Ergebnisse zunächst pessimistisch auf die Manipulierbarkeit von Online-Netzwerken blicken lassen, sollte abschließend berücksichtigt werden, dass die Studie eine künstliche Simulation bzw. Hochrechnung darstellt, welche die Komplexität des menschlichen Verhaltens nicht vollständig abbilden kann. Dennoch sollte diese und neu aufkommende Studien zu Social Bots Regierungen und Online-Dienstanbieter dazu einladen, Maßnahmen zu planen und zu ergreifen, um künstliche Entitäten mit einer Manipulationsabsicht zu identifizieren, zu entfernen und damit den gesellschaftlichen Deliberationsprozess auch online so authentisch wie möglich ablaufen lassen.

Referenzen:

Bessi, A., & Ferrara, E. (2016). Social bots distort the 2016 U.S. Presidential election online discussion. First Monday, 21, 11.

Beuth P. (2018). Die elektronische Sau im Dorf. Spiegel Online. Retrieved from http://www.spiegel.de/netzwelt/web/social-bots-die-elektronische-sau-im-dorf-a-1244141.html

Miller, Z., Dickinson, B., Deitrick, W., Hu, W., and Wang, A. H. (2014). Twitter spammer detection using data stream clustering. Information Sciences, 260:64–73.

Neubaum, G., & Krämer, N. C. (2017). Monitoring the opinion of the crowd: Psychological mechanisms underlying public opinion perceptions on social media. Media Psychology, 20, 502–531. doi:10.1080/15213269.2016.1211539

Noelle-Neumann, E. (1974). The spiral of silence a theory of public opinion. Journal of Communication24(2), 43-51.

Ross, B., Pilz, L., Cabrera, B., Brachten, F., Neubaum, G., & Stieglitz, S. (2019). Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks. European Journal of Information Systems (EJIS). DOI: 10.1080/0960085X.2018.1560920

RP Online (2018). Meinungsroboter twitterten gegen UN-Migrationspakt. https://rp-online.de/panorama/ausland/die-meinungsroboter-social-bots-twitterten-gegen-un-migrationspakt_aid-35029869

Subrahmanian, V., Azaria, A., Durst, S., Kagan, V., Galstyan, A., Lerman, K., Zhu, L., Ferrara, E., Flammini, A., Menczer, F., et al. (2016). The DARPA Twitter bot challenge. Computer, 49(6):38–46.

Törnberg P (2018) Echo chambers and viral misinformation: Modeling fake news as complex contagion. PLOS ONE 13(9): e0203958.https://doi.org/10.1371/journal.pone.0203958

Varol, O., Ferrara, E., Davis, C. A., Menczer, F., and Flammini, A. (2017). On- line human-bot interactions: Detection, estimation, and characterization. In Proc. Intl. AAAI Conf. on Web and Social Media (ICWSM).


Die Meinungs-Roboter, die BürgerInnen zum Schweigen bringen?