von Annika Arndt (✉ annika.arndt@univie.ac.at)
"Menschen neigen dazu, Informationen zu akzeptieren, die mit ihrer sozialen Identität sowie ihren politischen Überzeugungen übereinstimmen. Emotionen kochen hoch, wenn diese Identitäten angegriffen oder bestärkt werden", so Jula Lühring, Mitarbeiterin im Projekt EMOMIS am Institut für Publizistik- und Kommunikationswissenschaft. Das vom WWTF finanzierte Projekt wird von Annie Waldherr und Jula Lühring in Kooperation mit dem Complexity Science Hub Vienna seit 2021 durchgeführt. Im Fokus von EMOMIS steht die Untersuchung der Rolle von Emotionen bei der Verarbeitung und Verbreitung von Fehlinformationen. Die Forscher*innen streben dabei an, soziale und algorithmische Faktoren in sozialen Medien zu identifizieren, die Falschnachrichten begünstigen. Dann wird "in Experimenten und mittels Computersimulation getestet, wie Dynamiken in der Verbreitung von Misinformation in sozialen Medien reduziert werden können". Das Projektteam arbeitet derzeit an der umfangreichen Datenanalyse, bei der erste vielversprechende Tendenzen erkennbar sind.
Ziele und Fragen der Forschung – Emotionen und Interventionsstrategien gegen Fehlinformationen
In Kooperation mit dem Complexity Science Hub (CSH) Vienna und einem Team bestehend aus sechs Forscher*innen wird ein tieferes Verständnis angestrebt, wie Emotionen die Verbreitung von Falschinformationen auf X (ehemals Twitter) beeinflussen und welche Maßnahmen zur Eindämmung dieser Verbreitung wirkungsvoll sein könnten. Das Ziel ist es, soziale Muster zu erkennen, zu entschlüsseln und zu verstehen, um so Interventionsstrategien zu entwickeln. Wie können Maßnahmen aussehen, um die Glaubwürdigkeit und Verbreitung von Misinformation, die in sozialen Medien geteilt wird, zu reduzieren und damit verbundenen Problemen wie das Misstrauen in politische Institutionen und Medien entgegen zu treten? Bisherige Forschung zeigte, dass sich Misinformationen "nicht so stark in die Masse, sondern eher in die Tiefe einzelner Gruppen" verbreiten, aber dennoch großen gesamtgesellschaftlichen Schaden anrichten können, wie Jula Lühring erläutert.
Ein erster Preprint und laufende Analysen: Emotionen, Misinformationen und soziale Dynamiken auf X/Twitter
Das Projektteam hat eine erste Studie abgeschlossen und die Ergebnisse in einem Preprint publiziert. Untersucht wurde die Beziehung zwischen Emotionen und der Glaubwürdigkeit von Nachrichten mit oder ohne Anteil von Misinformation. Die zentrale Frage lautete, ob emotionale Aufregung die Wahrscheinlichkeit erhöht, dass Menschen (an) Falschnachrichten glauben, was sich in der Studie nicht bestätigen ließ. Stattdessen zeigte sich, dass Emotionen eine eher funktionale Rolle übernehmen und Falschnachrichten eher akzeptiert werden, wenn sie mit den bestehenden Überzeugungen der Empfänger*innen in Einklang stehen. Darauf basierend entstehen Emotionen oft als Reaktion auf den Inhalt eines Tweets. Als Konsequenz dieser Erkenntnis wurden politische Überzeugungen und soziale Identität als zusätzliche Prädiktoren neben der Emotionalität in die Untersuchung aufgenommen.
Derzeit sind die Forscher*innen mit der Datenauswertung beschäftigt. Die von Jula Lühring gesammelten Datensätze umfassen etwa 44 Millionen Tweets, die hinsichtlich ihrer Glaubwürdigkeit und der darin ausgelösten Emotionen untersucht werden. Zusätzlich wird analysiert, welche Quellen von den Nutzern geteilt werden. In diesem Zusammenhang werden auch die politische Zugehörigkeit und soziale Identität der Nutzer*innen analysiert. Die Forscher*innen sind in diesem Kontext interessiert, inwieweit Nutzer*innen aktiv versuchen, sich von anderen Gruppen (etwa politischen Eliten, Wissenschaftler*innen oder Migrant*innen) zu distanzieren. Dafür werden Tweets untersucht, die sich auf Nachrichten mit geringerer Glaubwürdigkeit beziehen, aber auch glaubwürdige Nachrichten. So kann evaluiert werden, ob Fehlinformationen besonders negative Gefühle wie Wut hervorrufen. Final arbeitet das Forschungsteam darauf hin, die Zusammenhänge zwischen Emotionen und Fehlinformationen auf der einen und dem Veröffentlichen, Liken und Teilen von Inhalten auf der anderen Seite zu erfassen, um so die Dynamiken auf X/Twitter verstehen zu können.
Zeitgleich führen Hannah Metzler, Apeksha Shetty und David Garcia am Complexity Science Hub experimentelle Studien durch, um potenzielle Maßnahmen zu identifizieren, die dabei helfen können, den Glauben von Nutzer*innen an Fehlinformationen zu verringern und so zeitgleich die Verbreitung eben dieser einzuschränken. Hierfür werden sämtliche Daten der beiden Projektpartner in eine Computersimulation integriert, um Handlungsempfehlungen für soziale Medienplattformen und die politische Ebene ableiten zu können.
Automatisierte Datenauswertung und Simulationsansatz: Ein Blick auf die Forschungsmethoden
Um die Analyse der riesigen Datensätze zu ermöglichen, setzt das Forschungsteam auf automatisierte Verfahren. Der eingesetzte Algorithmus basiert auf Sprachmodellen, der Emotionen durch Inhaltsanalysen erkennen kann. Diese gesammelten und später ausgewerteten Daten dienen als Grundlage für eine Computersimulation. Diese Simulation wird auf Grundlage der vorangegangenen Datenanalyse von Inhalten automatisch betrieben und kann soziale Medien dynamisch imitieren – sozusagen ein "virtuelles X/Twitter", wie Annie Waldherr beschreibt. Erste Ergebnisse deuten darauf hin, dass Menschen auf die Rezeption von Falschinformationen häufig mit Wut reagieren, unabhängig davon, ob sie diesen Glauben schenken oder nicht. Mittels gezielter Anpassungen der Algorithmen, Funktionen und der ausgearbeiteten Interventionsstrategien soll gezeigt werden, wie die Verbreitung von Falschinformationen und negativen Emotionen – wie etwa Wut – reduziert werden kann.
Erfolge und Herausforderungen nach einem Jahr: Ein Blick in die Zukunft des Projekts
Nach mehr als einem Jahr intensiver Arbeit laufen die Datenauswertung und die Vorbereitungen für die Computersimulation. Die analysierten Tweets stammen allesamt aus dem deutschsprachigen Raum. Hierbei eröffnen sich neue Perspektiven für die zukünftige Forschung, insbesondere im Hinblick auf vergleichende Analysen mit anderen Plattformen. Bereits jetzt wird deutlich, dass die Interventionen, also die Beeinflussung von Glauben der Nutzer*innen an Fehlinformationen, ein langfristiger Prozess ist. In diesem Zusammenhang stellt sich die Frage, wie dauerhafte Veränderungen in der Einstellung der betroffenen Personen angeregt werden können.
Annie Waldherr und Jula Lühring haben während ihrer Arbeit zudem eine ernste Herausforderung identifiziert. Mit der Übernahme von X/Twitter durch Elon Musk wurde der zuvor eigens für Wissenschaftler*innen eingerichtete Zugang zu Tweets und Metadaten gesperrt. Dies wirft mittel- und langfristig die Frage auf, ob und welche Daten künftig transparent für die Forschung zur Verfügung stehen werden.
Das Projektteam am Institut
Annie Waldherr ist seit 2020 Professorin für Computational Communication Science am Institut für Publizistik- und Kommunikationswissenschaft der Universität Wien. In ihrer Forschung beschäftigt sie sich mit digitalisierten Öffentlichkeiten, Computational Communication Science und politischer Kommunikation. Gemeinsam mit Hajo Boomgaarden leitet sie das Computational Communication Science Lab.
Jula Lühring ist seit 2022 Universitätsassistentin Praedoc und Projektmitarbeiterin am Institut für Publizistik- und Kommunikationswissenschaft der Universität Wien. Ihre Forschung konzentriert sich auf die Auswirkungen von Misinformation, politische Kommunikation im Allgemeinen sowie Computation Social Science(s).