von Alina Vianne Barr (✉ alina.vianne.barr@univie.ac.at)
Die allgegenwärtige Präsenz von Hassinhalten auf sozialen Medien kann dazu führen, dass Nutzer*innen ein verzerrtes Bild davon entwickeln, was als normales oder akzeptables Verhalten gilt. Häufige Konfrontation mit digitalem Hass kann einerseits das Problembewusstsein und die Bereitschaft zum Handeln von Nutzer*innen stärken, andererseits aber auch zu Gleichgültigkeit und Normalisierung von Hass führen.
In der vorliegenden Studie wurde zwischen drei Arten des digitalen Hasses – Unhöflichkeit, Intoleranz und Drohungen – unterschieden. Unhöflichkeit zeigt sich etwa durch vulgäre Sprache oder scharfen Ton, Intoleranz durch diskriminierende oder ausgrenzende Aussagen, wohingegen Drohungen explizit oder implizit sein können und jede Art von Einschüchterung umfassen. Beim Umgang mit digitalem Hass können Nutzer je nach Plattformfunktionen unterschiedlich eingreifen. Grundsätzlich lassen sich Interventionen in direkte und indirekte Maßnahmen unterteilen, je nach Grad der Sichtbarkeit und persönlichen Konsequenzen. Indirekte Interventionen, wie das Melden von Beiträgen, gelten meist als bevorzugte, risikoarme Option. Die Bereitschaft zum Eingreifen hängt hier oft von der Art und dem Ausmaß des Hasses ab. In Bezug auf Content-Moderation wurde in der Studie zwischen kontextualisierenden Maßnahmen (z. B. Warnungen oder Hinweise) und bestrafenden Maßnahmen (z. B. Content-Löschung oder Sperren des Nutzer*innen-Kontos) unterschieden. Die Studie wurde im Rahmen einer mehrteiligen Zwei-Wellen-Panelbefragung in Österreich durchgeführt. Während die Daten für die erste Welle vom 27. Juli bis 5. August 2023 erhoben wurden, wurde die zweite Befragung zwischen 27. September und 6. Oktober 2023 durchgeführt. Die Stichprobe umfasste jeweils ein Sample der österreichischen Allgemeinbevölkerung ab einem Alter von 16 Jahren.
Die Teilnehmenden wurden zu ihren Erfahrungen mit Unhöflichkeit, Intoleranz und Drohungen auf Social Media befragt – sowohl zur Häufigkeit der Konfrontation als auch zur wahrgenommenen Schwere der Inhalte. Zudem wurden ihre persönlichen Einstellungen, darunter zur Meinungsfreiheit, ihre eigenen Interventionsmaßnahmen sowie ihre Präferenzen zur Inhaltsmoderation erfasst. Die Ergebnisse zeigen, dass die Häufigkeit der Konfrontation mit digitalem Hass keinen Einfluss auf die Wahrnehmung des Ausmaßes hatte. Dies deutet darauf hin, dass Sensibilisierung nicht nur durch wiederholte Exposition, sondern auch durch persönliche Betroffenheit oder das Verhalten des sozialen Umfelds beeinflusst wird.
Bezüglich der Interventionsbereitschaft wird deutlich, wie wichtig die Unterscheidung zwischen direkten und indirekten Maßnahmen ist. Je häufiger Nutzer*innen mit unhöflichen, intoleranten oder bedrohlichen Inhalten konfrontiert waren, desto eher greifen sie später direkt ein (z.B. Kontern durch Kommentare oder direkte Nachrichten) – ein Hinweis auf Sensibilisierung. Auch ist erkennbar, dass Nutzer*innen bei als besonders schwerwiegend empfundenem Hass eher auf indirekte Maßnahmen (wie z.B. Melden von Inhalten) zurückgreifen. Obwohl die Befragten generell eine hohe Zustimmung zu Maßnahmen gegen alle Hassformen äußerten, wurde eine selektive Desensibilisierung gegenüber unhöflichen Inhalten deutlich: Je häufiger Nutzer*innen mit Unhöflichkeit konfrontiert waren, desto weniger sprachen sie sich für Moderationsmaßnahmen aus. Intoleranz und Drohungen hingegen blieben auch bei häufiger Konfrontation mit klaren Forderungen nach Eingriffen verbunden. Abschließend zeigte sich, dass Einstellungen zur Meinungsfreiheit eine wichtige Rolle bei der Unterstützung von einschränkenden Moderationsmaßnahmen spielen, besonders bei unhöflichen und bedrohlichen Inhalten.
Zusammengefasst lässt sich sagen, dass digitaler Hass zu einem unvermeidlichen Bestandteil des Alltags auf sozialen Medien geworden ist und nunmehr eine erhebliche gesellschaftliche Herausforderung darstellt. Um den Folgen effektiv entgegenzuwirken, reicht es nicht aus, allein auf die Moderation durch Plattformbetreiber zu setzen – auch die Nutzer*innen selbst müssen aktiv gegen Hassinhalte einschreiten. Studienautorin Rinat Meerson sagt dazu, dass "entgegen gängiger medialer Erzählungen, wonach sich die Öffentlichkeit an Hass im Netz gewöhnt habe, unsere Ergebnisse ein anderes Bild zeigen: Viele Nutzer*innen reagieren aktiv und direkt – etwa durch Kommentare, Meldungen oder private Nachrichten –, wenn sie mit Hassrede konfrontiert sind."
Zu den Autor*innen
Rinat Meerson ist wissenschaftliche Mitarbeiterin (Praedoc) im Projekt Digital Hate: Perpetrators, Audiences, and (Dis)Empowered Targets am Institut für Publizistik- und Kommunikationswissenschaft der Universität Wien.
Kevin Koban ist wissenschaftlicher Mitarbeiter (Postdoc) im Projekt Digital Hate: Perpetrators, Audiences, and (Dis)Empowered Targets am Institut für Publizistik- und Kommunikationswissenschaft der Universität Wien.
Jörg Matthes ist Professor für Kommunikation und Werbeforschung sowie stellvertretender Vorstand des Instituts für Publizistik- und Kommunikationswissenschaft der Universität Wien.