Die Ergebnisse zeigen, dass die Teilnehmer*innen generell das Löschen von beleidigenden Kommentaren befürworten, während sie bei der Beanstandung von Fehlinformationen interaktive Moderationsmethoden wie Widerspruch bevorzugen. Insgesamt genießen menschliche Moderator*innen mehr Vertrauen als KI-Systeme, und die individuellen Einstellungen der Nutzer*innen zu Zensur sowie ihre politische Identität beeinflussen ihre Präferenzen hinsichtlich Moderation maßgeblich.
Online-Foren und soziale Medien galten einst als vielversprechende Räume für demokratische Diskurse. Doch die zunehmende Präsenz von unhöflichen und beleidigenden Kommentaren – von persönlichen Angriffen bis zur Verbreitung von Fehlinformationen – hat sich als schädlich für das Vertrauen in Politik, die demokratische Legitimität und das Wohlbefinden der Nutzer*innen erwiesen. Um diesen Effekten entgegenzuwirken, greifen Plattformen zunehmend auf Moderationssysteme zurück, bei denen entweder menschliche Moderator*innen oder automatisierte Tools Kommentare von Nutzer*innen gemäß den Community-Richtlinien oder rechtlichen Standards bewerten. Sowohl professionelle Moderator*innen als auch Nutzer*innen vertreten jedoch oft unterschiedliche Ansichten darüber, wie mit solchen Kommentaren umgegangen werden sollte – beeinflusst durch kulturelle, soziale und individuelle Faktoren. Wenn Moderationsentscheidungen nicht mit den Erwartungen der Nutzer*innen übereinstimmen, kann dies das Vertrauen untergraben und die Beteiligung verringern.
Die Studie konzentriert sich speziell auf die Kommentar-Moderation – eine der häufigsten und zugleich umstrittensten Formen der Inhaltsregulierung. Dabei unterscheidet die Forschung zwischen nicht-interaktiven Maßnahmen wie dem Löschen von Kommentaren oder dem Sperren von Nutzern und interaktiven Ansätzen, bei denen durch Warn- und Regelhinweise oder Widerspruch das Gespräch gesucht wird. Während im Fall von nicht-interaktiven Maßnahmen problematische Inhalte meist kommentarlos entfernt werden, zielen letztere darauf ab, respektvollere Kommunikation und Reflexion zu fördern.
Um ein besseres Verständnis dafür zu gewinnen, wie Nutzer*innen diese Strategien wahrnehmen, wurde eine Umfrage mit einer repräsentativen Stichprobe von 572 österreichischen Internetnutzer*innen im Alter von 18 bis 69 Jahren durchgeführt. Die Teilnehmer*innen bewerteten zufällig zugewiesene Szenarien, die verschiedene Kombinationen von Moderationsfaktoren darstellten. Diese Szenarien variierten hinsichtlich der Art der Unhöflichkeit (Beleidigungen vs. Fehlinformationen), der Quelle der Moderation (Mensch vs. KI), dem Maß an Transparenz (mit oder ohne Erklärung) und dem Grad der Interaktivität (Löschen, Warnhinweis, Regelhinweis oder Widerspruch).
