Fear Speech – eine unscheinbare Gefahr?

✓ Fear Speech – was ist das überhaupt?
✓ Warum ist Fear Speech gefährlich?
✓ Fear Speech und Content Moderation – ein Dilemma?
✓ Wie erkenne ich Fear Speech?
✓ Wie reagiere ich auf Fear Speech und Panikmache?
✓ FAQ zu Fear Speech
Fear Speech – was ist das überhaupt?
Unter Fear Speech (zu Deutsch: "Angstsprache", "angstmachende Sprache" oder "Angstmache") versteht Aussagen, die darauf abzielen Angst vor einer vermeintlichen Bedrohung zu schüren. Das geschieht nicht unbedingt laut und offensichtlich. Häufig wirkt Fear Speech subtil und tarnt sich als "Sorge", "Warnung" oder "gesunder Menschenverstand".Besonders häufig wird Fear Speech in den sozialen Medien und auf Messenger-Diensten wie Telegram genutzt. Im Fokus stehen polarisierende Themen wie beispielsweise der Klimawandel und die damit verbundenen globalen Folgen. Nicht selten werden auch gesellschaftliche Minderheiten oder bestimmte gesellschaftliche Gruppen zur Zielscheibe.
Wichtig: Fear Speech ≠ Hate Speech
Im Gegensatz zu Hate Speech ist Fear Speech keine direkte Kommunikation von Abneigungen oder Hass.. Insofern muss man zwischen diesen beiden Begriffen unterscheiden.
Hate Speech richtet sich durch hasserfüllte Sprache aktiv gegen bestimmte Teile der Gesellschaft und grenzt sich bewusst ab. Fear Speech hingegen stellt Ängste und Sorgen in den Mittelpunkt, und priorisiert Interaktionen, ähnlich wie Rage Bait.
Absichtlich offen gewählte Formulierungen sorgen dafür, dass Fear Speech Posts eine Vielzahl an Interaktionen erhalten: Sie werden geliked, geteilt, und vor allem kommentiert. Fear Speech kann somit jeden erreichen, oftmals auch unbemerkt.
Warum ist Fear Speech gefährlich?
Durch ihren emotionalen Fokus verbreitet sich Fear Speech sehr schnell. Das Stichwort lautet "emotional contagion": Menschen lassen sich von Emotionen anstecken. Besonders, wenn die Angst im Mittelpunkt steht. Wer Ängste bewusst anspricht, kann komplexe Themen einseitig darstellen, Meinungsbildungsprozesse beeinflussen und die öffentliche Aufmerksamkeit lenken.
Das funktioniert besonders in den sozialen Medien, denn dort werden polarisierende Beiträge seit einigen Jahren durch Algorithmen zusätzlich hervorgehoben.
Dieser Umstand wird vor allem von Personen oder Gruppierungen mit politischen Interessen genutzt. Durch Fear Speech gelingt es, einzelne Interessensgruppen stark zu polarisieren und extremistische oder radikale Narrative in den alltäglichen Diskurs der sozialen Medien zu bringen – unter dem Deckmantel einer angeblichen Sorge oder Angst. Dies hat zur Folge, dass Themen langfristig einseitig beleuchtet werden, politische Feindbilder geschürt werden, und der gesellschaftliche Austausch emotionaler wird.
Fear Speech und Content Moderation: ein Dilemma?
Während automatisierte Filter auf Plattformen wie Facebook, Instagram oder YouTube radikale Inhalte in Form von Hate Speech erkennen und teilweise einschränken oder entfernen (auch Content Moderation genannt), bleiben Fear-Speech-Posts oft unter dem Radar.
Das ist vor allem dem Umstand geschuldet, dass Hate Speech klarer definierbar und damit rechtlich greifbar ist. In einigen Fällen sind Hate-Speech-Posts auch strafrechtlich relevant, etwa wenn sie gegen lokale Gesetze verstoßen. Somit lässt sich eine Content Moderation (bitte hier kurz erklären) seitens der Plattformen nicht nur durch die AGB, sondern auch juristisch begründen.
Anders verhält es sich bei Fear Speech. Hier werden zwar oftmals Inhalte und Szenarien beschrieben, die negative Emotionen auslösen, jedoch wird dabei meist keine Hassrede verwendet, oder direkt zu Gewalt aufgerufen. Es entstehen also zunächst keine direkten Schäden. Zudem erschweren subtile Formulierungen und Andeutungen eine eindeutige Rechtsdefinition.
Ebenso schwer ist es, Fear Speech durch automatisierte Filter und KI zu erkennen. Nicht selten bewegen sich Fear-Speech-Posts in einer rechtlichen Grauzone. In diesen Fällen ist es wichtig, den entsprechenden Kontext zu kennen. Nur so sind Plattformen (oder Behörden) in der Lage etwaige Andeutungen, Aussagen und politische Absichten richtig einzuordnen. Je nach Situation kommen auch fortgeschrittene KI-Modelle hier an ihre technischen Grenzen.
Gehen Plattformen wie Facebook & Co hier zu aggressiv vor, riskieren sie rechtliche Probleme. Um einen Beitrag zu löschen, muss in jedem Fall ein Verstoß gegen die allgemeinen Geschäftsbedingungen der Plattform und / oder gegen lokale Gesetze vorliegen. Liegt ein solcher Verstoß nicht vor, kann die Löschung eines Inhalts als Einschränkung der Meinungsfreiheit gelten.
Stattdessen setzen Plattformen zunehmend auf andere Maßnahmen wie z. B. die kontextuelle Einordnung. Diese findet beispielsweise in Form von Hinweisen unter einzelnen Beiträgen, Verlinkungen zu offiziellen Quellen und Faktenchecks durch Dritte statt. Derartige Maßnahmen bergen jedoch eigene Risiken, beispielsweise wenn Faktenchecks ungeprüft durch Nutzer hinzugefügt werden können.
Eine weitere Maßnahme ist die Abkehr von interaktionsbasierten Algorithmen. Besonders im politischen Diskurs bietet es sich an, informative Inhalte stärker zu priorisieren. Langfristig kann so die Wirkungskraft von Fear Speech verringert werden.
Wie erkenne ich Fear Speech?
Fear Speech ist nicht immer auf den ersten Blick als solche zu erkennen. Wir haben ein paar Merkmale zusammengestellt, auf die Sie zukünftig beim Erkennen von Fear Speech achten können:
- Darstellung eines Bedrohungsszenarios: Im Rahmen von Fear Speech werden Situationen oftmals als extrem gefährlich oder unmittelbar bevorstehend beschrieben.
- Fokus auf Emotionalisierung: Fear Speech setzt auf Emotionen – einerseits um das Interesse möglichst vieler User zu wecken, andererseits, um von einer fehlenden oder unzureichenden Faktenlage abzulenken.
- Konstruktion eines "Wir gegen sie"-Narrativs: Fear Speech arbeitet häufig mit klaren Feindbildern. Eine Gruppe wird als Gefahr dargestellt und direkt oder indirekt für komplexe Probleme verantwortlich gemacht.
- Dringlichkeitsdruck: Um möglichst viel Aufmerksamkeit zu erlangen, ruft Fear Speech dazu auf, möglichst schnell und häufig geteilt und weitergetragen zu werden. Parallel dazu werden oftmals pauschal "die Medien" – gemeint ist beispielsweise der öffentlich-rechtliche Rundfunk – verteufelt, da sie den dargestellten Sachverhalt angeblich verschweigen oder falsch darstellen.
- Vereinfachung komplexer Themen und Sachverhalte: Fear Speech neigt schnell dazu Dinge vereinfacht darzustellen. Besonders, wenn gesellschaftliche oder politische Themen involviert sind.
- Selektive oder irreführende Informationen: Viele Fear-Speech-Beiträge geben an, die Faktenlage zu berücksichtigen. Nicht selten wird diese aber aus dem (zeitlichen) Kontext gerissen, einseitig präsentiert, oder verallgemeinert und als allgemeine Entwicklung dargestellt.
- Insgesamt dramatisierende Sprache: Achten Sie auf emotional aufgeladene und reißerische Formulierungen. Aussagen wie "Das ist das Ende von …" "Wenn wir jetzt nicht handeln…" haben eine alarmierende Wirkung und sollen Nutzer emotionalisieren.
Wie reagiere ich auf Fear Speech und Panikmache?
Grundsätzlich empfiehlt es sich, Inhalte in den sozialen Medien mit Vorsicht zu konsumieren. Besonders wenn über komplexe politische und gesellschaftliche Themen diskutiert wird, ist es ratsam eigenständig zu recherchieren. Hinterfragen Sie, ob es tatsächliche Belege für das gibt, was in den sozialen Medien behauptet wird.Je nach Situation bietet es sich auch an, proaktiv auf Fear Speech zu reagieren. Teilen Sie Links zu Quellen, die einzelne Aussagen widerlegen oder korrekt einordnen. Auch positive Gegenbeispiele müssen erzählt werden, um einen einseitigen Diskurs zu verhindern. So können Sie nicht nur sich selbst, sondern auch andere vor Fear Speech schützen.
Orientieren Sie sich grundlegend an demokratischen Werten wie gegenseitigen Respekt, Zusammenhalt, Offenheit gegenüber Unbekanntem. Besonders wenn Sie selbst Inhalte in den sozialen Medien teilen, sollten Sie darauf achten, dass Ihre Wortwahl diese Haltung reflektiert.
Wenn Sie starke Emotionen beim Lesen eines oder mehrerer Beiträge empfinden, ist es oftmals sinnvoll, Abstand zu nehmen. Manchmal hilft schon ein Gespräch mit Menschen aus dem privaten Umfeld.
Stellen Sie bei sich selbst über einen längeren Zeitraum stark emotionales Verhalten in Verbindung mit Beiträgen aus dem Internet / sozialen Netzwerken fest, lohnt sich vielleicht auch ein Gespräch mit fachlich geschultem Personal. Soziale Medien können einen großen Einfluss auf unser Privatleben und unsere Psyche haben. Sich in diesem Fall Hilfe zu holen, ist keinesfalls ein Zeichen von Schwäche. Der Patientenservice der kassenärztlichen Bundesvereinigung bietet mit der 116117 einen Dienst an, der Sie bei der Suche nach Anlaufstellen unterstützt.
Ist Fear Speech dasselbe wie Hate Speech?
Nein. Fear Speech wird eingesetzt, um Angst zu schüren. Hate Speech hingegen wird eingesetzt, um Personen oder Gruppen durch Abwertungen und Beleidigungen anzugreifen. Beide Formen sind unterschiedlich, können aber gemeinsam auftreten. Fear Speech kann zudem eine Grundlage für Hate Speech schaffen, indem Angst vor einer Person, Gruppe oder einem Sachverhalt geschürt wird.
Wo wird Fear Speech verwendet?
Grundsätzlich kann Fear Speech überall verwendet werden – in den sozialen Medien, Chats, Film und Fernsehen, Print Medien, aber auch in Interaktionen mit Mitmenschen. Am stärksten wirkt Fear Speech allerdings im Online-Raum, etwa in viralen Social-Media-Posts oder in Clickbait Überschriften.
Welche Rolle spielen Influencer bei der Verbreitung von Fear Speech?
Kurz gesagt: eine große Rolle. Bekannte Influencer genießen oftmals das Vertrauen und die Reichweite einer großen Follower-Basis. Somit haben Sie die Möglichkeit ihre Beiträge in sehr kurzer Zeit an sehr viele Menschen zu senden. Fear Speech Botschaften können zudem glaubwürdiger wirken, wenn sie durch eine bekannte Persönlichkeit – in diesem Fall Influencer – verbreitet werden.
Welche Rolle spielt KI bei Fear Speech?
KI-Tools sind längst ein brauchbares Werkzeug für polarisierende Inhalte geworden. Mithilfe von KI gelingt es Nutzern realistisch wirkende Fotos zu erstellen, die initial haltlos wirkende Aussagen und Anschuldigungen fälschlicherweise beweisen können. Auch können Texte mithilfe von KI-Tools wie ChatGPT so verfeinert werden, dass sie seriös und wissenschaftlich fundiert wirken.
1 Person findet diesen Artikel hilfreich.