Zum Inhalt springen
Material

Hate Speech - wer ist verantwortlich?

Ideen für eine bessere Governance des Digitalen

Am Beispiel von Hate Speech als drängendem Bereich digitaler Regulierung wird überlegt, welchen Akteur*innen welche Verantwortlichkeiten und Aufgaben zugedacht werden sollen, um Hate Speech wirksamer zu verhindern oder zu unterbinden. Die Übung geht dabei von der Erfahrungen der Nutzer*innen aus.

Benötigte Zeit

45-60 Minuten

Gruppengröße

5+

Benötigtes Material

ggf. Präsentation

Lernziele

  • Unterscheidungskritierien für emotionale Äußerungen und Hassrede entwickeln und anwenden
  • Kennenlernen der unterschiedlichen Interessen und Bedürfnisse zu Sprache im öffentlichen Diskurs und in der demokratischen Öffentlichkeit
  • Ermitteln der Bedarfe und Anforderungen an Social-Media-Governance aus der Perspektive junger Menschen

Lerninhalte

  • Digitale Governance
  • Inhaltemoderation in Social Media
  • Schutz gegen Hate Speech
  • Politisches Vertrauen
Ablauf

1. Einleitung

Am Beispiel von etwas, was wir im Alltag erleben,soll über die Regulierung des Internets und von Social Media nachgedacht werden. Wir fokussieren hier auf Hassrede.

2. Meinungsfreiheit (20 Minuten)

Für den demokratischen Diskurs und die Meinungsbildung ist eine möglichst unzensierte Meinungsäußerung wichtig. Gleichzeitig dienen Einschränkungen dem Schutz des Einzelnen vor den Äußerungen anderer. Die folgenden beiden  Zitate repräsentieren diese beiden Perspektiven (siehe Präsentation):

  • Hate Aid: 
    „Wir wollen, dass das Internet ein Ort wird, an dem Menschen Ideen austauschen und unterschiedliche Meinungen zu verschiedenen Themen vertreten können. Was wir nicht akzeptieren, [...] ist, dass diejenigen, die am lautesten schreien, die verleumden, bedrohen und diffamieren, am Ende diejenigen sind, deren Stimmen übrig bleiben, weil sie alle anderen verdrängt haben. Im Internet muss Platz für alle unsere Stimmen sein, und zu diesem Zweck wollen wir die Rechte derjenigen stärken, die sonst keine Stimme hätten.“  Quelle: Hate Aid (N. A.)

  • Elon Musk
    „Die freie Meinungsäußerung ist das Fundament einer funktionierenden Demokratie, und Twitter ist der digitale Marktplatz, auf dem Fragen diskutiert werden, die für die Zukunft der Menschheit von entscheidender Bedeutung sind.“ Quelle: Elon Musk (York, 29.10.2022)

Findet Beispiele, die für jedes dieser Zitate sprechen. 

  • Wo hast du eine Einschränkung der Redefreiheit erfahren oder beobachtet? 
  • Wo war es wichtig, dass Stimmen weniger Raum bekommen?

Somit wird deutlich, dass soziale Medien und andere öffentliche Dikussions- und Austauschräume reguliert werden müssen. Im nächsten Schritt geht es darum, einzugrenzen, was konkret behandelt werden soll - also Hassrede.

3. Hassrede eingrenzen (15 Minuten)

Was eine Person als „laut” und „aggressiv” empfindet, kann von einer anderen Person als „lebhaft” oder „engagiert” angesehen werden. Kommunikation kann schnell hitzig werden, insbesondere wenn kontroverse Themen aufkommen oder unterschiedliche Lebensweisen und Perspektiven aufeinanderprallen. Hier geht es aber nicht um Meinungsverschiedenheiten, sondern sehr oft um Schadinformationen - etwa die zielgerichtete Beschädigung der Reputation oder Legitimität einer Person oder Gruppe oder um menschliche Herabsetzung und Erniedrigung. Zur Unterstützung kann die Präsentation (Information Disorder) benutzt werden.

  • schädliche Information: Gezielt verbreitet, um Schaden anzurichten, etwa durch
    Leaks
    Belästigung
    Hassrede
  • Desinformation: Falsche Inhalte werden verbreitet, um Schaden anzurichten
    Falscher Kontext
    Betrügerische Inhalte
    Manipulative Inhalte
    Erfundene Inhalte
  • Falschinformation
    Falsche Bezüge
    Irreführende Inhalte

Moderation bittet die Teilnehmenden, entweder die zuvor unter 1. genannten Beispiele zuzuordnen oder ein paar Beispiele insbesondere für schädliche Information und Hassrede zu nennen oder zu finden.

Sie erwähnt, dass viele schlimme Fälle nicht auch gleichzeitig strafrechtlich relevant sind. Deshalb soll auch über Dinge nachgedacht werden, die schlimm aber erlaubt sind.

4. Hilfreiche Unterstützung (30 Minuten)

Danach erfolgt eine Aufteilung in kleinere Gruppen mit Arbeitsauftrag:

  • Sammelt Beispiele für Hassrede, denen Ihr online begegnet seid. Wählt in kleinen Gruppen aus, an welchem Beispiel Ihr arbeiten möchtet. Wählt eins oder zwei aus.
  • Zur Erinnerung: Fokus auf Beispiele, wo jemand absichtlich zu Schaden gekommen oder angegriffen worden ist, bloßgestellt wurde, schlecht über die Person gesprochen wurde, die Person beleidigt wurde oder etwas Unangenehmes über sie an die Öffentlichkeit gebracht wurde
  • Beschreibe deine deine Rolle in dem Fall (oder deine wahrscheinliche Rolle).
  • Erzähle die Beschreibung aus der Perspektive des Opfers. Beschreibe, wer was mit der Person gemacht hat. 
Nach der Sammlung der Beispiele sollen die Gruppen überlegen, welche Unterstützung aus der Perspektive der Betroffenen,  gut gewesen wäre:
  • Unterstützung währenddessen oder direkt danach (z. B. Plattformmoderatoren, Support-Center, Sozialarbeiter, Unterstützung durch Freunde, Polizei ...)
  • Handlung in Reaktion auf die Veröffentlichung (z. B. Löschen des Inhalts, Sperren des Autors, strafrechtliche Verfolgung) 
  • Nachsorge (z. B. psychologische Betreuung, rechtliche Unterstützung ...)

Man darf auch gerne utopisch denken. Was wäre gut, aber gibt es vermutlich noch nicht?

Governance von Hassrede (30 Minuten)

Die Gruppen kommen im Plenum zusammen. Sie stellen knapp die Beispiele vor, die sie bearbeitet haben, präsentieren aber nicht den kompletten Diskussionsverlauf (max 5 Minuten pro Gruppe). 

Die Moderation sammelt im Anschluss die Ideen oder Wünsche am Flipchart, die in den Gruppen bearbeitet worden sind, sortiert nach 

  • Unterstützung währenddessen oder direkt danach 
  • Handlung in Reaktion auf die Veröffentlichung
  • Nachsorge 

Die Gruppe diskutiert anschließend, was ihnen besonders wichtig ist.

Reflexion

5. Transfer (15-20 Minuten)

Fragen für die Diskussion können sein: 

  • Was sollte freiwillig umgesetzt werden, was obligatorisch? Welche Stellen sollten eingerichtet werden? Markiere „freiwillige” Dinge in der Tabelle mit einem „F” in einer anderen Farbe.
  • Wer sollte für die ordnungsgemäße Umsetzung der Maßnahmen bezahlen und Sorge tragen?
    Staat (Aufsicht der Plattformen, Polizei, Jugendschutz...) - Plattformen - Einzelne (Autor:innen, User:innen, Eltern,Schulen...)
  • Welche spezifischen Bedürfnisse haben junge Menschen im Gegensatz zu Plattformen, Erwachsenen oder Politiker:innen?
  • Die Politik diskutiert ein Social Media Verbot für Jüngere. Inwieweit würde das in diesem Fall helfen?
Erweiterung

Erweiterung auf Vertrauen

Die Moderation kann die letzten Seiten der Präsentation zeigen. Wir sind voreingenommen, wenn es um die Frage geht, wer bei Regulierungsvorhaben mit am Tisch sitzen und wer die besten Karten haben sollte. Denn wem wir vertrauen, wird durch unsere politische Kultur (unsere Einstellung zum Politischen) und durch unser soziales Vertrauen mitbestimmt.

  • Präsentation: Vertrauen (siehe unten)

In Estland vertrauen die meisten Bürger:innen darauf, dass der Staat ordentliche Online-Wahlen organisiert und durchführt. In anderen Ländern, wie beispielsweise Deutschland, wäre dies für viele ein Grund, das Ergebnis in Frage zu stellen.

Politische Regulierung verfolgt oft einen „Multi-Stakeholder-Ansatz“ – die wichtigsten beteiligten Parteien sollten einbezogen werden –, wie beispielsweise Wirtschaft, Arbeitnehmer:innen und Politik. In den sozialen Medien wären dies vielleicht User:innen, Plattformen und Aufsichtsbehörden.

Auf die Frage, inwieweit die Menschen politisches Vertrauen haben (= Vertrauen in Politiker:innen, Parlament, politische Parteien, Polizei, Rechtssystem, Europäisches Parlament, Vereinte Nationen), ergibt sich in Europa folgendes Bild:


Quelle: Muringani, Fitjar & Rodríguez-Pose (2024), S. 2072

Anregungen zur Diskussion:

  • Was bestätigt Eure Annahmen und was überrascht Euch?
  • Nennt Beispiele. Wem vertraut ihr im Falle von Hate-Speech-Regulierung? 
  • In einer Demokratie ist Vertrauen mit der Möglichkeit verbunden, die Vertrauenswürdigkeit von Institutionen und Personen kritisch zu überprüfen. Welche Daten und Informationen würdet Ihr benötigen, um die Vertrauenswürdigkeit, Kompetenz und ethische Haltung von Staat, Medien, Wirtschaft und Zivilgesellschaft zu beurteilen?
Referenzen

Edelman Trust Institute (2024). Edelman Trust Barometer 2024. Supplemental Report: Insight for the Tech Sector.

Edelman Trust Institute (2025). Global Report. Trust and the Crisis of Grievance., Zugriff am 05.05.2025

Edelman Trust Institute (2025b). Global Report. Trust and the Crisis of Grievance. With Insights for the Technology Sector,  Zugriff am 10.11.2025

Hate Aid (N. A.). HateAid works. Our political demands https://hateaid.org/en/political-demands/

Muringani, J., Fitjar, R.D. & Rodríguez-Pose, A. Political trust and economic development in European regions. Ann Reg Sci 73, 2059–2089 (2024). https://doi.org/10.1007/s00168-024-01319-5

York, J. C. (29/10/2022). accessed 10/10/2025 Elon Musk doesn’t know what it takes to make a digital town square. MIT Technology Review.

Wardle, C.; Derakshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making Council of Europe report DGI(2017)09, Strasbourg

Foto: © politischbilden.de im Computerspielemuseum Berlin

Digital Youth Work - Rights-Sensitive, Open, Accessible, Democratic (DIYW-ROAD)

Veröffentlicht im Rahmen des Projekts DIYW-ROAD, einer europäischen Partnerschaft koordiniert vom Arbeitskreis deutscher Bildungsstätten.   

Die englischsprachige Originalversion dieser Methode ist unter einer CC-BY-SA 4.0 International Lizenz auf der Plattform Competendo erschienen:
➔ Hate Speech: Who is Responsible

CC BY SA Lizenz

Autor*innen / Organisationen

Module

Etwas beitragen?

Material einreichen