In den USA sorgte diese Woche der Grossmeister des Hate Speech für Schlagzeilen. Derweil ging in der Schweiz das gemeinnützige Projekt stophatespeech.ch online. Die Verantwortlichen haben sich zum Ziel gesetzt, Hasskommentare im Internet einzudämmen. Und zwar auf den grossen Social-Medie-Plattformen wie Facebook und Twitter, aber auch in den Kommentarspalten hiesiger Medienhäuser.
Die neue Waffe im Kampf gegen Hasskommentare ist eine Kombination von Mensch und Maschine. Ein Computerprogramm, basierend auf künstlicher Intelligenz, sucht online nach verdächtigen Inhalten und leitet diese zur genaueren Prüfung an ein Team von Freiwilligen weiter. Dabei entscheiden immer mindestens drei Personen, ob sie eine bestimmte Äusserung als problematisch (Hate Speech) einordnen. Bei erkannten sprachlicher Gewalt wird versucht, mit guten Argumenten dagegenzuhalten («Counter Speech»).
In den vergangenen Monaten haben rund 600 Freiwillige den Algorithmus darauf trainiert, Hasskommentare zu erkennen. Dazu wurden laut Mitteilung über 45'000 Postings angeschaut und eingeordnet, damit die Software dazulernt. Und es wurde entschieden, die automatisierte Software als digitalen Spürhund zu präsentieren. Der Name: Bot Dog.
Der digitale Spürhund (Algorithmus) wird fortlaufend trainiert. Darum werden zusätzliche Freiwillige gesucht, die sich auf der Projekt-Website anmelden und mitmachen. Ziel ist es, eine schlagkräftige Community aufzubauen.
Sophie Achermann ist Geschäftsführerin der Schweizer Frauenorganisation alliance_F und Co-Projektleiterin von Stop Hate Speech. Gegenüber watson nimmt sie zu den Hintergründen Stellung und verrät, wer das Projekt finanziert.
Frau Achermann, Ziel ist es laut Medienmitteilung, die freie Meinungsäusserung und die Medienkompetenz der Bevölkerung zu stärken und das Internet zu einem gewaltfreien Raum zu machen. Was erhoffen Sie sich vom Projekt ganz konkret?
Sophie Achermann: Stop Hate Speech ist ein Präventionsprojekt – wir wollen verhindern, dass Diskussionen digital verrohen. Am Mittwochabend sah die ganze Welt, was im Extremfall passiert, wenn monatelang Hass im Internet geschürt wird. Unkontrollierter Hate Speech ist und bleibt eine Bedrohung für die Demokratie und führt auch zu Gewalt im realen Leben.»
Computerlinguistisch dürfte das Aufspüren von Hasskommentaren eine grosse Herausforderung sein. Mal abgesehen von Schimpfwörtern/Beleidigungen wird ja häufig relativ subtil (sprachliche) Gewalt ausgeübt. Wie beurteilen Sie die bisherige Effizienz des Bots und wie kann sie weiter gesteigert werden?
Die Linguistik von Hass ist komplex. Wir versuchen nicht nur Hass als solches zu identifizieren, sondern diesen auch im Kontext zu finden. Beispielsweise hat jemand unter einem Artikel einer Westschweizer Zeitung folgenden Kommentar publiziert: «Ich hoffe, dort wo sie hingehen, hat es schöne Duschen.» Das wäre per se unproblematisch. Nur ging es im Artikel um eine jüdischen Familie. Das zeigt, wie wichtig der Kontext im Rahmen von Hate Speech ist.
Bisher hat unser Algorithmus eine Genauigkeit von etwa 80 Prozent. Von zehn Artikeln, die Hate Speech enthalten, erkennt er acht. Weil linguistische Zusammenhänge so vielschichtig sind, liefert er aber immer noch False Negatives – er beurteilt Artikel als problematisch, die es nicht sind. Unsere Community kann Bot Dog deshalb auf unserer Plattform weiter trainieren und mit ihm üben, Hass zu erschnüffeln.
Ob bei Facebook, oder in den Kommentarspalten hiesiger Online-Medien: Frauen sind überdurchschnittlich von Hasskommentaren betroffen. Warum ist das so?
Forschungen zeigen, dass Frauen viel häufiger als Männer sexualisiert und vulgär angegriffen werden. Sie erhalten Vergewaltigungsandrohungen oder werden mit Stereotypen konfrontiert: Frauen gehören zu Hause in die Küche. Das führt dazu, dass Frauen anders auf Hate Speech reagieren: Sie ziehen sich öfters als Männer aus Online-Diskussionen und Social Media zurück. Spannend sind auch wissenschaftliche Erkenntnisse aus der Gamerszene: Dort wird der Hass gegen Frauen damit begründet, dass sich Männer von den Frauen bedroht fühlen.
Der Blick in die Trefferliste (potenzieller Hatespeech) zeigt viele Inhalte von Schweizer Gratis-Online-Medien und Tweets, aber keine Facebook-Postings. Warum ist das so?
Sophie Achermann: In ein paar Wochen wird Bot Dog auch die Facebookseiten der Medientitel nach Hass durchsuchen. Wir holen immer zuerst das Einverständnis der Medien ab, bevor wir ihre Artikel oder ihre Social-Media-Portale abgrasen.
Welche Online-Plattformen werden vom Algorithmus bereits erfasst?
Zur Zeit Twitter, blick.ch, nau.ch und 20min.ch. Bald kommen die Online-Portale von weiteren Medien hinzu – wir bauen stetig aus.
Hat das Projekt mehr die grossen Social-Media-Plattformen im Visier, oder die hiesigen Medien?
Grundsätzlich wollen wir dort aktiv sein, wo eine möglichst breite Gesellschaft angesprochen wird. Es zeigt sich aber, dass es nach wie vor mehr Hass auf Social Media gibt. Unser subjektives Gefühl ist, dass Facebook am schlimmsten ist. Das erklärt sich dadurch, dass Medienplattformen für ihren Inhalt die Verantwortung tragen. Wird ein strafrechtlicher Kommentar publiziert – etwa «du sollst sterben» –, kann das Medienunternehmen auch behaftet werden. Bei Facebook ist hingegen unklar, wer genau verantwortlich ist. Das führt sicher auch dazu, dass Facebook-Seiten weniger intensiv kuratiert werden.
Werden auch private Facebook-Gruppen erfasst?
Nein. Wir sind nur auf Seiten aktiv, die viele Leser*innen haben – vor allem junge Menschen, die stark von Hate Speech beeinflusst werden können. Zudem holen wir in jedem Fall eine Einwilligung, bevor wir unseren Algorithmus losschicken.
Was wird bei klar justiziablen Äusserungen unternommen?
Wir empfehlen den Betroffenen, mit dem Verein Netzcourage von Jolanda Spiess-Hegglin Kontakt aufzunehmen. Enthält ein Kommentar Verleumdungen, Bedrohungen oder Rassismus, kann man sich mit rechtlichen Mitteln wehren – Netzcourage sind da die Expertinnen.
Wie wird das Projekt finanziert?
Unser Initialpartner ist Engagement Migros. Wir werden aber auch von der Raiffeisen Jubiläumsstiftung, der Ernst Göhner Stiftung, der Gebert Rüf Stiftung, sowie verschiedenen Städten und Kantonen unterstützt.
Funktioniert der Bot bereits in den Landessprachen Deutsch, Französisch und Italienisch?
Aktuell nur auf Deutsch, anschliessend kommt Französisch und am Schluss allenfalls noch Italienisch.
Wird es auch eine Smartphone-App geben?
Das wissen wir noch nicht, es ist aber denkbar. Uns ist es wichtig, dass sich die Plattform an den Bedürfnissen der Community orientiert und wir sie auch auf ihre Wünsche hin verändern können. Nicht zuletzt entscheiden aber auch die Finanzen, ob eine App möglich ist.
Die ETH und die Universität Zürich begleiten das Projekt wissenschaftlich. Was heisst das konkret?
Dominik Hangartner vom Immigration Policy Lab der ETH Zürich und Fabrizio Gilardi und Karsten Donnay vom Digital Democracy Lab der Universität Zürich unterstützen uns bei der Erkennung von Hass. Sie erforschen zudem, welche Gegenrede (sogenannte «Counter Speech»)-Strategien am effektivsten sind, um Hass online zu kontern. Man weiss beispielsweise immer noch sehr wenig darüber, welche Art von Counter Speech bei welcher Art von Hassrede am meisten bewirkt.
Ist ja noch wichtig bei diesen Hasskommentaren
Soweit kein Problem.
Aber diese können sich verändern. Losgelöst von der Frage des ggw Rechts. Und somit kann ein solcher Algorithmus über die Zeit so trainiert werden, dass zB aus „Homosexualität ist akzeptiert“ zu „Aufruf zu Hass gegen Homosexuelle ist ok“ trainiert werden.
Ihr müsst euch dazu nur fragen, was der Algorithmus trainiert von Iranern oder Saudis zur gleichen Aussage „meinen“ würde.
Jennybeauty99 fragt auf TikTok, ob ihre aufgespritzten Lippen gut aussehen. User1028746372 findet, dass sie hässlich sind. Jennybeauty99 muss heulen und meldet user1028746372.....?!?!?
Man könnte das Socialweb gleich abstellen.