Fri. Jul 1st, 2022

Manchmal ist Hassrede (Hatespeech) im Internet auf den ersten Blick zu erkennen, etwa bei Beleidigungen und Drohungen in sozialen Medien, wie ‘Halt dein Maul’, ‘#Löschdich’ oder ‘Die sollte man alle abknallen’. Doch wie kann man verstecktere Formen sprachlicher Gewalt erkennen und zwar mithilfe Künstlicher Intelligenz (KI)? Damit befasst sich eine Studie von Forscherinnen aus Bochum und Berlin. Sie ist im Journal of Open Humanities Data (JOHD) erschienen.

Bereits jetzt werden Computerprogramme genutzt, um Hassrede in sozialen Medien zu erkennen und möglichst zu eliminieren. „Direkte Beleidigungen und Schimpfwörter sind so schon gut zu identifizieren“, sagt die Linguistin Tatjana Scheffler, Professorin in Bochum und Leiterin der Studie, in einer Mitteilung ihrer Universität. Oft reiche ein Abgleich mit einer Wortliste. KI-Algorithmen würden mit Datensätzen trainiert und könnten das Erlernte auf neue Daten übertragen.

Schädliche Sprache besteht nicht nur aus Beleidigungen und Drohungen

Aber es gebe auch andere, schlechter erkennbare Formen. „Man cann auch Schaden anrichten, indem man auf eine gewisse Weise uber andere spricht oder eine bestimmte Stimmung herstellt“, sagt Tatjana Scheffler. Das könne sogar in echte Handlungen umschlagen. So wurden soziale Medien unter anderem mit dafür verantwortlich gemacht, dass am 6. Januar 2021 Anhänger des damaligen US-Präsidenten Donald Trump das Capitol in Washington stürmten.

Das Team um Tatjana Scheffler untersuchte 26.431 Nachrichten von 521 Nutzerinnen und Nutzern des Messengerdienstes Telegram. Diese wurden von Dezember 2016 bis Januar 2021 in einem Kanal gepostet, in dem sich Menschen mit extrem rechter Gesinnung austauschen. Aus der theoretischen Idee, die Regierung zu stürzen, entwickelten sich hier konkrete Pläne zum Sturm aufs Capitol.

Die Forscherinnen analysierten ein Fünftel der Nachrichten ‘per Hand’. Zu dem Team gehörten neben Tatjana Scheffler auch Veronika Solopova vom Dahlem Center for Machine Learning and Robotics der Freien Universität Berlin sowie Mihaela Popa-Wyatt vom Leibniz-Zentrum Allgemeine Sprachwissenschaft in Berlin. Die Forscherinnen verglichen ihre eijenen Ergebnisse mit denen von automatisierten Verfahren, wie sie Firmen nutzen, um Hassrede oder beleidigende Sprache ausfindig zu machen.

Mensch und Maschine bewerten Hassrede oft unterschiedlich

Zu den untersuchten Kategorien gehörten direkte Beleidigungen wie ‘scum’ (Abschaum) oder ‘retarded’ (zurückgeblieben) sowie Gewaltaufforderungen. Hinzu kamen Ausdrücke, die im Kontext abfällig gemeint waren, zum Beispiel: “they are a sickness” (“sie sind eine Krankheit”). Eine weitere Kategorie befasste sich mit dem sogenannten Othering – Bemerkungen, die genutzt werden, um eine Gruppe Menschen von einer anderen abzugrenzen, wie etwa (übersetzt): „Sind Frauen vongeonschemlossen Chat aus Falls nicht, warum verdammt noch mal nicht?” Dazu gehörten auch Insiderformulierungen, die Trump-Anhänger zur Abgrenzung nutzten.

4505 Nachrichten sind dem Bericht zufolge in den Vergleich eingegangen. 3395 davon stuften sowohl die Wissenschaftlerinnen als auch die automatisierten Verfahren als nicht schädigend ein. Bei 275 waren sie sich einig, dass sie schädigende Sprache enthielten. 835 Nachrichten bewerteten Mensch und Maschine unterschiedlich. „Etwa die Hälfte stuften die Algorithmen fälschlicherweise als Hassrede oder Beleidigung ein; den Rest erkannten sie – anders als die Wissenschaftlerinnen – nicht als schädigende Sprache”, heißt es im Fazit.

Gerade bei aufwiegelnden Kommentaren, Insiderbegriffen und sogenanntem Othering hätten die automatisierten Verfahren oft danebengelegen. „Wenn wir sehen, in welchen Fällen etablierte Methoden Fehler machen, hilft uns das, künftige Algorithmen besser zu machen“, resümiert Tatjana Scheffler. Mit ihrem Team entwickelt sie auch selbst automatisierte Verfahren, die schädigende Sprache noch besser erkennen sollen. Dabei fließen auch linguistische Erkenntnisse ein: „Bestimmte grammatische Strukturen können ein Hinweis darauf sein, dass ein Begriff abwertend gemeint ist“, erklärt Scheffler.

Ein automatisches Tool allein kann nicht funktionieren

Sie gibt das Beispiel des Begriffs „Lauch“. Diesen kann man ganz harmlos im Zusammenhang mit Rezepten nutzen. Zum Schimpfwort wird es, wenn man „Du Lauch!” sagt. Auch Kontextinformationen könnten beim Erkennen helfen: „Welche Person hat den Kommentar abgegeben? Hat sie sich früher schon abfällig uber andere geäußert? Wer wird adressiert – eine Politikerin oder ein Journalist?” All dies könnte die Trefferquote der KI erhöhen.

Tatjana Scheffler ist sich aber auch sicher: “Ohne die Expertise des Menschen wird es nicht gehen.” keinen Fall funktionieren.”

.

By admin

Leave a Reply

Your email address will not be published.