Wissenschaftler wollen mit Künstlicher Intelligenz (KI) gegen Hassrede im Internet vorgehen. Wie die Technische Universität Berlin (TU) am Dienstag mitteilte, hat ein Forschungsverbund KI-Modelle trainiert, die Beiträge aus Online-Plattformen nach potenziell strafrechtlich relevanten Äußerungen durchsuchen und diese vorsortieren. So könnten Strafverfolgungsbehörden schneller und gezielter Maßnahmen ergreifen.
Das System ermögliche es etwa Polizeibehörden, die manuelle Vorauswahl großer Datenmengen zu umgehen und sich direkt auf die strafrechtliche Einzelfallbetrachtung zu konzentrieren, hieß es weiter. Dies führe zu einer erheblichen Zeitersparnis und erhöhe die Effizienz bei der Verfolgung von Straftaten.
Im Rahmen des Forschungsprojekts „Kistra – Einsatz von Künstlicher Intelligenz (KI) zur Früherkennung von Straftaten“ beschäftigten sich Forscher an der TU mit ethischen und rechtlichen Fragestellungen zum Einsatz von KI in der Strafverfolgung. Dabei gehe es unter anderem um Diskriminierungsfreiheit und Transparenz, erklärte Michael Hahne, Mitverantwortlicher des Projekts. TU-Projektleiter Robert Pelzer betonte, „zukünftige Herausforderungen bestehen vor allem in der Schaffung der notwendigen Infrastruktur und der Sicherstellung der Qualität der eingesetzten KI-Modelle“.