Einen Prototyp zur Erkennung von KI-generierten Bildern entwickeln Forschende an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). IT-Spezialisten arbeiten gemeinsam mit der secunet Security Networks AG an einem Tool, das mit Künstlicher Intelligenz erstellte Fotos automatisch und zuverlässig erkennt, wie die FAU am Donnerstag mitteilte.
„Deepfake-Generatoren werden immer leistungsfähiger und sind zugleich frei zugänglich“, sagte Christian Riess vom Lehrstuhl für IT-Sicherheitsinfrastrukturen an der FAU. „Dadurch verbreiten sich Fotos und Videos mit manipulierten Inhalten rasant, und sie wirken immer echter.“ Bestenfalls seien sie unterhaltsam, sie könnten jedoch politischen und sozialen Sprengstoff bergen.
So kursieren im Internet etwa gefälschte Fotos von Angela Merkel, wie sie mit Wladimir Putin im Biergarten plaudert, oder von Papst Franziskus, wie er als DJ am Mischpult steht. Solche realistisch aussehenden Fakes werden millionenfach angeklickt.
Üblicherweise werden Bilderkennungsprogramme trainiert, indem ihnen viele verschiedene Beispiele präsentiert werden. Die Software lernt dann, die Bilder zu klassifizieren. Der nun entwickelte Prototyp greife darüber hinaus auf vortrainierte neuronale Netze von KI-Generatoren zurück, sagte Forscherin Sandra Bergmann.
Dadurch könnten mit dem neuen Tool auch Bilder geprüft werden, die von bislang unbekannten Deepfake-Generatoren erstellt wurden. Das Tool soll einfach in bestehende Infrastrukturen integrierbar und in der Lage sein, Deepfakes etwa auf Social-Media-Plattformen ad hoc zu kennzeichnen.
Das Vorhaben wird mit 350.000 Euro von der Bundesagentur für Sprunginnovationen SPRIN-D gefördert. SPRIN-D ist eine Initiative des Bundesministeriums für Bildung und Forschung. (00/0243/23.01.2025)