Artikel teilen:

Wissenschaftsakademie warnt vor Unkontrollierbarkeit von KI

Künstliche Intelligenz ist in aller Munde. Aber aus Sicht von Wissenschaftlern ist gerade die Kontrolle von KI sehr komplex und ihre Risiken sind erheblich.

Die Kontrolle Künstlicher Intelligenz (KI) ist aus Sicht der Nationalen Wissenschaftsakademie komplex und äußerst schwierig. Es gebe erste Ansätze, der Intransparenz oder fehlenden Objektivität sogenannter generativer KI entgegenzuwirken, etwa ChatGPT, aber hierfür brauche es “technisch-mathematische als auch politisch-ethische Expertise”, schreibt die Leopoldina am Donnerstag in einer Stellungnahme. Die Aufgabe sollte daher nicht allein Entwicklern überlassen werden, so das Fazit.

KI könne durch ihre Fähigkeit, Texte, Bilder und Videos zu erstellen, den Alltag unterstützen. Aber die KI könne auch für Propaganda und “Fake News” missbraucht werden. Und jede generative KI sei Abbild ihrer Trainingsdaten und der vorher festgelegten Ziele der Entwicklung. Beides sei kaum kontrollierbar. Ansätze gegen die Intransparenz von KI hätten bislang nur oberflächliche Lösungen gezeitigt.

Aus Sicht der Autoren gibt es außerdem vielfältige Täuschungspotenziale im Zusammenhang mit generativer KI. Beispielsweise wenn Nutzern nicht bewusst sei, dass sie mit einer KI kommunizierten, aber auch wenn sie nicht wüssten, was eine KI leisten könne und was nicht.

Auch die sogenannte erklärbare KI, wo KI-generierte Vorschläge nachträglich erläutert werden sollen, böten oft nicht verlässliche Erklärungen. “Erklärbare KI-Systeme können sogar bewusst manipuliert werden”, warnen die Wissenschaftler. Daher sollten solche Techniken nur mit äußerster Vorsicht eingesetzt und entwickelt werden.