Der Münchner Experte Yannik Schlote warnt davor, Künstlicher Intelligenz (KI) ein Bewusstsein zuzuschreiben. Die Mensch-Maschine-Interaktion sei so aufbereitet, dass es nur so wirke, „als würde da jemand anderes am anderen Ende des Computers sitzen und mit uns sprechen“, sagte Schlote im Gespräch mit dem Evangelischen Pressedienst (epd). Manchmal verwendeten Chatbots auch Worte wie „ich“, zum Beispiel: „Ich stelle dir da was zusammen. Das kann ich gerne für dich übernehmen.“ Hinter diesem Ich stehe aber niemand, betonte Schlote. Daher sei die KI für viele Menschen so trügerisch. Schlote ist angehender evangelischer Pfarrer und hat in München seine Doktorarbeit über die Künstliche Intelligenz aus theologisch-ethischer Perspektive geschrieben.
Dabei hat Schlote auch die Beobachtung gemacht, dass KI gern überhöht wird und sich viele Mythen um sie herausgebildet haben. „Irgendwie schwingt immer mit, dass sich da etwas Weltentscheidendes vollzieht: von der Versklavung der Menschheit bis zu ihrem Aufstieg zu unsterblichen Cyborgs und Maschinen-Menschen.“ Hier werde an technische Mythen angeknüpft, die es schon ganz früh gegeben habe, etwa, dass die Maschine sich über ihren Schöpfer erhebe und ihn versklave. Diese Idee tauche erstmals bei Frankensteins Monster auf, das am Ende sagte: Du bist mein Schöpfer, aber ich bin dein Meister. „Fakt ist, sämtliche Forschungen mit KI bieten keinerlei Grundlage dafür, dass sich so etwas wie ein künstliches Bewusstsein entwickelt“, sagte Schlote. „Da ist kein verständiges Bewusstsein da, das tatsächlich Sinn in Worten entdeckt.“
Auch das Wort „Intelligenz“ versuchten KI-Forschende zu vermeiden. „Smart“ setze sich gerade durch, um zu betonen, wie leistungsfähig diese Programme tatsächlich seien. KI-Systeme seien nicht allwissend, sondern „sind auf unsere Daten angewiesen“, sagte Schlote. Gebe man tendenziöse Daten ein, dann könne es zu Diskriminierung jeder Art kommen. Die Frage sei daher: „Wem gewähren wir die Macht, diese KIs zu bauen?“ Es gehe darum, dass Menschen nicht manipuliert oder durchleuchtet werden, sondern tatsächlich in ihrer Privatsphäre geschützt seien. Daher brauche es Daten-Kuratorinnen und -Kuratoren, die ganz genau hinschauen, welche Daten einem KI-System zur Verfügung gestellt werden. „Wir müssen aufpassen, dass wir in keine Abhängigkeit und Hörigkeit von Systemen kommen“, sagte Schlote.(00/2872/26.09.2024)