Artikel teilen:

Forscher: Diese Gefahr geht von perfekten Simulationen aus

Künstliche Intelligenz redet immer häufiger mit, doch mitfühlen kann sie nicht. Ein Theologe warnt vor einer Verarmung von Sprache – und von Beziehungen und erklärt, was echte Kontakte sind.

Sozialer Roboter "Ricky" im Johanniter-Stift Hannover-Ricklingen kommuniziert mit den Bewohnerinnen und Bewohnern.
Sozialer Roboter "Ricky" im Johanniter-Stift Hannover-Ricklingen kommuniziert mit den Bewohnerinnen und Bewohnern.epd-bild/Jens Schulze

Morgens Brote machen, mittags die Kinder abholen, abends das Bett teilen: All diese Aufgaben könnten künftig nach Worten eines Theologen auch Maschinen übernehmen. Die Beziehung zwischen Menschen gehe jedoch über diese Alltagssituationen hinaus, sagte Lukas Brand in Kaiserslautern. Soeben ist seine Doktorarbeit zur “Reproduktion des Menschen im Medium der Technik” erschienen.

Dies sei ein entscheidender Unterschied zwischen Mensch und Maschine: Menschen gewönnen ihre Bedeutung durch eine potenziell langfristige Beziehung, sagte Brand. Dagegen seien “Entitäten” wie Haushaltsroboter oder Sprachassistenten allein im Moment ihrer Nutzung bedeutsam. Wenn Maschinen allerdings immer häufiger menschlich erschienen, drohe der Wert zwischenmenschlicher Beziehungen zu verwischen.

KI ist häufig Ansprechpartner

Soziale Roboter würden entwickelt, um Gefährten zu sein. Umgekehrt schrieben Menschen ihnen die Fähigkeit zur Freundschaft zu: “Berichte von Leuten, die Avatare vermenschlichen oder ChatGPT als Seelsorger empfinden, nehmen zu.” Eine Umfrage des Digitalverbandes Bitkom hatte kürzlich ergeben, dass die Hälfte der 16- bis 29-Jährigen über bestimmte Themen eher mit Systemen der Künstlichen Intelligenz (KI) sprechen würde als mit Freunden und Familie. Damit drohe sich der Trend zu Vereinzelung und Einsamkeit fortzusetzen, warnte Brand.

KI-Systeme simulierten Wirklichkeit, erläuterte Brand. Das mache es immer schwerer, zwischen falsch und echt zu unterscheiden. “Damit wird es auch schwieriger, den Vorwurf von ‘Fake News’ zu entkräften – einfach, weil es auch möglich wäre, dass Aussagen simuliert sind.” Was derzeit vor allem Internet und Medien betreffe, könnte künftig ebenso im Privaten ein Problem werden.

KI fehlt menschliche Intuition

Sprachmodelle wie ChatGPT erzeugten Texte, die auf Basis bisheriger Texte wahrscheinlich seien, erklärte der Experte – und räumte zugleich ein, dass das KI-Ergebnis von menschlicher Sprachverarbeitung kaum zu unterscheiden sei. Das, was menschliche Kommunikation ausmache – eine Intuition beim Sprechen und eine Interpretation beim Zuhören oder Lesen -, fehle den KI-Assistenten jedoch. Wenn Sprache automatisiert vermittelt werde, werde Kommunikation also einseitig, was letztlich zur Verarmung von Sprache beitrage.