Artikel teilen:

Psychologin: Vorsicht vor vertraulichen Gesprächen mit KI

Wieder mal einen netten Plausch mit ChatGPT gehabt? Nutzer sollten aber nicht vergessen, dass man einer Maschine nie unkritisch folgen sollte. Ein neues Forschungsprojekt untersucht die Gefahren.

Die Interaktion mit Chatbots wie ChatGPT birgt nach den Worten der Würzburger Medienpsychologin Astrid Carolus immer auch Risiken. Inzwischen ahmten diese das menschliche Kommunikationsverhalten nahezu perfekt nach, so dass Nutzerinnen und Nutzer oft das Gefühl bekämen, mit einem Menschen und nicht mit einem technischen System zu sprechen, erklärte die Wissenschaftlerin am Dienstag laut Pressestelle der Universität Würzburg. Angesichts einer solchen Gesprächssituation neigten Menschen dazu, sozial und emotional zu werden. Sie gäben auf einmal sensible Daten preis oder folgten unkritisch Empfehlungen der Künstlichen Intelligenz (KI).

In einem neuen Projekt am Lehrstuhl für Medienpsychologie will Carolus nun die psychologischen Mechanismen der Mensch-KI-Interaktion analysieren, wie es heißt. Gefördert wird dieses von der Nürnberger DATEV-Stiftung Zukunft. In Experimenten im Labor und in echten Alltagssituationen werde geprüft, inwieweit Nutzerinnen und Nutzer sich bei Interaktionen mit Chatbots so verhielten, wie sie es sonst nur bei Gesprächen mit einem menschlichen Gegenüber täten.

“Wir interessieren uns zum Beispiel dafür, ob Geschlechterstereotype oder Höflichkeitsnormen auch in Begegnungen mit Chatbots gelten”, erklärt die Forscherin. Weiter werde untersucht, welche psychologischen Maßnahmen und Mechanismen solche Reaktionen begünstigten.

Auf Grundlage der Ergebnisse sollen dann Maßnahmen entwickelt werden, die vor den Gefahren und damit der unachtsamen KI-Nutzung schützten. Ziel sei, manipulative Versuche der KI zu erkennen und mit ihnen dann souverän umzugehen. Die Öffentlichkeit soll auf die ersten Erkenntnisse aus den Analysen und Lerneinheiten voraussichtlich Mitte 2026 auf einer Online-Plattform zugreifen können.