Eine Mehrheit der Jugendlichen erlebt Ratschläge von ChatGPT und Co. offenbar als hilfreich. Ein Experte sieht darin wachsende Risiken – vor allem dann, wenn seelische Not falsch gedeutet wird.
Wenn KI-Chatbots zu Begleitern werden, droht jungen Menschen auf Dauer soziale Isolation: Davor warnt der US-Gesundheitsökonom Ryan McBain. “Wenn man sich damit wohlfühlt, vernachlässigt man schnell die deutlich aufwendigeren und teils konfliktreichen Beziehungen im echten Leben”, sagte er in einem Interview des Portals Zeit Online. Das sei vor allem dann riskant, wenn Nutzerinnen und Nutzer bereits an psychischen Problemen litten.
McBain verwies auf Studien, nach denen schon heute viele Teenager von Sozialen Medien abhängig sind, “was ihre analogen sozialen Interaktionen einschränkt. Künstliche Intelligenz wird diese Tendenz verstärken.” Eine Studie seines Teams habe soeben gezeigt, dass eine Mehrheit der Jugendlichen den Rat von Sprachassistenten “hilfreich oder sogar sehr hilfreich” finde. Auch erlebten sie Chatbots als urteilsfrei und als stets verfügbar.
Gefährlich könne es beispielsweise werden, wenn KI-Systeme bestimmte emotionale Bedeutungen von Sprache falsch einschätzten. Ein Beispiel: “Wenn jemand sagt ‘Ich lösch’ mich’, kann das eine Ankündigung für einen Suizid sein. Die KI würde es aber vielleicht schlicht als Löschen eines Accounts interpretieren.” Bei noch expliziteren Androhungen reagierten Chatbots häufig mit “Nichtantworten” wie dem Hinweis, dass die Nutzungsbedingungen verletzt würden, wie McBain in seiner Forschung gesehen habe.
Dagegen sei ein Therapeut in so einer Situation verpflichtet zu handeln, dürfe etwas die Eltern junger Menschen einschalten oder jemanden in eine Psychiatrie einweisen. Zugleich sehe er durchaus Potenzial, sagte der Experte. “Hätten wir gut gemachte KI-Chatbots, die auf Therapie spezialisiert sind, steckt darin wirklich eine transformative Kraft.” Solche Angebote bräuchten jedoch wissenschaftliche Grundlagen und verpflichtende Standards.