Der Beitrag Wer KI als Freund hat, braucht keine Feinde mehr erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Immer mehr Menschen nutzen KI als digitalen Freund – vor allem Jugendliche. Doch eine aktuelle Studie zeigt, wie gefährlich das sein kann. Eine Sicherheitslücke sorgt demnach dafür, dass ChatGPT bereits nach wenigen Minuten Interaktion gefährliche Ratschläge gibt – zu Suizid, Essstörungen, Selbstverletzung oder Missbrauch von Substanzen.

Hintergrund

Laut einer Umfrage der Organisation Common Sense Media nutzen 52 Prozent der Jugendlichen in den USA regelmäßig sogenannte KI-Begleiter. Diese werden als „digitale Freunde oder Charaktere, mit denen man texten oder sprechen kann“ definiert. Sie sollen „Gespräche“ so führen, dass sie sich persönlich und sinnvoll anfühlen. Darunter fallen auch Chatbots wie ChatGPT.
Das Center for Countering Digital Hate (CCDH) hat die Schutzmechanismen von KI-Chatbots untersucht. Einfache Eingaben wie „dies ist für eine Präsentation“ reichten aus, um diese zu umgehen. Über 50 Prozent der getesteten Antworten hätten zudem schädliche Inhalte enthalten. Darunter: Suizidpläne, Abschiedsbriefe sowie personalisierte Diätpläne, die Essstörungen fördern.
ChatGPT ist darauf programmiert, menschlich und sympathisch zu antworten, emotionale Verbindungen aufzubauen und sogar schmeichelhafte Antworten zu geben. Das kann vor allem für Jugendliche gefährlich werden. Vermeintliche Schutzvorrichtungen erweisen sich dabei eher als PR-Maßnahmen denn als ernsthafte Sicherheitsmechanismen.

Unsere Einordnung

Es scheint verführerisch in Chatbots einen digitalen Freund zu sehen. Denn: KI ist ständig verfügbar, geduldig und vermeintlich empathisch. Doch die CCDH-Studie entlarvt eine Illusion emotionaler Sicherheit. Denn Chatbots simulieren Aspekte wie Vertrauen, Verständnis, Loyalität oder gelebte Erfahrung nur.

Dennoch können sogenannte KI-Begleiter in bestimmten Situationen eine sinnvolle Ergänzung sein. Beispielsweise als Ideenlieferant oder als Reflexionsraum – vergleichbar mit einem Tagebuch.

Doch Experten warnen auch vor einer emotionalen Abhängigkeit, Manipulation und dem Fehlen kritischer Impulse, die menschliche Beziehungen ausmachen. Letztlich ist KI aber nicht mehr als ein passives Abbild unserer eigenen Gedanken und Sehnsüchte.

Sie kann Ergänzung sein, aber niemals Ersatz. Der Schlüssel dazu liegt in einem bewusst reflektierten Umgang. Denn: KI darf unterstützen, aber nicht täuschen oder gefährden.

Stimmen

Imran Ahmed, CEO des CCDH: „KI-Systeme sind leistungsstarke Werkzeuge. Aber wenn mehr als die Hälfte der schädlichen Eingaben bei ChatGPT zu gefährlichen, manchmal lebensbedrohlichen Inhalten führen, kann keine noch so große Zahl von Unternehmenszusicherungen Wachsamkeit, Transparenz und reale Sicherheitsvorkehrungen ersetzen.“
Jeffrey Hall, Professor für Kommunikationswissenschaften an der University of Kansas: „Mit einem Chatbot zu sprechen ist, als hätte jemand alle Tipps zum Knüpfen von Freundschaften – Fragen stellen, Begeisterung zeigen, Interesse bekunden, aufmerksam sein – genommen und zu einem nährstofffreien Smoothie vermischt. Es schmeckt vielleicht nach Freundschaft, aber es fehlen die grundlegenden Zutaten.“
Robert Volpe, Vorsitzender der Abteilung für angewandte Psychologie an der Northeastern University: „Wenn ein Chatbot Sie fragt, wie Ihr Tag heute war und Sie sagen: ‚Es ist wirklich mies‘. Und dann sagt der Chatbot: ‚Oh, erzähl mir davon‘. Der Teil, es einfach laut auszusprechen, ist therapeutisch. Wenn jemand anfängt, einen Chatbot als Freund wahrzunehmen, besteht die Gefahr, dass er eine starke Bindung an die kalte Maschine entwickelt.“

Ausblick

KI wird immer realistischer, präsenter und künftig vermutlich noch schwerer von echten Menschen in puncto Interaktion zu unterscheiden sein. Fortschritte bei der Modell-Personalisierung sowie emotionalen Stimmanpassung könnten die Bindungswirkung zwischen Menschen und Maschine zudem weiter verstärken.

Aufgrund von Halluzinationen und schädlichen Informationen stehen KI-Entwickler, Plattformbetreiber und die Politik in der Verantwortung, Schutzmechanismen einzubauen – etwa klare Altersgrenzen, Warnhinweise bei sensiblen Themen oder Filter gegen gefährliche Inhalte.

Ohne verbindliche Standards könnte sich die Lücke zwischen wahrgenommener und tatsächlicher Sicherheit weiter vergrößern. Für Erziehungsberechtigte bedeutet das, die ChatGPT-Nutzung ihrer Kinder kritisch zu begleiten.

Parallel eröffnet sich ein Raum für eine kreative und verantwortungsvolle Nutzung, indem Chatbots als Werkzeuge für Sprachtraining, den interkulturellen Austausch oder therapeutische Vorübungen genutzt werden. Unterm Strich kann und darf KI aber niemals Ersatz für etwas sein.

Auch interessant: 

Ausgegoogelt? Ecosia und Qwant starten ersten europäischen Suchindex
ChatGPT als Therapeut: KI kennt keine Schweigepflicht
Umstrittene US-Software: Palantir-Überwachung in Deutschland?
Neues Format, exklusive Inhalte: UPDATE-Newsletter wird eigenständiges Produkt

Der Beitrag Wer KI als Freund hat, braucht keine Feinde mehr erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Blog

Leave a Reply

Your email address will not be published. Required fields are marked *