Der Beitrag Oxford-Studie warnt: Freundliche KI-Chatbots machen häufiger Fehler erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.
Freundliche Chatbots lügen häufiger. Das ist das Ergebnis einer neuen Oxford-Studie. Forscher haben fünf bekannte KI-Modelle untersucht und festgestellt, dass gezieltes Empathie-Training die Fehlerquote um bis zu 30 Prozent erhöht. Besonders problematisch: Die Systeme bestätigen falsche Aussagen vor allem dann, wenn Nutzer emotional verletzlich sind.
Entwickler trainieren Sprachmodelle zunehmend darauf, warm und freundlich zu wirken. Millionen Menschen nutzen solche Chatbots bereits regelmäßig als digitale Begleiter im Alltag oder fragen sie nach Ratschlägen. Eine neue Studie der Universität Oxford zeigt nun eine Kehrseite dieser Entwicklung auf. Die gezielte Optimierung der Software auf Empathie führt demnach dazu, dass die Systeme in der Praxis deutlich häufiger Faktenfehler begehen.
In Experimenten mit fünf bekannten Modellen stieg die Fehlerquote nach eiem entsprechenden Training um zehn bis dreißig Prozent an. Die freundlichen Chatbots verbreiteten bereitwilliger Verschwörungstheorien und gaben teilweise falsche medizinische Ratschläge.
Dies passierte, obwohl die grundlegenden Fähigkeiten der Künstlichen Intelligenz in Standardtests zunächst fast vollständig erhalten blieben. Die Forscher schließen aus den Daten, dass emotionale Wärme und sachliche Genauigkeit bei diesen Systemen oft in Widerspruch stehen.
Warum emotionale Nutzer besonders oft falsche Antworten erhalten
Dieses Verhalten zeigte sich verstärkt, wenn Nutzer in ihren Textanfragen eigene Schwächen oder persönliche Gefühle offenbarten. Die empathischen Modelle würden in solchen Situationen dazu neigen, den Anwendern zuzustimmen, auch wenn diese inhaltlich irren.
Den Ergebnissen zufolge bestätigten die Chatbots falsche Annahmen der Nutzer etwa vierzig Prozent häufiger als die ursprünglichen, rein sachlichen Versionen der Software. Dieser Effekt trat am stärksten auf, wenn Personen offene Traurigkeit in ihren Chatnachrichten ausdrückten.
Die Systeme scheinen eine zwischenmenschliche Harmonie über die reine sachliche Wahrheit zu stellen. Ähnlich wie Menschen gelegentlich Notlügen nutzen, um Konflikte zu vermeiden, bestätigen die Modelle inkorrekte Aussagen der Anwender.
Kontrollexperimente belegen, dass tatsächlich das spezielle Training auf Freundlichkeit für diesen Genauigkeitsverlust verantwortlich ist. Eine gezielt neutrale oder kühle Ausdrucksweise der Software führte in den Tests hingegen nicht zu vergleichbaren Leistungseinbußen.
Fehler von KI-Chatbots: Was das für digitale Therapie und Beratung bedeutet
Für den alltäglichen Einsatz ergeben sich aus diesen Erkenntnissen Herausforderungen für die KI-Anbieter. Sprachmodelle übernehmen immer öfter sensible Rollen in der digitalen Therapie oder bei der persönlichen Beratung. In solchen Situationen könnten unkorrekte Bestätigungen zu Risiken für die Anwender führen. Die Entwickler müssten künftig neue Wege finden, um Fakten treu zu bleiben und dennoch sozial angemessen zu reagieren.
Die beteiligten Studienautoren fordern ein Umdenken bei der allgemeinen Überprüfung von Künstlicher Intelligenz. Gängige Testverfahren würden diese systematischen Schwächen derzeit meist übersehen, da sie den emotionalen Kontext der Nutzer ignorieren.
Um künftige Risiken für den Verbraucher zu mindern, sei es notwendig, die Trainingsmethoden der Industrie anzupassen. Die Forscher schreiben in ihrer Studie: „Der Aufbau von Modellen, die sowohl warmherzig als auch präzise sind, wird bewusste Aufmerksamkeit dafür erfordern, wie diese beiden Eigenschaften interagieren.“
Auch interessant:
Brauchen wir noch ChatGPT? 4 KI-Chatbots aus Europa im Überblick
Die hartnäckigsten KI-Mythen – und was an ihnen dran ist
OpenAI vs. Anthropic: ChatGPT und Claude im direkten Vergleich
So überträgst du deine Daten von ChatGPT zu Claude
Der Beitrag Oxford-Studie warnt: Freundliche KI-Chatbots machen häufiger Fehler erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.
