Sprachbasierte KI-Applikationen werden zunehmend zur alltäglichen Nachrichtenquelle. Eine aktuelle Untersuchung zeigt jedoch, dass Antworten dieser Systeme in vielen Fällen inhaltlich unzuverlässig sind. Die Erhebung, die unter der Leitung der BBC in Kooperation mit zahlreichen europäischen Rundfunkanbietern durchgeführt wurde, umfasst Beiträge aus 18 Ländern und 14 verschiedenen Sprachen.

Bewertet wurden die Antworten von vier bekannten KI-Apps (Copilot, ChatGPT, Perplexity und Gemini) durch Redaktionen öffentlich-rechtlicher Medien. Hierzulande beteiligten sich ARD, ZDF und die Deutsche Welle. Die Ergebnisse deuten auf strukturelle Probleme hin. In fast der Hälfte der geprüften Fälle enthielten die Antworten inhaltliche oder formale Fehler. Dazu zählten unklare Quellenangaben, fehlende Kontextualisierung oder sachliche Ungenauigkeiten.

Besonders häufig waren Schwierigkeiten bei der Unterscheidung zwischen Tatsachen und Meinungsäußerungen. Die App mit der höchsten Fehlerquote (ChatGPT) lieferte in mehr als drei Vierteln der Fälle problematische Antworten. Die Tester bezogen sich unter anderem auf die Richtigkeit der Angaben sowie auf die Nachvollziehbarkeit der Quellen.

Forderung nach Regulierung und weiteren Prüfungen

Die beteiligten Medienorganisationen warnen davor, dass sich diese Mängel auf das Vertrauen in digitale Informationen auswirken könnten. Vor allem junge Nutzerinnen und Nutzer greifen zunehmend auf KI-Anwendungen zurück, wenn sie sich über aktuelle Ereignisse informieren. Vertreter der Europäischen Rundfunkunion fordern daher eine stärkere Kontrolle der eingesetzten Systeme sowie die konsequente Anwendung bestehender Vorschriften im Bereich digitaler Dienste.

Zur Unterstützung der praktischen Umsetzung wurde begleitendes Studienmaterial (PDF-Download) veröffentlicht, das Verbesserungsvorschläge für KI-Antworten und Empfehlungen zur Förderung von Medienkompetenz enthält. Zudem wird eine kontinuierliche Beobachtung der technischen Entwicklungen angestrebt, um die Qualität von automatisiert erstellten Inhalten langfristig zu bewerten und gegebenenfalls nachzusteuern.

PDF-Download: News Integrity in AI Assistants

Der Beitrag Studie: KI-Apps verfälschen regelmäßig Nachrichteninhalte erschien zuerst auf iphone-ticker.de.

Blog

Leave a Reply

Your email address will not be published. Required fields are marked *