Apples neue KI-Funktionen, die der Konzern unter dem Dachbegriff „Apple Intelligence“ bewirbt, bieten derzeit nur wenige wirklich brauchbare Features an und sind zudem noch auf englischsprachige Geräte beschränkt, dennoch steht Apple Intelligence bereits im Zentrum einer Kontroverse.

Die Technologie, die unter anderem Push-Mitteilungen und damit auch Nachrichtenmeldungen zusammenfassen soll, hat mehrfach falsche Informationen generiert und damit die Glaubwürdigkeit betroffener Medien gefährdet. Sowohl die BBC als auch die New York Times haben sich über diese Vorfälle beschwert – ifun.de berichtete:

Apple Intelligence spielt falsche Schlagzeilen aus

BBC meldet Falschdarstellung

Besonders scharf kritisierte die britische Rundfunkanstalt BBC, dass ihre Berichterstattung durch fehlerhafte Zusammenfassungen verzerrt wurde. Betroffen war unter anderem eine Meldung über den Mordverdächtigen Luigi Mangione. Dieser habe Suizid begangen, halluzinierte Apple Intelligence.

Auch die New York Times wurde durch einen ähnlichen Vorfall betroffen. Hier verbreitete die KI die unzutreffende Information, Israels Premierminister Benjamin Netanjahu sei verhaftet worden. Tatsächlich bezog sich die ursprüngliche Nachricht auf einen Haftbefehl des Internationalen Strafgerichtshofs.

Apple hat sich bisher nicht öffentlich zu den Vorwürfen geäußert. Experten weisen jedoch darauf hin, dass die von Apple verwendeten KI-Modelle auf probabilistischen Methoden basieren, was inhärent zu Fehlern führen könne.

Kritik von „Reporter ohne Grenzen“

Neben den betroffenen Medien äußerte sich inzwischen auch die Nichtregierungsorganisation „Reporter ohne Grenzen“ (RSF) kritisch. Sie bezeichnete die generative KI als „nicht reif für den Markt“ und forderte Apple auf, das Feature vorerst vollständig zurückzuziehen.

Laut RSF gefährden automatisiert erzeugte Falschmeldungen nicht nur die Glaubwürdigkeit der betroffenen Medien, sondern auch das Recht der Öffentlichkeit auf verlässliche Informationen.

RSF hebt zudem hervor, dass die europäische Gesetzgebung, obwohl sie mit dem „AI Act“ als fortschrittlich gilt, generative KI-Systeme nicht als Hochrisikotechnologie einstuft. Diese Lücke müsse geschlossen werden, um die Verbreitung falscher Informationen zu verhindern.

Blog

Leave a Reply

Your email address will not be published. Required fields are marked *