Der Beitrag Warum halluziniert KI? Mit diesen Tricks lassen sich Fehler vermeiden von Felix Baumann erschien zuerst auf BASIC thinking. Über unseren Newsletter bleibst du immer aktuell.

Immer mehr Wissenschaftler beschäftigen sich mit der Frage, warum KI halluziniert. Denn Sprachmodelle erfinden gelegentlich Informationen und lügen ihre Nutzer an. Mit einigen Tricks lassen sich solche Fehler vermeiden.

Chatbots und andere generative KI-Modelle können beeindruckend kreativ sein. Doch das kann zu Problemen führen, denn die meisten KI-Modelle „halluzinieren“. Heißt konkret: Sie erfinden Informationen oder fügen Details hinzu, die falsch oder schlichtweg erfunden sind.

Diese Eigenschaft ist sowohl faszinierend als auch problematisch zugleich – vor allem, wenn Endnutzer den Antworten zu viel Vertrauen schenken.

Ein Beispiel: Der Computerwissenschaftler Andy Zou berichtet, dass Chatbots oft falsche oder nicht existierende Studien als Quellen nennen. Das kann erhebliche Folgen haben, etwa wenn solche Informationen in wichtigen Entscheidungen einfließen. Aber warum „lügt“ KI?

Warum halluziniert KI?

Der Grund für KI-Halluzinationen liegt in der Funktionsweise von großen Sprachmodellen (LLMs). Denn die Systeme basieren auf riesigen Datenmengen und berechnen jedes Mal, welche Antwort statistisch am wahrscheinlichsten ist. Dabei kommt es jedoch zu einem Informationsverlust, weil die Modelle Daten komprimieren. In einigen Fällen führt das sogar zu komplett falschen Antworten.

Hinzu kommt, dass KI-Modelle oft so trainiert werden, dass sie „selbstbewusst“ auftreten – auch wenn sie im Unrecht sind. Ein Chatbot könnte beispielsweise eine falsche Aussage bestätigen, nur weil sie in den Kontext der Unterhaltung passt. Doch Forscher arbeiten bereits daran, diese „Halluzinationen“ zu minimieren. Eine Methode ist die sogenannte Retrieval-Augmented Generation (RAG).

Vertrauenswürdige Quellen und Reflexion als Lösung

Dabei greifen Chatbots auf eine vertrauenswürdige Quelle zurück, bevor sie antworten. Besonders in Bereichen wie der Medizin oder der Justiz hätte sich dieses Verfahren bereits bewährt. Allerdings bleibt es eine Herausforderung, da nicht alle Wissenslücken durch vorhandene Daten gedeckt werden können.

Eine andere Technik ist das sogenannte „Selbstreflektieren“. Chatbots können gezwungen werden, ihre Antworten zu überprüfen oder mehrstufig zu erklären. Das erhöht die Zuverlässigkeit, erfordert aber mehr Rechenleistung. Außerdem arbeiten Wissenschaftler daran, Chatbots durch neuronale „Scans“ oder systematische Prüfungen ihrer Antworten genauer zu machen.

Auch wenn KI immer besser wird, werden Chatbots jedoch nie ganz fehlerfrei sein. Daher gilt: Antworten von KI-Systemen sollten stets kritisch hinterfragt und überprüft werden, besonders in sensiblen Bereichen. Getreu dem Motto: Vertrauen ist gut, Kontrolle ist besser!

Auch interessant:

Roboter erkennen menschliche Berührungen – ohne künstliche Haut
Selbstheilendes Stromnetz: Künstliche Intelligenz soll Blackouts vermeiden
KI-Lücke: Künstliche Intelligenz sorgt für eine noch tiefere „digitale Kluft“
KI als Richter: Die Vorteile und Nachteile von Künstlicher Intelligenz in der Justiz

Der Beitrag Warum halluziniert KI? Mit diesen Tricks lassen sich Fehler vermeiden von Felix Baumann erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard.

Blog

Leave a Reply

Your email address will not be published. Required fields are marked *