Laut einem Forschungspapier ist Künstliche Intelligenz im Prinzip überhaupt nicht intelligent. Denn KI-Modelle seien nicht in der Lage, Ergebnisse außerhalb ihrer Trainingsdaten zu erzielen. Die Hintergründe.
Forscher von Deepmind, dem KI-Unternehmen von Google-Mutterkonzern Alphabet, haben sich in einem Forschungspapier mit dem Entwicklungsstand von Künstlicher Intelligenz beschäftigt. Das Ergebnis: KI-Modelle seien im Prinzip überhaupt nicht intelligent, da sie kaum in der Lage sind, Ergebnisse außerhalb ihrer Trainingsdaten zu erzielen.
Ist Künstliche Intelligenz überhaupt intelligent?
Das Forschungspapier ist bislang zwar noch nicht durch das sogenannte Peer-Review-Verfahren gelaufen – sprich: Es wurde noch nicht von unabhängigen Wissenschaftlern überprüft. Allerdings gelten die Google-Forscher und Autoren Steve Yadlowsky, Lyric Doshi und Nilesh Tripuraneni als Experten auf ihrem Gebiet.
Den empirischen Ergebnissen zufolge seien KI-Modelle zwar in der Lage, kontextabhängig Aufgaben zu lösen und zu lernen. Allerdings müssten die zuvor antrainierten Daten dafür aussagekräftig genug sein.
„Wenn sie jedoch mit Aufgaben oder Funktionen konfrontiert werden, die außerhalb der Domäne ihrer Vortrainingsdaten liegen, zeigen wir verschiedene Versagensmodi der Transformatoren und eine Verschlechterung ihrer Generalisierung selbst für einfache Extrapolationsaufgaben“, so die Forscher.
KI kann nur Aufgaben lösen, wenn die Trainingsdaten stimmen
Heißt konkret: KI-Modelle sind nur so gut wie die Daten, die ihnen zugrundeliegen. Die Untersuchungen beziehen sich zwar auf GPT-2 von ChatGPT-Entwickler OpenAI. Allerdings betonen die Forscher, dass ihre Ergebnisse grundsätzlich für sogenannte Transformer-Modelle gelten.
Solch ein Modell ist auch ChatGPT – das „T“ in GPT steht für Transformer. Solche Modelle seien in der Lage, eigenständig aus einem Input einen Output zu berechnen. In der Wissenschaft gelten sie deshalb am ehesten als eine Form von KI, die das Potenzial habe, wirklich intelligent zu sein.
Tranformer-Modellen wohnte deshalb auch das Versprechen inne, dass sie über die ihnen antrainierten Daten hinausgehen können. Doch selbst trotz gigantischer Datensätze hat bisher noch keine Künstliche Intelligenz eine nachweisliche Eigenständigkeit entwickelt. Den Google-Forschern zufolge seien die Trainingsdaten derweil essenziell.
Überraschend ist diese Erkenntnis zwar nicht, da Forscher seit dem Release von ChatGPT die Erwartungen an Künstliche Intelligenz herunterschrauben. Doch einige Experten sind nach wie vor der Ansicht, dass KI in der Lage sei, „Gedanken“ zu entwickeln, die sich von menschlichen unterscheiden. Eine solche Artificial General Intelligence (AGI) ist bislang aber nur ein hypothetisches Modell.
Auch interessant:
Smartphone Ersatz: Wie funktioniert eigentlich der Humane Ai Pin?
Job GPT: Diese KI schreibt Bewerbungen für dich – während du schläfst