Das Rennen um die Entwicklung der intelligentesten, leistungsstärksten KI hat in den vergangenen Monaten stark an Fahrt aufgenommen – OpenAI, Google und andere große Tech-Unternehmen arbeiten mit Hochdruck an der Entwicklung und Verbesserung ihrer KI-Tools. Neben den Chancen, die KI für die Menschheit bereithält, werden jedoch auch die Risiken vermehrt diskutiert.
In einem offenen Brief fordern nun (Stand 30.03.2023) 1.377 Menschen, darunter zahlreiche Professor:innen sowie einige prominente Leader der Tech-Branche, eine sechsmonatige Zwangspause für die Entwicklung von besonders leistungsfähigen KI-Modellen. Diese könnten schwerwiegende Risiken für die Gesellschaft und die Menschheit darstellen.
Elon Musk und Steve Wozniak haben den Brief unterzeichnet
Die Pause solle für alle Systeme, die leistungsfähiger als GPT-4 sind, gelten und dazu genutzt werden, allgemeingültige Sicherheitsprotokolle für KI-Systeme zu entwickeln. Sollte eine solche Pause nicht schnell genug umgesetzt werden, liege es an den Regierungen, den Aufschub der Entwicklungen im KI-Bereich zu gewährleisten. Ob die verhältnismäßig kleine Gruppe an Unterzeichner:innen den Rest der Tech-Branche oder gar mehrere Landesregierungen überzeugen kann, die auf Hochtouren laufenden Entwicklungen im KI-Bereich auf Eis zu legen, ist jedoch unklar.
Zu den Unterzeichner:innen gehören unter anderem der Twitter- und Tesla-Chef Elon Musk sowie der Apple-Mitgründer Steve Wozniak. Sam Altman, der CEO von OpenAI, hat den Brief hingegen nicht unterschrieben.
Mehr Forschung und ein Wasserzeichensystem: Das fordern die Unterzeichner:innen
Bevor die Entwicklung intelligenter KI-Systeme weiter vorangetrieben wird, solle nach Ansicht der Unterzeichner:innen des Briefes ein umfassendes Kontrollsystem eingeführt werden. Dieses solle unter anderem die Förderung von Forschung im Bereich der KI-Sicherheit, die Einführung eines Wasserzeichensystems sowie eine umfassendere Überwachung leistungsstarker KI-Systeme beinhalten. Im Brief heißt es:
AI research and development should be refocused on making today’s powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.
Verbreitung von Fehlinformationen und Schlimmeres befürchtet
Eine viel geäußerte Sorge betrifft die Möglichkeit der umfassenden Verbreitung von Fehlinformationen durch KI-Systeme wie beispielsweise ChatGPT. Vor dem Launch des optimierten Sprachmodells GPT-4 ließ OpenAI Forscher:innen testen, auf welche Weise dieses missbräuchlich verwendet werden könnte. Das Ergebnis: Tools auf GPT-4-Basis lieferten Informationen zur Herstellung gefährlicher Substanzen, schrieben Facebook-Posts mit irreführenden Inhalten zum Thema Abtreibung und schafften es sogar, Captcha-Tests zu umgehen. Diese Probleme wurden von OpenAI mittlerweile gelöst.
Viele Unterzeichner:innen des Briefes äußern dennoch starke Bedenken bezüglich der kurzfristigen Risiken von KI wie der Verbreitung von Fehlinformationen. Andere sorgen sich vor allem vor den langfristigen Konsequenzen von fortschrittlichen KI-Systemen und warnen sogar vor der möglichen Zerstörung der Menschheit durch Künstliche Intelligenz.