Der Beitrag KI im Krieg: Experten warnen vor gefährlichem Kontrollverlust erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Eine aktuelle Analyse zeigt, wie der Einsatz Künstlicher Intelligenz militärische Entscheidungen zunehmend beschleunigt und die menschliche Kontrolle dabei deutlich erschwert. Experten warnen deshalb vor einer gefährlichen Dynamik, in der autonome Systeme eine regelrechte Eskalationen auslösen könnten.

Das Thema Künstliche Intelligenz hat in den vergangenen Jahren deutlich an Fahrt aufgenommen und verändert Wirtschaft, Gesellschaft und Politik in rasantem Tempo. Ihre Fähigkeit, große Datenmengen auszuwerten und komplexe Entscheidungen zu unterstützen, eröffnet in vielen Bereichen neue Möglichkeiten.

Gleichzeitig wirft aber genau das auch grundlegende Fragen nach Kontrolle und Regulierung auf – insbesondere, wenn KI in sicherheitsrelevanten Bereichen zum Einsatz kommt. Vor allem im militärischen Kontext kann das zu einer Dynamik führen, in der Entscheidungen immer schneller getroffen werden und menschliche Eingriffsmöglichkeiten zunehmend schwinden.

Genau vor dieser Entwicklung waren Experten des Think Tanks Centrum für europäische Politik (cep) in einer aktuellen Analyse. Demnach könnte der zunehmende Einsatz von KI im Krieg einen gefährlichen Kontrollverlust zur Folge haben.

Warum Militär-KI kaum noch Zeit für menschliche Kontrolle lässt

KI-gestützte Systeme kommen laut dem cep bereits heute in aktuellen Konflikten im Gazastreifen, im Iran und in der Ukraine „zum Teil ohne funktionierende Aufsicht“ zum Einsatz. Die menschliche Kontrolle sei dabei nur noch eine Illusion.

Denn mit dem Einsatz KI-gestützter Systeme verkürzten sich Analyse- und Reaktionszeiten im militärischen Umfeld erheblich. Was als strategischer Vorteil gilt, kann zugleich zu einem Problem werden, wenn Entscheidungen unter hohem Zeitdruck automatisiert vorbereitet oder getroffen werden.

Vor allem dieser Zeitdruck lasse wenig Raum für menschliche Kontrolle und Abwägung im Einzelfall. Es steige die Gefahr, dass fehlerhafte Daten oder missverständliche Signale schnell weitreichende Konsequenzen nach sich ziehen.

Auch würden belastbare Erfahrungswerte im Umgang mit Sprachmodellen oder anderen KI-Systemen im militärischen Kontext fehlen. Das cep warnt daher vor „unkalkulierbaren Folgen“, die letztendlich zu einem „gefährlichen Kontrollverlust“ führen könnten.

KI im Krieg: Welche Regeln Experten fordern

„In vielen Fällen haben Operatoren nur sehr wenig Zeit, um einen KI-Vorschlag zu prüfen“, erklärt Anselm Küsters, Studienautor und cep-KI-Experte. Oft könnten die Akteure dabei nicht nachvollziehen, „wie das System zu seiner Einschätzung gekommen ist oder welche unbeabsichtigten Folgen sie haben können“.

Unter diesen Bedingungen werde aus Kontrolle schnell Abhängigkeit, so der Forscher. Allerdings sei es entscheidend, ob die menschliche Kontrolle unter Einsatzbedingungen funktioniert. Dafür fordert das cep verbindliche Standards sowie zuverlässige und überprüfbare Verfahren.

Gemeinsame Regeln seien nicht nur ethisch geboten, sondern auch militärisch sinnvoll, da sie Fehlangriffe reduzieren und Eskalationen vorbeugen würden.

Der militärische Einsatz von KI müsse auf internationalen Standards basieren, beispielsweise durch EU- oder NATO-Standards für militärische KI. Dafür seien unter anderem Offenlegungspflichten sowie die Begrenzungen für automatisierte Systeme notwendig. Das cep fordert außerdem eine Meldepflicht bei Fehlfunktionen.

Auch interessant:

DFKI entwickelt KI-Detektor: Fake-Bilder per Instagram entlarven
Studie enthüllt massive KI-Schwächen – Agents of Chaos lassen Forscher rätseln
Schutz für deine Chats: So kannst du Face ID für WhatsApp aktivieren
Social Media und KI: Kinder werden erstmals dümmer

Der Beitrag KI im Krieg: Experten warnen vor gefährlichem Kontrollverlust erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Blog

Leave a Reply

Your email address will not be published. Required fields are marked *