Die EU setzt auf KI-basierte Systeme, um Grenzkontrollen durchzuführen und ihre Außengrenzen zu überwachen. Die Organisation AlgorithmWatch zeigt jedoch zahlreiche Probleme der eingesetzten Technologien auf. Darunter: Intransparenz und potenzielle Menschenrechtsverletzungen.
Um ihre Außengrenzen zu überwachen und Grenzkontrollen durchzuführen, setzt die Europäische Union zunehmend automatisierte Systeme ein, die auf KI basieren. Laut der Organisation AlgorithmWatch sollen ethische Abwägung dabei jedoch kaum eine Rolle spielen – trotz potenzieller Menschenrechtsverletzungen.
Das geht aus einer eigens angelegten Datenbank der NGO hervor, die zahlreiche der eingesetzten Technologien aufführt und damit einhergehende Probleme aufzeigt. Obwohl es sich um öffentliche Forschung handelt, würde die EU zudem Projektinformationen zurückhalten. AlgorithmWatch forderte deshalb politische Konsequenzen.
Grenzkontrollen mit KI gefährden Menschenrechte
Unter dem Projektnamen „Automation on the Move“ hat die Organisationen 24 Forschungsprojekt untersucht, die die EU in Auftrag gegeben hat und bezüglich potenzieller Risiken bewertet. Darunter: Systeme zur Kontrolle unbemannter Fahrzeuge und Drohnen, zur biometrischen Datenverarbeitung sowie weitere KI-basierte Überwachungsmodelle.
AlgorithmWatch hat Wissenschaftler, Journalisten und Zivilrechtler zu Rate gezogen, um die Risiken dieser Systeme aufzudecken. Der Untersuchung zufolge könnten technische Fehler zu irrtümlichen Identifikationen führen, die das Risiko einer ungerechtfertigte Überwachung von Menschen bergen.
Vor dem Hintergrund der immer strenger werdenden Migrationspolitik würde die Diskriminierung durch KI-basierte Algorithmen dabei zunehmend zu einem Problem werden. Laut AlgorithmWatch könnten die eingesetzten KI-Systeme etwa missbraucht werden oder die Bewegungsfreiheit von Menschen einschränken.
Diese Entwicklung würde grundlegende Menschenrechte gefährden. Darunter: das Recht auf Privatsphäre, das Recht auf Gleichbehandlung und das Recht auf Asyl. Diese Risiken würden in den Forschungsprojekte der EU nur unzureichend Erwähnung finden.
Wenig Transparenz und kaum ethische Abwägung
AlgorithmWatch kritisiert zudem eine mangelnde Transparenz – obwohl die Projekte öffentlich finanziert werden. Die European Research Executive Agency (REA) hätte der Organisation etwa wiederholt den Zugang zu Informationen verweigert. Begründung: Anbieter- und Sicherheits-Interessen seien wichtiger als Interessen der Öffentlichkeit.
Um an Informationen zu kommen, haben die Projektbeteiligten deshalb unter anderem Fernsehaufnahmen und Interviews analysiert. Eines der Ergebnisse: Unter anderem kommt bereits die umstrittene Überwachungstechnologie ANDROMEDA aktiv zum Einsatz.
AlgorithmWatch bezweifelt außerdem, dass das System auf Grenzkontrollen beschränkt sein wird. Die NGO fürchtet, dass viele Technologien militärisch eingesetzt werden könnten. So bestünde das Risiko, dass die Systeme autokratischen Ländern in die Hände fallen – zumal Belarus bis zum russischen Angriffskrieg auf die Ukraine an mindestens zwei Projekten beteiligte war.
Grenzkontrollen mit KI: AI Act bietet Spielraum
Mit dem sogenannten AI Act will die EU zwar den Einsatz von ethisch bedenklichen KI-Modellen beschränken. Laut AlgorithmWatch würden jedoch vor allem in den Bereichen Grenzschutz und Migration große Lücken klaffen. Da die EU-Mitgliedstaaten einen gewissen Handlungsspielraum haben, stellt die Organisation konkrete Forderungen.
Klare Aufsichts- und Transparenzrichtlinien sollten für Hochrisiko-Anwendungen demnach als Standard gelten. Für die Gestaltung und Bewertung von KI-System sei zudem die Einbindung der Zivilgesellschaft, von Betroffenen sowie Experten essentiell.
Der Einfluss der Verteidigungsindustrie müsse reduziert werden. Militärische und zivile Systeme sollten strikt getrennt werden – vor allem was die Transparenz von Forschungsergebnissen angeht. Fabio Chiusi, Leiter des Projekts „Automation on the Move“ bei AlgorithmWatch dazu:
Wann immer man eine automatisierte Technologie als Lösung für ein soziales Problem oder ein soziales Phänomen betrachtet, das so alt ist wie die Menschheit, wie die Migration, wird man am Ende Diskriminierung, Rassismus und Schaden rechtfertigen.
Auch interessant:
Satellitenbilder aus der Zukunft: KI kann Flutkatastrophen vorhersagen
KI wird die Welt verändern – wie wir es uns nicht vorstellen können
Meta, OpenAI und Anthropic verticken ihre KI-Modelle an das US-Militär
Laut Studie: KI könnte die Menge an Elektroschrott vertausendfachen
Der Beitrag Grenzkontrollen mit KI: „Diskriminierung, Rassismus und Schaden rechtfertigen“ von Fabian Peters erschien zuerst auf BASIC thinking. Folge uns auch auf Facebook, Twitter und Instagram.