Einer Untersuchung zufolge nutzen britische Beamte Künstliche Intelligenz (KI), um behördliche Entscheidungen zu treffen. Darunter: die Gewährung von Sozialleistungen und die Erteilung von Heiratserlaubnissen.

Seit der Weiterentwicklung von Künstlicher Intelligenz stehen viele ethische Fragen im Raum. Hat eine KI Rechte? Behandelt sie jeden Menschen gleich – unabhängig von der Herkunft oder Einstellung? Und was sind die Gefahren von solchen Systemen? Bis es Antworten auf diese Fragen gibt, wird wahrscheinlich noch etwas Zeit vergehen.

Ein neuer Fall aus Großbritannien zeigte kürzlich wiederum, welche Macht Algorithmen bereits auf den Alltag von Menschen haben. Denn laut eines Berichts der britischen Zeitung The Guardian nutzt die dortige Regierung Künstliche Intelligenz, um bestimmte Entscheidungen zu treffen. Darunter: die Gewährung von Sozialleistungen und die Erteilung von Heiratserlaubnissen.

Sozialleistungen: Britische Beamte nutzen KI für Entscheidung

Die Untersuchung zeigt, dass Beamte in mindestens acht Abteilungen und einige Polizeikräfte KI-Systeme nutzen, um über Einwanderer oder Rechtsfragen zu entscheiden. Doch die Auswirkungen sind noch weitreichender. Denn die Künstliche Intelligenz scheint auch Probleme mit der Gleichbehandlung zu haben.

Darunter fällt ein Algorithmus zum Genehmigen oder Entziehen bestimmter staatlicher Leistungen oder ein Tool zur Gesichtserkennung. Während der Algorithmus versehentlich zahlreichen Menschen ihre Leistungen entzog, benachteiligte das Kamerasystem Menschen mit dunkler Hautfarbe. Die Probleme liegen dabei meist nicht im Algorithmus, sondern in den Trainingsdaten, auf denen das System basiert.

Trainingsdaten sind nicht transparent oder einsehbar

Denn gibt es bestimmte Vorurteile oder Bilder über bestimmte Personengruppen, so reflektiert das System diese in den entsprechenden Entscheidungen. The Guardian fand etwa heraus, dass ein Tool der Einwanderungsbehörde übermäßig Menschen aus Albanien, Griechenland, Rumänien und Bulgarien benachteiligte. Die verantwortlichen Stellen versicherten hingegen, dass die Systeme sicher und fair seien.

Doch dabei verdeutlicht sich ein weiteres Problem. Denn die Algorithmen sind nicht transparent und durften auch nicht vom Guardian eingesehen werden. KI-Entwicklung findet heutzutage überwiegend hinter verschlossenen Türen statt. Das Vertrauen von Menschen in Computersysteme ist daher häufig nicht sonderlich groß.

Auch interessant:

Das sind die 10 größten Risiken von Künstlicher Intelligenz
Künstliche Intelligenz: Kann ChatGPT einen Psychologen ersetzen?
Stromfresser: Lässt Künstliche Intelligenz den Energieverbrauch explodieren?
Mit Künstlicher Intelligenz: So treibt Klarna seine Kunden in die Schuldenfalle

Neuigkeiten

Leave a Reply

Your email address will not be published. Required fields are marked *