Forscher demonstrierten im Rahmen in einer Studie, inwieweit KI die politische Einstellung von Menschen anhand von Gesichtsscans vorhersagen kann. Die Hintergründe.

Die politische Landschaft ist breit gefächert. Doch neuste Studienergebnisse zeigen, dass alleine ein Gesichtsausdruck reichen soll, um politische Einstellungen zu identifizieren. Zumindest, wenn es nach neuen Forschungen der Stanford University Graduate School of Business geht.

Denn ein kürzlich veröffentlichte Forschungspapier legt nahe, dass Künstliche Intelligenz (KI) anhand eines Gesichtsscans die politische Orientierung voraussagen kann. Dafür reiche ein neutraler Gesichtsausdruck aus. Für ihre Analyse lud das Forschungsteam 591 Teilnehmern dazu ein, zunächst einen politischen Fragebogen auszufüllen. Ein Algorithmus erhielt dann die Information zu den Personen.

KI erkennt politische Einstellung anhand von Gesichtsausdruck

Dafür standen der KI keinerlei Alters-, Geschlechts- und Ethnizitätsdaten zur Verfügung. Dennoch konnte das System die politische Orientierung der Teilnehmer mit einer hohen Genauigkeit bestimmen. Die Vorhersagegenauigkeit verbesserte sich sogar noch weiter, nachdem die Informationen über das Alter, Geschlecht und die Ethnizität der Teilnehmer berücksichtigt wurden.

Das Forscherteam analysierte auch Unterschiede zwischen den durchschnittlichen Gesichtskonturen von Personen mit extrem liberalen oder konservativen Ansichten. Sie fanden heraus, dass Liberale tendenziell „kleinere untere Gesichter“ und „nach unten verschobene Lippen und Nasen“ haben. Konservative Menschen würden hingegen eine größere Kinnpartie aufweisen. Diese physischen Merkmale könnten soziale Erwartungen und die Persönlichkeitsentwicklung beeinflussen.

Systeme könnten eine massive Gefahr für unsere Demokratie sein

Die Studie wirft grundlegende Fragen zur Verwendung von biometrischer Überwachungstechnologie auf. Denn die Möglichkeit, politische Orientierungen zu erkennen, könnte insbesondere in der Werbeindustrie eine Rolle spielen. Parteien könnten gezielte politische Werbung an potenzielle Anhänger ausspielen.

Damit birgt die Technologie ein enormes Potenzial für Missbrauch. Die Ergebnisse deuten nämlich darauf hin, dass Gesichtserkennungstechnologien in politischer und ethischer Hinsicht möglicherweise gefährlicher sind, als bisher angenommen.

Die Studienergebnisse sind damit auch ein Weckruf. Das Forscherteam fordert daher zu einer kritischen Auseinandersetzung mit den ethischen Grenzen der Technologie in unserer Gesellschaft auf. Denn nur so lässt sich langfristig eine freie und demokratische Gesellschaft bewahren.

Auch interessant:

Vertikale Windräder: Künstliche Intelligenz verdreifacht Effizienz
Künstliche Intelligenz erzieht andere Künstliche Intelligenz
TacticAI: Künstliche Intelligenz als Taktik-Assistent im Fußball
Künstliche Intelligenz soll illegale Fischerei stoppen

Neuigkeiten

Leave a Reply

Your email address will not be published. Required fields are marked *