Diskriminierung durch KI: Schwierigkeiten mit weiblichen und dunkelhäutigen Gesichtern

5
345
Künstliche Intelligenz; © sdecoret - stock.adobe.com
© sdecoret - stock.adobe.com

Künstliche Intelligenzen werden immer bedeutender in unserem Alltag, egal ob in Suchmaschinen, Apps oder in der Wissenschaft. Die Algorithmen, die dabei zum Einsatz kommen, können allerdings unter Umständen diskriminierend handeln, so der Informatiker Thomas Schmid.

Thomas Schmid, Informatiker an der Universität Leipzig, erklärte jüngst in einem Interview mit dem Mitteldeutschen Rundfunk Sachsen, dass leistungsfähige Algorithmen heute mit lernenden Systemen arbeiten. Heißt: Sie handeln nach den Vorgaben und Daten, die ihre Schöpfer in das System einspeisen. Wenn diese Basisdaten dann bereits ein Ungleichgewicht enthalten, leitet der Algorithmus laut Schmid automatisch eine Ungleichbehandlung daraus ab.

Der Informatiker gab beispielsweise an, dass in vielen Datenbanken für Gesichtserkennung Bilder von Männern mit heller Hautfarbe dominieren würden. Zur Entwicklung nehme man die Daten, die vorliegen, wenn es keine Regelung für eine Gleichverteilung gibt. Daraus könnten sich dann jedoch verschiedene Schwierigkeiten ableiten. Dunkelhäutige und weibliche Gesichter seien laut Schmid besonders stark von Schwierigkeiten bei der Gesichtserkennung betroffen. Wer also etwa sein Smartphone per Gesichtserkennung entsperren will, kann durch solche „diskriminierenden“ Algorithmen schnell Probleme bekommen. Noch schlimmer sei es, wenn „durch eine nicht ausgewogene Gesichtserkennung in der Strafverfolgung bestimmte Personen besser und andere schlechter erkannt werden“, so Schmid.

Eine Diskriminierung von Frauen beträfe die Hälfte der Bevölkerung, wie der KI-Experte weiter ausführt. Bei einem Pilotprojekt des Konzerns Amazon habe sich beispielsweise gezeigt, dass das dort entwickelte System Frauen im Gesamtranking niedriger einordnete und damit die Wahrscheinlichkeit für sie sank, eingestellt zu werden. Das Datensystem habe dabei das Ungleichgewicht abgebildet, das in der Personalabteilung bereits vorherrschte. Andere Gruppen wie etwa Homosexuelle, People of Color oder religiöse Minderheiten könnten jedoch ebenfalls von einer solchen Ungleichbehandlung betroffen sein.

Um dieses Problem zu lösen, seien allerdings nicht nur Informatiker notwendig. Thomas Schmid fordert gegenüber dem MDR, dass auch andere Akteure gefragt sind, die Gesetze, Verordnungen oder einen Algorithmen-TÜV schaffen könnten.

Bildquelle:

  • intelligenz: © sdecoret - stock.adobe.com

5 Kommentare im Forum

  1. KI ist eben doch nicht so schlau wie Menschen oder vielleicht doch noch schlauer! Wer weiß was KI in Zukunft uns so noch alles Lustige beschert?
  2. Auch die natürliche Intelligenz ist nicht schlauer: Mitglieder einer Ethnie können Mitglieder einer anderen Ethnie schwerer unterscheiden als die ihrer eigenen. Das liegt nun mal in der Natur der Sache und hat nichts mit Diskriminierung zu tun. Ein Lebewesen muß eben nur seine eigenen "Familienmitglieder" unterscheiden können, bei anderen reicht es zu wissen, der gehört nicht dazu und es ist Vorsicht geboten.
  3. Achtung, politisch unkorrekt: Eine dunkelhäutige Frau hat also bessere Chancen, einer Fahndung durch Gesichtserkennung zu entkommen :whistle:.
Alle Kommentare 5 im Forum anzeigen

Kommentieren Sie den Artikel im Forum