DSD-Blog

Weiße Vorbilder in der KI – Auswirkungen auf die reale Welt

Beitrag von

11.08.2020

Die Überrepräsentation weißer Stereotype und weißer Vorbilder findet nicht nur in den Medien statt. Forscher der Universität Cambridge haben nun herausgefunden, dass Künstliche Intelligenzen beziehungsweise Roboter überwiegend basierend auf weißen Ethnien designt werden. Das kann Folgen für die Gesellschaft haben und die Lücke zwischen schwarz und weiß weiter vergrößern.

Für die Studie wurden sowohl reale als auch fiktive KIs aus Filmen, Serien und Stockbildern berücksichtigt.

Weiße KI und ihre Wurzeln

Bei dem weißen Design der KIs geht es zum einen um das äußere Erscheinungsbild wie die Farbe und darüber hinausgehende Merkmale wie Gesichtszüge. Diese orientieren sich umso mehr an weißen Vorbildern je detaillierter der Roboter einem Menschen nachempfunden ist. Zum anderen sind aber auch Merkmale wie Stimme, Akzent und die Art und Weise der Interaktion durch weiße Menschen geprägt.

Laut der Wissenschaftler reichen die Gründe dafür Jahrhunderte zurück und entstammen noch dem Kolonialgedanken. Die weißen Völker haben sich den schwarzen gegenüber als überlegen wahrgenommen und so lag es nahe, sich bei dem Entwerfen Künstlicher Intelligenzen ebenfalls auf weiße Vorlagen zu beziehen. Denn es wird davon ausgegangen, dass die Maschinen irgendwann ebenfalls überlegen sein werden – und von schwarzen Maschinen übertroffen zu werden können sich die Entwickler nicht vorstellen. Darüber hinaus repräsentieren die Maschinen auch die weiße Umgebung, in der sie entstanden sind – selbst in Asien wird überwiegend auf kaukasische Merkmale zurückgegriffen.

Folgen für den Kampf gegen Diskriminierung

Die Gesellschaft ist ganz langsam auf dem Weg, Vorurteile und Klischees gegenüber schwarzen Menschen abzubauen. Dies könnte jedoch laut der Forscher durch die weißen KIs torpediert werden. Dass sie als positiv wahrgenommen werden, könnte sich auch auf echte Menschen übertragen. Das würde in der Wahrnehmung nicht nur die weißen Völker wieder höher stellen, sondern sich unter anderem auch diskriminierend in der Strafverfolgung auswirken. Denn die Maschinen würden dadurch lernen, weiße Ethnien zu bevorzugen.

Als ersten Lösungsansatz sehen die Forscher die Sichtbarmachung weißer Stereotype innerhalb der KI insbesondere in weißen Gesellschaften. (tl)