Künstliche Intelligenz hat Vorurteile

Words by Jana Ahrens
Photography: Landovan auf Unsplash
Artifical Intelligence
Wir vertrauen der Wissenschaft. Wir vertrauen der Mathematik. Doch hinter mathematischen Berechnungen stecken immer auch Menschen. Und das hat Konsequenzen.
 

MENSCHEN ENTSCHEIDEN, WAS MASCHINEN LERNEN SOLLEN UND WAS NICHT

Besonders deutlich wird das im Zeitalter der künstlichen Intelligenz. Die technische und mathematische Komplexität ist massiv angestiegen. Hier muss individuell durch hoch spezialisierte Programmierer*innen und Mathematiker*innen entschieden werden, was für die Intelligenz einer Maschine überhaupt relevant ist.

Was die Maschine also lernen soll. Diese Entscheidungen sind nicht neutral. Sie hängen massiv von der Weltsicht der einzelnen Spezialisten und Spezialistinnen ab. Und das die Tech-Branche ein Diversitäts-Problem hat, ist seit Jahren bekannt. Dementsprechend werden sich die Fähigkeiten der künstlichen Intelligenz auf die Perspektive der Menschen hinter dem Produkt beschränken. Die Menschen geben also auch ihre unbewussten Vorurteile eins zu eins an die Maschinen weiter.

Sind wir zu selbstsicher und zu schlecht vorbereitet in das Zeitalter der Automatisierung eingetreten?

 

 

Cathy O’Neil, Mathematikerin und Autorin des Buches Angriff der Algorithmen ist sich sicher: Algorithmische Vorurteile sind längst in unserem Alltag angekommen. Menschen neigen dazu, mathematischen Modellen bedingungslos zu vertrauen. Sie hoffen, dass so menschliche Vorurteile ausgemerzt werden können. »Algorithmen ersetzen menschliche Arbeitsprozesse, aber wir legen nicht den selben Maßstab an wie bei Menschen. Wir vertrauen den Algorithmen zu sehr.«

 

Die Forscherin Joy Boulamwini formuiert es so: »Wir sind zu selbstsicher und zu schlecht vorbereitet in das Zeitalter der Automatisierung eingetreten. Wir riskieren den Verlust hart erkämpfter Gleichberechtigung und Menschenrechte, wenn wir künstlichen Intelligenzen keine ethischen Grundsätze und keine Inklusion beibringen.«

 

Farbige Frauen werden von KI’s erheblich schlechter erkannt.

 

Boulamwini hat die Gesichtserkennung von drei großen Anbietern auf Unterschiede in der Wahrnehmung verschiedener Hautfarben und Geschlechter untersucht. Die Erkennungssoftware erkannte Gesichter von farbigen Frauen bis zu 34,4% seltener als Gesichter von weißen Männern. Um so dunkler die Haut der Frauen, um so schlechter wurden die Ergebnisse. Das hat Konsequenzen, denn diese Software wird von öffentlichen Organen an Grenzen, von Job-Plattformen zum Ausspielen von Jobangeboten und von Analyse-Werkzeugen zum Voraussagen von Verhaltensweisen genutzt. Doch was nun? Erste Ansätze gibt es schon.

 

Intelligente Maschinen sollten genauso divers denken können wie Menschen.

 

KOSTENLOSES LERNEN FÜR MEHR KI DIVERSITÄT

Die Entwicklerin Rachel Thomas hat ein Start-Up namens Fast.ai gegründet. Dabei handelt es sich um eine kostenfreie Lernplattform, die Menschen außerhalb der Tech-Branche die Arbeit mit künstlicher Intelligenz ermöglicht. Thomas sagt, wir brauchen kein Diplom, keine riesigen Datensätze und keine superteuren Computer, um KI nutzbar zu machen. Ein cloud-basierter GPU Chip ist schon für 45 Cent zu mieten und für das Training eines neuralen Netzwerks reichen 30 Datensätze.

Um so mehr Menschen sich für KI interessieren, um so mehr Meinungen und Problemstellungen in die Entwicklungen einbezogen werden, um so diverser werden die Fähigkeiten von künstlichen Intelligenzen. Nur dann können wir sie bewusst nutzbar machen, statt das sie unser Leben bestimmen.

Share:

Jana Ahrens

Chefredakteurin

Jana Ahrens liebt die Auseinandersetzung mit der Mode und mit den Gegenständen und Situationen eines modernen Lebens. Sie interessiert sich weniger für schöne Dinge, als eher für die Schönheit ihrer Umstände. Im Januar 2018 hat sie die Chefredaktion des Monda Magazins übernommen.

Kommentieren