Vielleicht ist es dir selbst schon einmal aufgefallen beim Experimentieren: Fragt man KI-Tools, vor allem Fototools wie Midjourney, nach Darstellungen von Menschen kommen bestimmte Eigenschaften übermäßig oft vor: männlich und weiß. Es gibt viele Beispiele, in denen Künstliche Intelligenz mit Vorurteilen oder diskriminierend antwortet. Wie ist das möglich?
Ursprung der Diskriminierung in KI
Die Diskriminierung in KI hat oft ihre Wurzeln in den Daten, mit denen die Algorithmen trainiert werden. Wenn ein Algorithmus mit voreingenommenen Daten trainiert wird, spiegelt er diese Vorurteile in seinen Ergebnissen wider. Ein prägnantes Beispiel hierfür ist ein Gesichtserkennungsalgorithmus. Wenn dieser Algorithmus hauptsächlich mit Bildern von weißen Gesichtern trainiert wird, könnte er Schwierigkeiten haben, Gesichter von Menschen anderer Ethnien korrekt zu erkennen. Das Problem wird dadurch verschärft, dass solche Vorurteile oft nicht absichtlich in die Algorithmen eingeführt werden. Sie entstehen vielmehr durch unausgewogene oder unvollständige Datensätze, die die Realität nicht korrekt abbilden.
Beispiele für Diskriminierung durch KI
Ein besonders besorgniserregendes Beispiel für Diskriminierung durch KI wurde im amerikanischen Gesundheitssystem festgestellt. Ein in US-Krankenhäusern eingesetzter Algorithmus zur Vorhersage des zusätzlichen medizinischen Bedarfs von Patient:innen zeigte eine klare Bevorzugung von weißen Patient:innen gegenüber schwarzen. Der Grund dafür war, dass der Algorithmus die vergangenen Gesundheitsausgaben der Patient:innen berücksichtigte, die wiederum mit der ethnischen Herkunft korreliert waren.
Amazon, ein weltweit führendes Technologieunternehmen, war ebenfalls von KI-Diskriminierung betroffen. Ein von Amazon entwickelter Algorithmus zur Bewertung von Bewerber:innen für technische Positionen zeigte eine klare Voreingenommenheit gegenüber Frauen. Dies war besonders problematisch, da der Algorithmus Bewerbungen von Frauen systematisch benachteiligte.
Wie KI die Vorurteile der Gesellschaft widerspiegelt
Es ist wichtig zu betonen, dass KI-Systeme nicht von Natur aus voreingenommen sind. Sie reflektieren lediglich die Vorurteile, die in den Daten vorhanden sind, mit denen sie trainiert wurden. In vielen Fällen sind diese Daten ein Spiegelbild der gesellschaftlichen Vorurteile. So können KI-Modelle, die auf Nachrichtenartikeln trainiert wurden, soziale Geschlechtervorurteile widerspiegeln. Ebenso können Daten, die in bestimmten geografischen Gebieten gesammelt wurden, zu einer Verzerrung in Kriminalitätsvorhersagemodellen führen.
Mögliche Lösungsansätze
Während KI das Potenzial hat, viele Aspekte unseres Lebens zu verbessern, ist es unerlässlich, die ethischen Herausforderungen, die sie mit sich bringt, ernst zu nehmen. Nur durch eine sorgfältige Überprüfung und ständige Wachsamkeit können wir sicherstellen, dass KI-Systeme fair und unvoreingenommen sind.