Erkennen und Gegensteuern von Bias in KI-Trainingsdaten
In der Welt der Künstlichen Intelligenz (KI) spiegelt sich unser kollektives Weltwissen, unsere gemeinsamen Weltanschauungen, Vorprägungen und Vorurteile wider – und das nicht immer auf positive Weise. Ein besonders plakatives Beispiel ist die Tendenz von KI-Systemen, bei der Aufforderung, ein Bild von einer "Heldenpose" zu generieren, vorzugsweise männliche Bilder zu produzieren. Dieses Phänomen ist auf die Bias in den Trainingsdaten zurückzuführen, die solche Systeme nutzen.
KI-Systeme, wie ChatGPT, sind im Grunde genommen fortgeschrittene Wahrscheinlichkeitsrechner. Sie basieren auf Daten, die aus dem Internet und anderen Quellen stammen, und reflektieren somit die in diesen Daten enthaltenen Vorurteile. So zeigt sich, dass unser kollektives Bild von "Helden" stark männlich dominiert ist. Die Folge: Die KI assoziiert das Wort "Heldenpose" automatisch mit männlichen Bildern.
Bittet man die KI um eine weibliche Darstellung, ist das Ergebnis meist nicht viel besser. Denn die generierten Heldinnen weisen vorgestanzte Schönheitsmerkmale auf. Körperformen, helle Haut, lange Haare und Beine….wir wissen alle, was ich meine. Auch hier schlägt der antrainierte Bias der maschinellen Lernerfolge (auf Basis menschliche produzierten Daten) durch.
Diese Voreingenommenheit ist bei bildlichen Darstellungen schnell erkennbar und kann mit einer gewissen aufgeklärten Achtsamkeit korrigiert werden. Bei Texten ist es jedoch komplizierter, weil schwerer zu erkennen. Trotzdem steckt auch hier oft ein vortrainierter Bias im System. Es ist unsere Aufgabe als Nutzer*innen und Entwickler*innen von KI-basierten Produkten, diese Vorurteile zu erkennen und aktiv dagegen vorzugehen.
Wir tragen die Verantwortung dafür, alte Rollenmuster und Stereotypen zu hinterfragen und nicht zuzulassen, dass sie sich in der zukünftigen, von KI geprägten Kommunikation festsetzen. Wenn wir eine gerechtere und inklusivere digitale Welt schaffen wollen, müssen wir uns dieser Herausforderung stellen. Dies könnte man als eine Form des digitalen Feminismus bezeichnen – ein Bestreben, Gleichberechtigung und Fairness in die digitale Ära zu bringen.
Geschlechterbilder sind natürlich nicht die einzigen Bias‘, mit denen wir im Umgang mit KI rechnen müssen. Von Urban-Legends bis zu zweifelhaften politischen Vorprägungen der Trainingsdaten gilt es zu warnen.
Indem wir uns bewusst machen, dass die KI nur das widerspiegelt, was in ihren Trainingsdaten vorhanden ist, können wir beginnen, aktiv gegenzusteuern. Letztendlich liegt es an uns, sicherzustellen, dass unsere KI-Systeme ein vielfältiges und ausgewogenes Bild der Menschheit und unserer Gesellschaft darstellen.
Dies ist kein Argument gegen die Nutzung von KI. Im Gegenteil! Ich arbeite täglich mit ChatGPT, Bard, DALL-E und Co. Aber es ist ein Aufruf, den kritischen Geist zu schulen und sich klug und mit wachsamen Blick der unendlichen Möglichkeiten der AI-Tools zu bedienen. Übernehmen wir Verantwortung und delegieren unsere Werte nicht an den Wahrscheinlichkeitsrechner, der gerade unsere Welt neudediniert!
Denn wer so arbeitet, baut eine gute Zukunft, statt die Fehler der Vergangenheit zu re-generieren.
Comments