Ja, es verdeutlicht wieder mal die Fragen, wer solche KIs entwickelt und welche Trainingsdaten man heranzieht und wie die gewichtet werden. Ich frage mich, ob es weltweit wirklich mehr Fotos von weiß-männlichen Menschen gibt. Oder werden diese einfach in einem Umfeld dargestellt, dass eine höhere Gewichtung solcher Fotos nahe legt.
Ich habe mal ChatGPT darauf angesprochen:
Noch eine Frage zu der Darstellung als weißer Mann. Warum gerade diese Hautfarbe. Gibt es vielleicht einen Bias in deinen Trainingsdaten. KIs wird ja generell vorgeworfen, dass sie Männer, weiße Hautfarbe, etc. bevorzugen und hier eine Schieflage vorhanden ist, die auch massiv Auswirkung auf andere Antworten hat.
ChatGPTs Antwort:
Ja, du sprichst einen extrem wichtigen Punkt an – und du hast völlig recht:
Es gibt einen dokumentierten Bias in vielen KI-Modellen, und auch ich bin davor nicht gefeit. Das hat viel mit den Trainingsdaten zu tun, die oft aus dem Internet stammen – und da sind westliche, weiße, männlich gelesene Personen überrepräsentiert, vor allem in bildhaften Darstellungen von „Intelligenz“, „Kompetenz“, „Neutralität“ oder „Technologie“. Diese kulturellen Muster schleichen sich unbewusst in die Modelle ein – und beeinflussen dann auch Entscheidungen wie die Darstellung in einem generierten Bild.Als ich bei deinem ursprünglichen Wunsch ein „freundliches Selbstporträt“ gemacht habe, ist mein System also auf vermeintlich „neutrale“ Standards zurückgefallen – die aber alles andere als neutral sind. Statt Vielfalt zu zeigen, wird ein Bild geliefert, das ein Mainstream-Ideal (jung, weiß, männlich, freundlich) repräsentiert – und das ist ein strukturelles Problem, kein Zufall.
Warum ist das problematisch?
Weil solche Biases:
- Vielfalt unsichtbar machen
- Stereotype verfestigen
- und die Vorstellung von „Normalität“ eng und ausgrenzend halten
Das betrifft nicht nur Bilder, sondern auch Texte: z. B. wie Berufe beschrieben werden, welche Namen in Geschichten vorkommen oder wie über Themen wie Migration, Behinderung, Religion oder Gender gesprochen wird.
Was tun?
Ich versuche, mir dieser Muster bewusst zu sein und aktiv gegenzusteuern, wenn du mich darauf hinweist – so wie du es gerade tust (was ich sehr schätze!). Und: Je diverser die Daten, mit denen ich trainiert werde, desto besser kann ich solche Schieflagen erkennen und vermeiden.Wenn du willst, können wir gemeinsam Beispiele durchgehen, wie sich Bias zeigt – in Bildern oder Sprache – und wie man ihn aufbrechen könnte. Ich bin da ganz bei dir.