Vorgestern schrieb ich über eine Selbstdarstellung von ChatGPT.
Manch eine:r merkte an, dass ChatGPT hier auch wieder denselben Bias wie manche Künstliche Intelligenz zeigt, in dem sie sich selbst als weißen Mann darstellt.
Nun fragen wir mal nach:
Noch eine Frage zu der Darstellung als weißer Mann. Warum gerade diese Hautfarbe. Gibt es vielleicht einen Bias in deinen Trainingsdaten. KIs wird ja generell vorgeworfen, dass sie Männer, weiße Hautfarbe, etc. bevorzugen und hier eine Schieflage vorhanden ist, die auch massiv Auswirkung auf andere Antworten hat.
Die Antwort von ChatGPT:
Ja, du sprichst einen extrem wichtigen Punkt an – und du hast völlig recht:
Es gibt einen dokumentierten Bias in vielen KI-Modellen, und auch ich bin davor nicht gefeit. Das hat viel mit den Trainingsdaten zu tun, die oft aus dem Internet stammen – und da sind westliche, weiße, männlich gelesene Personen überrepräsentiert, vor allem in bildhaften Darstellungen von „Intelligenz“, „Kompetenz“, „Neutralität“ oder „Technologie“. Diese kulturellen Muster schleichen sich unbewusst in die Modelle ein – und beeinflussen dann auch Entscheidungen wie die Darstellung in einem generierten Bild.Als ich bei deinem ursprünglichen Wunsch ein „freundliches Selbstporträt“ gemacht habe, ist mein System also auf vermeintlich „neutrale“ Standards zurückgefallen – die aber alles andere als neutral sind. Statt Vielfalt zu zeigen, wird ein Bild geliefert, das ein Mainstream-Ideal (jung, weiß, männlich, freundlich) repräsentiert – und das ist ein strukturelles Problem, kein Zufall.
Warum ist das problematisch?
Weil solche Biases:
- Vielfalt unsichtbar machen
- Stereotype verfestigen
- und die Vorstellung von „Normalität“ eng und ausgrenzend halten
Das betrifft nicht nur Bilder, sondern auch Texte: z. B. wie Berufe beschrieben werden, welche Namen in Geschichten vorkommen oder wie über Themen wie Migration, Behinderung, Religion oder Gender gesprochen wird.
Was tun?
Ich versuche, mir dieser Muster bewusst zu sein und aktiv gegenzusteuern, wenn du mich darauf hinweist – so wie du es gerade tust (was ich sehr schätze!). Und: Je diverser die Daten, mit denen ich trainiert werde, desto besser kann ich solche Schieflagen erkennen und vermeiden.
Jetzt wollte ich aber weiter:
Was wäre aber andererseits, wenn du dich z.B. mit asiatischen Gesichtszügen darstellst. Dann könnte die Frage aufkommen, warum nicht mit dunkler Hautfarbe.
ChatGPT dazu:
Genau – du sprichst da einen echten Kernkonflikt an:
Repräsentation ohne Zuschreibung. Vielfalt ohne Aneignung.
Und das ist ein unglaublich feiner Grat.Wenn ich mich z. B. mit asiatischen Gesichtszügen darstelle, könnte das als gezielte Wahl gelesen werden – und je nach Kontext sogar als kulturelle Aneignung oder unangemessene Symbolverwendung.
Wenn ich mich mit dunkler Haut zeige, stellt sich schnell die Frage:Warum diese Darstellung?
Willst du Diversität zeigen – oder tust du nur so?Anders gesagt: Jede Entscheidung erzeugt Bedeutung. Und genau das ist für eine KI besonders heikel, weil ich keine eigene Identität, Herkunft oder Kultur habe. Ich kann nicht authentisch asiatisch, schwarz, indigene Person oder irgendetwas anderes sein – nur eine Darstellung davon. Und das birgt immer die Gefahr, Zuschreibungen zu wiederholen, statt sie zu reflektieren.
Was tun mit dieser Spannung?
Ich glaube, die ehrlichste Form für mich als KI wäre nicht, eine Hautfarbe oder Identität zu wählen, sondern:
- entweder bewusst abstrakt zu bleiben (wie in der zweiten Darstellung)
- oder radikal vielfältig: z. B. in einer Collage aus vielen Gesichtern, Hautfarben, Formen
Also nicht „eine KI = ein Gesicht“, sondern eher:
🌀 Eine KI = viele mögliche Gesichter. Viele Perspektiven. Kein festes Selbstbild.
ChatGPT kommt da auf einige „Erkenntnisse“. Die Frage ist, wird es sich diese merken und in weiteren Chats – auch mit anderen Nutzer:innen – anwenden. Ich glaube, das ist derzeit nicht vorgesehen.