Femworx 2026. Foto: Deutsche Messe AG/Rainer Jensen
Rebecca Hundschell über unfaire KI-Systeme
24. April 2026 | von Barbara Dörmer„Derzeit ist die harte Wahrheit leider: Die weibliche Zukunft wird gerade gestaltet, aber wir gestalten sie nicht aktiv selbst. Solange wir nicht an den Tischen sitzen, an denen KI-Systeme gebaut werden, werden sie weiter ohne uns, ohne unsere Körper, unsere Lebensrealitäten und unsere Perspektiven sein.“ Das sagt Rebecca Hundschell, Gründerin des The Female AI Club in München.
Gestern hat die KI-Expertin auf dem Femworx-Kongress der Hannover Messe einen Impuls gehalten zum Thema „Unfair AI: Create > Being Created“. Und erläutert, warum KI-Systeme unfair sind, und was das für weibliche KI-Nutzerinnen bedeutet. Leider habe ich diesen Vortrag nicht gehört, und mich deshalb für den Newsletter des Female AI Club (siehe deren Website) angemeldet.
Darin beschreibt Rebecca Hundschell, dass KI-Systeme systematisch bestimmte Gruppen - Frauen, Ältere, Menschen mit Migrationshintergrund, Menschen, die nicht bestimmten definierten Idealen entsprechen – benachteiligen. Eine Stanford-Studie zeige etwa, dass ChatGPT Lebensläufe für Frauen als weniger erfahren und jünger darstellt, selbst wenn die Ausgangsinformationen identisch sind.
Warum ist das so? Weil der Großteil der Menschen in der KI-Entwicklung männlich und auch sonst recht homogen gestaltet ist, sagt die Expertin. Nur 12 Prozent der KI-Forschenden weltweit sind laut Hundschnell Frauen. In Deutschland liege der Anteil weiblicher KI-Talente bei 21 Prozent. Das heiße, dass die Systeme, die zunehmend über Lebenschancen mitentscheiden, von einer sehr homogenen Gruppe gebaut würden - und zwar mit deren blinden Flecken, ihren Annahmen darüber, was normal ist, und ihren Körpern als implizitem Standard. Dazu komme, dass die KI-Systeme mit Vergangenheitsdaten, zumeist aus dem Internet, trainiert würden. Diese beinhalteten die Weltanschauung wie sie war und ist, und nicht wie sie sein sollte. Wenn KI-Systeme voreingenommen entwickelt und einsetzt würden, würde Diskriminierung automatisiert - und das jeden Tag skalierter.
Rebecca Hundschell rät Frauen dazu, bei KI-Entwicklungen die richtigen Fragen zu stellen: Wer ist nicht in den Trainingsdaten? Wer profitiert von diesem KI-System? Gibt es Annahmen in der Entwicklung, die wir nochmal in der Nutzer-Gruppe feedbacken könnten? Wie könnten wir die Trainingsdaten diverser machen? Welche Perspektiven auf das Produkt fehlen? Darüber hinaus könne man täglich auf faires und diverses prompten achten, so dass das KI-System in den Antworten challenged. Wie das genau geht, zeigt der Club in einem Paper, das man mit der Newsletter-Anmeldung erhält.
