Künstliche Intelligenz ist längst in unserem Alltag angekommen. Doch was viele vergessen oder gar nicht wissen: KI ist nicht neutral, sondern übernimmt oft die Vorurteile unserer Gesellschaft. Warum das besonders Frauen benachteiligt, erklärt KI-Expertin Eva Gengler im Interview.
Zum Erstellen von Trainingsplänen, als Therapie-Ersatz oder als virtueller Sparringspartner im Job: Künstliche Intelligenz wird von vielen Menschen in den unterschiedlichsten Bereichen genutzt – so auch beim Schreiben von Bewerbungen oder zur Vorbereitung auf Bewerbungsgespräche.
Zu glauben, dass die KI dabei rein objektive Empfehlungen ausspuckt, ist allerdings ein Trugschluss. Denn Künstliche Intelligenz ist alles andere als neutral – im Gegenteil: KI steckt voller Vorurteile. Dass Frauen nachweislich benachteiligt werden, zeigt auch eine aktuelle Studie der Technischen Hochschule Würzburg-Schweinfurt (THWS), die die Voreingenommenheit (Fachbegriff: Bias) in sogenannten Large Language Models (LLMs) untersucht hat.
Wir haben mit der KI-Expertin Eva Gengler darüber gesprochen, warum KI keine objektiven Informationen liefert und was sich bei der Nutzung von Künstlicher Intelligenz verbessern muss.
Frau Gengler, ist Künstliche Intelligenz neutral?
Eva Gengler: Ich habe meine Masterarbeit zu den ethischen Implikationen von KI im Recruiting geschrieben. Und da habe ich sehr schnell festgestellt, dass – anders, als ich das dachte – Computer beziehungsweise KI nicht objektiv sind, nicht neutral sind, sondern eigentlich genau das reproduzieren, was wir schon in unserer Gesellschaft sehen. Im Recruiting beispielsweise Diskriminierung von Frauen in verschiedenen Kontexten.
Können Sie ein Beispiel nennen?
Es gab eine KI von Amazon, die mit den Lebensläufen bisheriger Mitarbeitenden trainiert wurde. Anhand dieser Daten wurden im Bereich IT Bewerberinnen beziehungsweise Frauen systematisch aussortiert. Warum? Weil dort bisher vor allem Männer eingestellt wurden – und die KI dies anhand der Daten "gelernt" hatte.
Wenn wir KI nutzen, muss uns also bewusst sein, dass sie nicht vorurteilsfrei agiert?
Das ist den wenigsten im Vorfeld klar. Selbst bei Entwicklerinnen und Entwicklern, also bei den Personen, die KI-Systeme trainieren, würde ich sagen, ist das erst in den letzten Jahren wirklich ein Thema geworden.
In diesem Zusammenhang sollte die Medienkompetenz aller Beteiligten also auch Bildung rund um das Thema KI mit einschließen ...
Ja, das ist – in verschiedenen Kontexten – eine große Aufgabe, die wir, glaube ich, in unserem öffentlichen Bildungssystem noch nicht gut machen. Das Thema KI müsste da auf jeden Fall mit rein und wir müssten die Grundlagen liefern: Was ist eigentlich KI? Wo kommen Daten her? Wie kann ich das hinterfragen? Und am Ende vor allem: Wie kann ich KI sinnvoll einsetzen und verantwortlich nutzen? In Zukunft wird bei fast jedem Job die Fähigkeit, mit KI umzugehen, ein absolutes Muss sein. Wenn wir das nicht in den Schulen vermitteln, ist das ein Riesenproblem, insbesondere wieder für Kinder, die eher aus sozioökonomisch niedrigeren Hintergründen kommen – alle, die bisher eh schon Probleme in unserem Bildungssystem haben, werden noch mehr benachteiligt.
Fragt man als Frau eine KI wie ChatGPT, wie viel Gehalt man fordern soll, fällt der Betrag deutlich kleiner aus, als wenn man als Mann fragt: Woher kommt dieser Bias der KI?
Vermutlich, weil ChatGPT "weiß", dass Frauen grundsätzlich weniger verdienen – der Gender Pay Gap ist definitiv bekannt. Und dann auch, weil sicherlich in den Daten Stereotype stecken, dass Frauen vielleicht "weniger kompetent" sind. Was ChatGPT ja eigentlich tut oder kann, ist, Texte zu generieren. Das LLM [Large Language Model; Anm.d.Red.] bestimmt die Wahrscheinlichkeit des nächsten Wortes auf Basis von ganz, ganz vielen Texten, die es "kennt" und analysiert hat. Und auf Basis dessen berechnet die KI die Wahrscheinlichkeit des nächsten Wortes. Das bedeutet, was herauskommt, ist das, was am meisten in den Daten vertreten ist – aber nicht unbedingt eine Wahrheit.
Was sind LLMs?
- Large Language Models (LLMs) sind KI-Modelle, die menschliche Sprache verstehen und Texte erzeugen können. Sie lernen durch große Textmengen und erkennen Muster in Wörtern und Sätzen. Technisch basieren sie auf neuronalen Netzen mit vielen Parametern, die das Wissen speichern. Dadurch können sie Texte schreiben, zusammenfassen oder übersetzen. Beispiele sind ChatGPT und Google Bard.
Es fehlt also an objektiven Daten, mit denen die KI gefüttert wird?
In einer meiner Studien mit Text-zu-Bild-KI-Systemen habe ich sexistischen, rassistischen und klassistischen Bias gefunden: Frauen sind sexualisiert dargestellt: große Ausschnitte, sehr jung, sehr klassisch schön, sehr modelmäßig, wenig bis keine People of Color. KI-Systeme werden aufgrund der Daten, aber auch durch die Personen geprägt, die an einer KI-Entwicklung beteiligt sind und die Entscheidungen treffen. Dadurch sind KIs nicht neutral, sondern reproduzieren meistens das, was wir auch in unserer Gesellschaft sehen – und das ist dann das, was die KI "kennt" und reproduziert.
Wenn man überlegt, wer KI-Systeme mit welchen Daten füttert, stellt sich die Frage: Warum tut niemand etwas dagegen, dass KI nicht objektiv ist, und passt die Fütterung, um bei diesem Bild zu bleiben, entsprechend an?
Eine sehr valide Frage – mit verschiedenen Aspekten: Es gibt durchaus Initiativen und Menschen, die etwas dagegen tun. In manchen Unternehmen gibt es sowas wie KI-Ethik-Departments oder zum Beispiel die Studie "Gender Shades" von Joy Buolamwini und Timnit Gebru aus dem Jahr 2018. Timnit Gebru selbst war zu dem Zeitpunkt Wissenschaftlerin bei Google und hat dort zum Thema ethische KI geforscht – wurde allerdings ein paar Jahre später entlassen. Auch bei Twitter wurden Mitarbeitende, die sich in diesem Feld engagiert haben, entlassen, nachdem Twitter zu X wurde. Nicht zu diskriminieren, steht definitiv nicht im Zentrum des Interesses, weil die meisten Firmen aktuell lieber ganz viele Daten sammeln und Profit machen wollen.
Sie fordern, dass KI feministischer und diskriminierungsfrei wird: Wie kann das gelingen?
Um zu gerechterer und feministischer KI zu kommen, müssen wir an verschiedenen Punkten ansetzen. Ich denke, dass eine KI-Regulierung hilfreich ist, die EU hat mit dem AI Act einen guten ersten Aufschlag geliefert. Jetzt kommt es auf die Implementierung an. Wir müssen außerdem darauf achten, wer involviert ist in den Prozessen: Haben auch Organisationen und Firmen, Frauen und marginalisierte Gruppen Mitspracherechte? Wer ist in den Daten vorhanden? Woher kommen diese Daten? Welche Prioritäten werden in den Prozessen gesetzt? All sowas kann man mit entsprechenden Strukturen, Richtlinien und Verantwortlichkeiten, sogenannter KI-Governance, sehr gut regeln. Das Allerwichtigste ist am Ende aber der Zweck: Wir sollten KI einsetzen, um jegliche Prozesse, Strukturen und Systeme gerechter zu gestalten.
"Eine Idee fand ich sehr cool: eine KI, die Meetings und die Sprache mitanalysiert und auf sexistische Verhaltensmuster aufmerksam macht, aber insbesondere zum Beispiel, wenn Männer mehr als 50 Prozent Sprachanteil haben."
Gibt es denn schon positive Beispiele, bei denen Sie sagen, hier wird KI zur Förderung von Gleichberechtigung eingesetzt?
Wir wissen, dass Männer sich auf Stellen bewerben, auch wenn sie nur 40 bis 60 Prozent der Stellenausschreibungen erfüllen, und Frauen erst, wenn sie 90 bis 100 Prozent erfüllen. Die Karriere- und Networking-Plattform herCareer hat darauf reagiert, indem sie sagen: Wir haben keine Stellenausschreibungen mehr, sondern wir fragen Unternehmen und Bewerberinnen: Wo steht ihr, wo möchtet ihr hin? Und auf Basis der Fragen und Antworten matchen wir. Andere Beispiele sind Witty works und Summ AI, die beide Sprache inklusiver und barrierefreier gestalten wollen, damit Sprache gerechter wird. Die KI Rory wird in Afrika entwickelt und dazu genutzt, um Kindern – insbesondere Mädchen – Mathematik näherzubringen, eine Art Mathe-Nachhilfe.
Empfehlungen der Redaktion
Welche KI würden Sie sich wünschen?
Ich hatte auf Social Media meine Community letztes Jahr gefragt, welche KI-Use-Cases sie sich wünschen würde und eine Idee fand ich sehr cool: eine KI, die Meetings und die Sprache mitanalysiert und auf sexistische Verhaltensmuster aufmerksam macht, aber insbesondere zum Beispiel, wenn Männer mehr als 50 Prozent Sprachanteil haben. Gut gefallen hat mir auch die Idee einer KI, die Bildungsmaterialien analysiert und auf Sexismus aufmerksam macht.
Zum Abschluss: Als Wissenschaftlerin forschen Sie zum Thema "Macht und KI" – übernimmt die Künstliche Intelligenz bald die Macht?
Wir haben das Thema Macht in den Fokus gesetzt, weil am Ende ganz viel damit zusammenhängt: Wer hat in einem gewissen Prozess die Macht, KI zu nutzen, die Macht, KI zu trainieren, die Macht, Daten zu erfassen – das ist ein großes Konstrukt. Dass KI aber bald autonom die Macht übernehmen wird, glaube ich nicht.
Über die Gesprächspartnerin
- Eva Gengler forscht an der Schnittstelle von Macht und KI mit intersektional-feministischer Perspektive an der FAU Erlangen-Nürnberg im Promotionsprogramm Business and Human Rights. Sie ist Speakerin, Geschäftsführerin von enableYou und Co-Gründerin der feminist AI Community.