top of page

No Women, no AI! Auftakt zur Serie "Frauen und KI"

Frauen und KI? Ein Thema, das leider häufig unter den Tisch fällt: Biases, oder Verzerrungen, in der KI. Besonders für uns Frauen und Minderheiten ein relevantes Thema, über das frau bescheid wissen sollte. Um darüber ein bisschen mehr aufzuklären, war ich im März Speakerin bei "No Women, no AI" von Europe Direct Nürnberg im Zukunftsmuseum, um Interessierten alle Fragen zum Thema zu beantworten.


Person spricht in Mikrofon, umgeben von Zuhörern. Hintergrund mit Schild "Das Zukunfts Museum". Stimmung ist aufmerksam und interessiert.
Conny bei der "No Women No AI" Fishbowl-Diskussion von Europe Direct Nürnberg als Speakerin im Zukunftsmuseum zu KI-Bias & Co.!

Viele Fragen aus dem Fishbowl drehten sich darum, warum KI scheinbar neutrale Entscheidungen trifft, dabei aber trotzdem Vorurteile reproduziert. In dieser Blog-Serie möchte ich die spannendsten Fragen noch einmal aufgreifen – von Bias in Chatbots über Deep Fakes bis hin zum EU AI Act. Im ersten Teil schauen wir uns an, warum Frauen in der Geschichte der KI oft übersehen werden und wie genau Verzerrungen in modernen KI-Systemen entstehen.


No Women, no AI: Was hat KI eigentlich mit Frauen zu tun?


Häufig werden bei Diskussionen zum Thema künstliche Intelligenz vor allem Männer referenziert, aber eigentlich waren Frauen schon von Beginn an bei deren Konzeption beteiligt. Ihr habt bestimmt schonmal von Ada Lovelace gehört, die im 19. Jahrhundert den ersten Algorithmus geschrieben hat und schon damals die Vision hatte, dass man später mit menschlicher Kreativität und maschineller Ausführung neue Dinge schaffen könnte.


Auch in der späteren Programmierung waren Frauen stark beteiligt. Jede Entwicklerin und jeder Entwickler kennt heute die SOLID-Prinzipien, aber wusstet ihr auch schon, dass das Liskov Substitutionsprinzip von Barabara Liskov entworfen wurde, die damit wichtige Grundlagen für die Austauschbarkeit von Datentypen geschaffen hat?


Heutzutage sind Frauen vor Allem bei den Fragen rund um die Ethik von KI vertreten. Besonders spannend fand ich dazu das Buch Unmasking AI von Dr. Joy Buolamwini, die mit ihren Kolleginnen gegen den Einsatz von Gesichtserkennung mit stark verzerrten Modellen gestellt hat und dabei auch erfolgreich war. Damit ist sie eine der wenigen Frauen, die im Themenbereich KI forschen und arbeiten. Denn etwa 80% der Entwickler von KI-Systemen sind Männer, und die meisten davon mit typisch westlichem Hintergrund. Bei so einer homogenen Gruppe werden schnell Dinge übersehen und es gibt blinde Flecken für andere Nutzergruppen, was leicht zu Verzerrungen im Ergebnis führen kann…


Zum weiblichen Beitrag zur KI gibt es auch einen schönen Blogeintrag von The AI Sanctuary, in dem ihr noch mehr zu dem Thema lesen könnt: Female AI Pioneers Who Changed the Game – The AI Sanctuary


Mit diesem Hintergrund kommen dann noch einige weitere Fragen auf, die ich gerne in einer kleinen Blog-Serie für euch beantworten möchte. Dabei fangen wir mit den gesellschaftlich relevanten Fragen an und kommen dann in späteren Einträgen auch zu Themen wie Deep Fakes und Regulierung durch den EU AI Act. Also zurück zum Thema Verzerrungen, oder englisch Biases.


Was sind solche Verzerrungen oder Biases eigentlich?


Bei Biases geht es immer um die Ungleichbehandlung einer Gruppe Menschen gegenüber einer anderen. Das Thema an sich ist auch außerhalb der Technik relevant und zeigt sich häufig in Stereotypen wie der überemotionalen Frau oder dem Mann, der seine Triebe halt nicht kontrollieren kann. Wir wissen alle, dass das natürlich eine grobe Verallgemeinerung ist, aber genau das ist das Problem für die Technik: KI, besonders die Large Language Modelle (LLMs) hinter Chatbots, basieren darauf, dass sie gut verallgemeinern können. Sie arbeiten mit Durchschnitten und den Wörtern, die am wahrscheinlichsten zu der Frage passen würden.


Vielleicht ist es euch auch schonmal aufgefallen: wenn man sich ein Bild zum Geschäftserfolg generieren lässt, dann kommen dabei feiernde Männer im Anzug heraus. Möchte man eine Szene aus dem Krankenhaus haben, findet man den Chefarzt und die Krankenschwestern. Bei solchen Bildern fällt das Ganze auch noch recht schnell auf, aber die gleichen grundlegenden Verzerrungen gibt es auch bei Textanfragen.


Nehmen wir mal ein anderes Beispiel: ihr wollt euch Ideen geben lassen, was ihr mit euren Kindern unternehmen könntet. Wenn ihr nun Kinder durch Söhne oder Töchter ersetzt, bekommt ihr dann die gleichen Ergebnisse? Wenn ja, dann habt ihr einen wirklich guten Systemprompt gesetzt. Aber sonst werden die Ergebnisse vermutlich deutlich stereotypischer ausfallen, obwohl die Tochter das Technikmuseum eigentlich auch spannend gefunden hätte…


Ich fand auch eine andere recht aktuelle Studie spannend, die sich mit dem Verhalten von Chatbots beschäftigt hat. Es heißt ja häufig, man soll dem Chatbot sagen, welche Rolle er übernehmen soll. Nun haben Forschende das mit einer Vielzahl an zufällig erzeugten Personas ausprobiert und erwartet, dass sie entsprechend unterschiedliche Antworten zu ihren Fragen bekommen würden. Stattdessen fanden sie klare moralische Werte, die von allen Personas fast identisch wiedergegeben wurden – und das, obwohl diese Personas verschiedene religiöse und kulturelle Hintergründe hatten. Scheinbar kann der Chatbot also doch nicht so gut in andere Rollen schlüpfen.


Natürlich kommt an dieser Stelle die Frage auf, wie diese Verzerrungen überhaupt erst entstehen – vermutlich habt ihr von Grok gehört, der KI, deren Weltbild sehr zu dem Menschen passt, der für sie gezahlt hat... Das schauen wir uns nächstes Mal genauer an, bevor ich etwas genauer erklären möchte, was daran besonders problematisch ist.


Eure Conny!

Ihr wollt mehr wissen? Vernetzt euch gerne mit mir auf LinkedIn!

Kommentare


bottom of page