Feminismus und Künstliche Intelligenz: Herausforderungen und Ziele 
veröffentlicht am
23.8.2023

Feminismus und Künstliche Intelligenz: Herausforderungen und Ziele 

Chatbots wie ChatGPT und starke KI-Systeme haben die letzten Monate sehr stark an Bedeutung gewonnen.

Sie beeinflussen unsere Gesellschaft und unseren Alltag in vielerlei Hinsicht und können sowohl zur Verstärkung von Geschlechterungleichheiten als auch zur Förderung von Geschlechtergerechtigkeit in der digitalen Transformation eingesetzt werden.

Neben Begriffen wie künstliche Intelligenz, Industrie 4.0, KI-Forschung, KI-Technologien, künstliche Intelligenz (KI), maschinelles Lernen und menschliche Intelligenz spielen sie eine entscheidende Rolle im aktuellen Diskurs.

Wir haben mit Eva Gengler (Co-Founderin von enableYou, Co-Founderin & Geschäftsführerin von FemAI, Doktorandin für Feministische KI, Vorständin von erfolgsfaktor FRAU e.V.) über die Chancen und Risiken gesprochen, die sich bei der Entwicklung und Anwendung von KI-Systemen ergeben.

In diesem Interview werden wir die Verbindung zwischen Feminismus und Künstlicher Intelligenz genauer beleuchten, die Ziele und Methoden feministischer KI basierter Forschung und -Praxis diskutieren und die Auswirkungen von KI auf Geschlechtergerechtigkeit und Chancengleichheit untersuchen.

Feministische Künstliche Intelligenz: Was ist das? 

Wie definierst du feministische Künstliche Intelligenz und was sind deiner Meinung nach die Ziele?

Feministische Künstliche Intelligenz beschreibt einen inklusiven, intersektionalen Ansatz, der das Potenzial der künstlichen Intelligenz zur Erreichung von Gerechtigkeit für alle erreicht. Dabei liegt der besondere Fokus auf marginalisierten und unterrepräsentierten Gruppen wie Frauen, LGBTIQ+ und anderen.

 

Der feministische KI-Ansatz zielt darauf ab, eine ganzheitliche Beziehung zwischen Mensch-Maschine-Systemen und Maschine-Maschine-Systemen herzustellen. Er konzentriert sich darauf, patriarchale Strukturen, systemische Privilegien und Machtungleichgewichte in Gesellschaft, Politik und Wirtschaft zu überwinden.

 

Durch einen feministischen Ansatz kann KI ein entscheidender Treiber der Sustainable Development Goals sein und einen entscheidenden Beitrag zu einer nachhaltigeren und gerechteren Zukunft leisten.

Geschlechtergerechtigkeit und Feminismus mit KI: Herausforderungen und Probleme

Welche spezifischen Herausforderungen und Probleme siehst du in Bezug auf Geschlechtergerechtigkeit und Feminismus im Kontext von KI? Hat es deiner Meinung nach einen großen Einfluss auf die Ergebnisse, dass es verhältnismäßig wenige Entwicklerinnen gibt?

Wenn ich von Feministischer Künstlicher Intelligenz spreche, dann denke ich nicht nur Frauen oder Geschlechtergerechtigkeit mit. Es geht darum eine gerechtere Welt zu gestalten mit Hilfe von Systemen, die marginalisierte Menschen in den Fokus nimmt. Dies beinhaltet auch Frauen, aber insbesondere auch Menschen, die von Mehrfachdiskriminierung betroffen sind und nicht notwendigerweise Frauen sind. Deshalb sprechen wir von intersektionalem inklusivem Feminismus.

Was wir aktuell beobachten, ist, dass Künstliche Intelligenz als Spiegel unserer Gesellschaft wirkt und somit auch die Machtungleichgewichte widerspeigelt sowie marginalisierte Gruppen noch weiter benachteiligt. Künstliche Intelligenz verstärkt somit unsere aktuell sehr ungerechte Gesellschaft.

Meiner Meinung spielen insbesondere drei Faktoren eine große Rolle:

1. Die Daten, die in eine KI fließen und das Design der Algorithmen und Systeme,

2. die Menschen, die KI bauen, darüber Entscheidungen treffen und sie einsetzen und

3. der Kontext, in dem KI gebaut, trainiert und eingesetzt wird.

Deshalb spielt die geringe Diversität der Menschen, die aktuell über KI entscheiden, diese trainieren und gestalten eine Rolle. Die Homogenität dieser Gruppe führt dazu, das die Bedürfnisse anderer Gruppen vernachlässigt und übersehen werden.

Werden bestehende Vorurteile durch den Einsatz von KI verstärkt?

Maschinen lernen größtenteils aus vorhandenen Daten. Wenn die Daten aber bestehende unbewusste Vorurteile (unconscious bias) reflektieren, können sich diese durch den Einsatz von KI verstärken. Wie können wir sicherstellen, dass KI-Systeme fair und gerecht sind und keine bestehenden Ungleichheiten verstärken?

Das ist keine leichte Aufgabe und es gibt keine einfache Antwort auf diese Frage. Wir müssen alle drei Faktoren angehen: Daten und Design, Menschen und Kontext. Nur die Daten zu ändern und bspw. weiterhin in einem diskriminierenden Kontext zu agieren wird nicht ausreichen, um eine feministische KI zu bauen.

Die Daten sind ein wichtiger Bestandteil und viele Initiativen und Menschen versuchen sich an der Bearbeitung oder synthetischen Generierung von Daten hin zu weniger Bias. Das Problem ist, dass wir meistens keine Daten zur Verfügung haben, die repräsentativ und ohne Bias sind.

Daten müssen im gesamten Prozess betrachtet werden. Schon vor dem Sammeln der Daten sollte der Kontext bedacht werden, wer ggf. nicht in den Daten ist oder evtl. benachteiligt wird. Wir sollten Daten gut kennen bevor wir mit ihnen arbeiten, daher sollte man Bias-Checks mit Datensätzen durchführen und während und nach dem Training die KI auf Biases testen.

Sammeln von Daten

Welche Methoden oder Herangehensweisen werden verwendet, um Geschlechterbias und stereotype Darstellungen in KI-Systemen zu erkennen und zu bekämpfen?

Ich rede lieber von Genderbias, da es meines Erachtens meistens eher um das soziale als das biologische Geschlecht geht. Es gibt vielfältige Test für Daten und KI-Systeme. Wichtig ist, dass die Daten, auf die man testen will auch vorhanden sind. Daher ist es meist nicht von Vorteil Daten zu Gender und anderen Attributen zu löschen, denn Diskriminierung kann auch auf der Basis von Proxies passieren.

Da ich aktuell keine KI-Systeme und Datensätze auf Biases hin untersuche, kenne ich nur wenige Methoden genauer. Ich beschäftige mich mehr damit wie sich das gesamte System KI sich ändern muss, damit es gerechter Entscheidungen trifft.

KI für Chancengleichheit und Geschlechtergerechtigkeit

Inwiefern können KI-Systeme zur Förderung der Chancengleichheit und der Geschlechtergerechtigkeit beitragen?

KI kann auf verschiedene Weise zu mehr Gerechtigkeit beitragen: Feministische KI kann als Spiegel der Gesellschaft fundieren und uns unsere eigenen menschlichen Biases aufzeigen.

Feministische Künstliche Intelligenz kann in feministischen Use Cases wie Stärkung der Frauen in ländlichen Regionen oder Identifizierung sexistischer Kommentare zum Einsatz kommen.

Außerdem setzten wir KI ein, um objektivere Entscheidungen zu treffen und nicht, um unsere Fehler zu reproduzieren.

Feministische Künstliche Intelligenz kann uns dabei unterstützen objektivere Entscheidungen zu treffen.

Durch feministische KI können Menschen insentiviert werden gerechter zu entscheiden und marginalisierte Gruppen in den Fokus genommen werden.

Regenbogenflagg

Feministische Prinzipien in KI-Anwendungen integrieren

Welche konkreten Maßnahmen oder Richtlinien sollten Unternehmen und Entwickler ergreifen, um feministische Prinzipien in KI-Anwendungen zu integrieren?

Unternehmen sollten eine etablierte AI Governance haben und diese mit einem feministischen Wertekonstrukt challengen und anpassen.

Es geht darum systematische und strukturelle Benachteiligungen zu identifizieren und diese gezielt mit Hilfe von KI anzugehen.

Hinterfragen, Anerkennen von Privilegien und Offenheit für die Meinung marginalisierter Menschen und Gruppen sind die Basis für das Etablieren diverser Teams, inklusiver Verhaltensweisen und von feministischer KI.

Voraussetzungen für die Zusammenarbeit

Wie kann die Zusammenarbeit zwischen feministischen Aktivisten, KI-Forschern und der Technologiebranche verbessert werden, um die Anwendung von feministischen Prinzipien in KI zu fördern?

Wir brauchen Offenheit für die bisher vielfältig überhörten Stimmen von Frauen, People of Colour, Gender Queer People und vielen weiteren.

Erst wenn deren Lebensrealitäten und deren strukturelle Benachteiligung anerkannt werden, kann eine nachhaltige Zusammenarbeit auf Augenhöhe gelingen.

Wir brauchen auch mehr Bildung im Bereich strukturelle Diskriminierung und Biases.

Dies sollte auch in IT-und Business-Studiengängen verpflichtend sein.

Immer mehr Menschen sind interessiert, wollen dazu lernen und bringen sich aktiv ein. Das ist ein sehr gutes Zeichen.

Und wir brauchen einfach noch viel mehr feministische KI-ForscherInnen.

KI in der Zukunft

Was denkst du, wie sich die Künstliche Intelligenz in den nächsten 5-10 Jahren weiterentwickeln wird?

Das ist eine schwierige Frage und vermutlich kann man nur falsch liegen.

Ich habe trotzdem eine Meinung dazu: Ich denke, dass KI unser Leben noch mehr lenken, beeinflussen, aber auch erleichtern wird.

KI wird in der Textgenerierung, Übersetzung – auch von gesprochener Sprache – und in der Bild-, Musik- und Videogenerierung noch deutlich stärker werden. KI wird viele Prozesse in den verschiedensten Branchen, Organisationen und Anwendungsfällen verändern.

Deswegen werden sich auch die Berufsfelder, Aufgabengebiete und Kompetenzen der Menschen ändern (müssen). KI wird auch weiterhin marginalisierte Menschen und Gruppen benachteiligen.

Wir haben vor feministische Prinzipien in KI Systeme zu integrieren und mit Hilfe von Feministischer KI gegenzusteuern.

So wird KI wird auch in der Identifizierung von Biases und struktureller Benachteiligung stärker werden und uns Menschen verändern – hoffentlich hin zu feministischeren und objektiveren Intelligenzen.

Über unsere Expertin

Eva Gengler

Eva ist von ganzem Herzen Feministin. Sie ist als Feministin wissenschaftlich, unternehmerisch und ehrenamtlich tätig. Ihr Fokus liegt auf Künstlicher Intelligenz.

Sie ist Doktorandin an der FAU, Co-Founderin des Think Tanks FemAI und der Organisations- und IT-Beratung enableYou, (TEDx) Speakerin sowie Vorständin von erfolgsfaktor FRAU e.V.

Weitere spannende Artikel:

Die Macht der OKRs: So steigern Unternehmen ihre Effizienz durch gezielte Zielsetzung

Scrum für non-IT-Teams

Lift and shift: Was ist das und wofür nutze ich es?

Einführung in Scrum und seine Vorteile für Entwicklungen

// Lightboxes in Richtext