Eugenia Stamboliev sitzt im Gespräch auf einem gelben Sessel vor einer roten Wand und spricht engagiert in Richtung ihres Gegenübers.
Eugenia Stamboliev forscht zu Geschlechterstereotypen in KI-Systemen – und warnt: Algorithmen sind kein Spiegel der Realität, sondern der Machtstrukturen ihrer Entwickler. © AK Vorarlberg
6.3.2026
Bildung

Unsichtbare Frauen, sichtbare Stereotype: Wie KI Geschlechterungleichheit verstärkt

Arbeit,Arbeitskultur,Bildung,Digitalisierung,Gesellschaft,Interview,Künstliche Intelligenz,Wissen

KI-Forscherin Eugenia Stamboliev erklärt, warum künstliche Intelligenz kein neutrales Werkzeug ist – und wie Algorithmen Frauen systematisch abwerten, unsichtbar machen oder auf Stereotype reduzieren. Ein Interview über Macht, Deepfakes und die Zukunft der Demokratie.

KI ist längst keine Zukunftstechnologie mehr – sie steckt in Google Maps, in Netflix-Empfehlungen, in Fabriksteuerungen. Doch je tiefer sie in unseren Alltag eindringt, desto deutlicher zeigt sich: Neutral ist sie nicht. KI-Forscherin Eugenia Stamboliev erklärt, warum Algorithmen die Ungleichheiten der Vergangenheit nicht nur reproduzieren, sondern aktiv verstärken – und was das konkret für Frauen bedeutet..

Immer up to date mit dem AK Wissensvorsprung

Ob Konsumentenschutz, Arbeitsrecht, Familie & Beruf, Weiterbildung oder, oder, oder... – mit dem AK Wissensvorsprung erfährst du regelmäßig alles Wichtige ganz bequem per Mail. Gleich anmelden und up to date bleiben!

Wann haben Sie zuletzt KI benutzt und wofür?

Eugenia Stamboliev: Auf dem Weg hierher: Google Maps.

Eugenia Stamboliev sitzt auf einem gelben Sessel vor einer roten Wand und spricht mit einer erklärenden Handgeste zu ihrem Gegenüber.
„KI ist nicht neutral – sie reproduziert, was wir Menschen eingespeist haben © AK Vorarlberg

Das ist auch KI?

Eugenia Stamboliev: Ja, auch Google Maps ist KI – nur ist das mittlerweile weniger beachtet als die Herausforderungen mit ChatGPT zum Beispiel. Wir alle verwenden tatsächlich schon sehr lange KI, nur eine einfachere Form. Google Maps war eine der ersten Anwendungen, die sich im Alltag durchgesetzt haben, ebenso wie Empfehlungsmechanismen bei Netflix oder Amazon. Deswegen sollte man immer wieder erinnern, KI ist schon lange eine oft unsichtbare Infrastruktur, die Probleme begannen nicht beim interaktiven Gesprächsbot. KI steckt eigentlich schon in sehr vielen Dingen, auch im technischen Bereich oder in Fabriken, nicht nur im Konsumentenbereich.

Sie beschäftigen sich mit einem speziellen KI-Gebiet: Sie forschen zum Thema „unsichtbare Frauen in der KI“. Was genau ist damit gemeint?

Eugenia Stamboliev: Dafür sollten wir ein paar Schritte in die Vergangenheit machen: Frauen sind in der Gesellschaft historisch gesehen unsichtbarer als Männer. Das bedingt die normierte Geschichtsschreibung und die Machtdynamiken dahinter. Ein Beispiel, das ich kürzlich mit Dermot Turing besprochen habe, ist die historische Rolle von Frauen in Bletchley Park, worüber er soeben ein Buch herausgebracht hat. Dort wurden im Zweiten Weltkrieg die Funksprüche der Nationalsozialisten entschlüsselt, was ein entscheidender Beitrag zum Sturz des Dritten Reichs war: Daran haben unglaublich viele Frauen gearbeitet, und das bekommt nun endlich die nötige Aufmerksamkeit in England. Aber diese Frauen wurden oft nur als „Sekretärinnen“ erfasst, obwohl sie komplexe Arbeit bei der Code-Entschlüsselung leisteten. Zurück zu heute: Limitierte Beschreibungen und fehlende Anerkennung spiegeln sich in vielen Datensätzen wider, mit denen heute die KI gemacht wird. Wenn Daten so strukturiert sind, dass nicht spezifisch nach Frauen gesucht oder genormt wurde, findet man auch keine Frauen darin. In der KI führen solche Lücken zu Vorurteilen und Annahmen – zum Beispiel, dass Frauen kein Interesse an bestimmten Themen haben, oder darin nie vorkamen.

Wie äußert sich das in der Arbeit mit KI?

Eugenia Stamboliev: Wir haben jetzt ein Paradox der Sichtbarkeit. Bildgeneratoren „erstellen“ massenhaft Frauenbilder, aber diese sind keine Frauen also solche, sondern errechnete Stereotypen. Das ist nicht nur ein ästhetisches und demokratisches Problem, sondern eine Abwertung durch Ideologie. Digital führt das zu Einschüchterungen, etwa von Journalistinnen oder Politikerinnen, die durch immer drohende KI-generierte und sexistische Abwertungen aus der Öffentlichkeit gedrängt werden sollen.

Gibt es Anzeichen, dass das politisch als Druckmittel genutzt wird?

Eugenia Stamboliev: In faschistischen Systemen ist sexistische Gewalt oft Programm. Kolleg:innen, wie Natascha Strobl, Roland Meyer und Rainer Mühlhoff machend großartige Arbeit zu dem Thema. Wir sehen bei KI-Bildern häufig eine Ästhetik, die sich an den 1950ern orientiert – ein altbackenes oder extrem sexualisiertes Frauenbild. Ein aktuelles Beispiel ist die Anwendung Grok: Das hat nicht nur unabsichtlich zur unfreiwilligen Entkleidung von Frauen geführt, sondern hatte gezielte Features dafür. Features, die z.B. mit Männerbildern nicht derart gut funktionieren. Das ist kein Versehen, sondern hat System. Es ist ein lukratives Business. Genauso schlimm ist die ganze Industrie um Deepfakes, die größtenteils Frauen negativ betrifft.

Warum stellt die KI häufig Frauen als „normschön“ und Männer als „muskulös“ dar?

Eugenia Stamboliev: Das sind Stereotypen der Menschen, die diese Systeme füttern. Es geht um Machtstrukturen. Man kann Frauen entmächtigen, indem man ihr Bild pornografisch manipuliert. In einem Workshop berichtete eine Teilnehmerin, dass sie eine „normale“ Frau generieren wollte, die KI ihr aber immer nur perfekte „Barbie-Models“ lieferte. Erst als sie den Prompt „hässlich“ eingab, wurde das Ergebnis realistischer. Das ist komplett absurd und sehr problematisch. Es verändert dann auch unsere Sprache und demokratische Standards.

Wen sehen Sie hier in der Pflicht?

Eugenia Stamboliev: Viele, aber besonders, Entwickler und Regulierungen, die keine Wundermittel sind leider. Wir müssen uns aber bald entscheiden: Wollen wir nur Profit oder auch Ethik? Ich glaube, dass man beides haben kann und wir nicht das amerikanische Modell des reinen Risikokapitals kopieren müssen, wenn wir unsere sozialen Systeme und Demokratien behalten wollen.

Eugenia Stamboliev sitzt lächelnd auf einem gelben Sessel vor einer roten Wand und gestikuliert mit erhobenem Zeigefinger in Richtung ihres Gegenübers.
Profit und Ethik schließen sich nicht aus, ist Stamboliev überzeugt – und appelliert an Entwickler und Politik, KI nicht dem reinen Risikokapital zu überlassen. © AK Vorarlberg


Viele denken, KI sei eine objektive, neutrale Maschine. Stimmt das?

Eugenia Stamboliev: Nun, die KI an sich hat keine Absichten, sie ist aber nicht neutral. Es ist auch nicht eine Sache, sondern eine soziotechnische Infrastruktur. Ihre Verwendung ist auch nie neutral oder unpolitisch. Das ist schon bei Google Maps so, dass es nicht nur praktisch ist, sondern darüber entscheidet, wie wir Städte oder Orte als Menschen wahrnehmen und wo wir uns aufhalten. Jedoch man darf nicht vergessen: Die KI reproduziert, was wir Menschen eingespeist haben. Sie ist deswegen nicht wertneutral, weil die Programmierer (meistens Männer) ihre Werte und Vorstellungen davon, wie Frauen auszusehen haben, dort hineingeschrieben und verankert haben. Große Monopole haben daraus ein Geschäft gemacht, das mehr und mehr in Richtung KI-Partnerschaften und KI-Freundinnen geht.

Das klingt deprimierend. Man dachte, KI könne Krebs besiegen, und nun erschaffen wir virtuelle Freundinnen.

Eugenia Stamboliev:  Ja, leider. Es gibt KI, die in der Wissenschaft, Klimaforschung oder Medizin sicher sinnvoll ist, meist dort, wo sie enorme Datenmengen bewältigt, die Menschen nicht fassen oder sinnvoll strukturieren können. Aber wir verschwenden enorme Ressourcen an Energie und Wasser für Dinge wie „Gedichte aus der Katzenperspektive“. Ich hoffe auf eine gewisse Sättigung und Langeweile gegenüber diesen generierten Inhalten.

Unsichtbare Frauen in der Forschung

Frauen prägen die Wissenschaft – doch oft ohne Anerkennung. Der Matilda-Effekt zeigt, wie die Leistungen von weiblichen Forscherinnen bis heute übersehen werden.

Was glauben Sie, wie wird sich die private Nutzung von KI entwickeln?

Eugenia Stamboliev: Gerade wird über den Einbau von Werbung in Chatbots nachgedacht. Wenn das passiert, wird es kritisch für die Nutzerfreundlichkeit. Ich denke, dass die Nutzung dann stark zurückgehen könnte. Die Nähe von Unternehmen wie OpenAI zu Kriegstechnologien und Militär sind zudem höchst problematisch.

Ein Ausblick: Wo stehen wir in 20 Jahren beim Thema Frauen und KI?

Eugenia Stamboliev: Ich hoffe, nicht zurück in den 70ern – oder noch weiter zurück. Sorgen macht mir dabei aber weniger die KI an sich, sondern politische Systeme, in denen sie agiert. Wenn Demokratien kippen, sind Frauen und Minderheiten zuerst ungeschützt. Es macht einen Unterschied, wer am KI-Tisch sitzen darf, aber auch wer ihn macht.

Mehr zu Eugenia Stamboliev und ihrer Forschung


DAS KÖNNTE SIE AUCH INTERESSIEREN

Professor Phoebe V. Moore im Interview
27.1.2025

Bildung

KI, Emotionen und Daten: Prof. Moore im Interview

Im Interview warnt Professorin Phoebe V. Moore vor der Verwechslung von künstlicher mit menschlicher Intelligenz und betont die Risiken der übermäßigen Datensammlung am Arbeitsplatz. Sie plädiert für mehr Skepsis gegenüber KI und fordert, den Menschen statt der Technologie in den Mittelpunkt zu stellen.

Fünf Personen in einem hellen Büro sitzen und stehen an einem langen Tisch, arbeiten an Laptops und diskutieren in entspannter Atmosphäre.
12.8.2025

Arbeit

KI im Job nutzen: Was ist erlaubt?

KI kann im Berufsalltag Zeit sparen und die Arbeit erleichtern – aber sie birgt auch Risiken. Erfahre, wie du KI-Tools wie ChatGPT sicher und rechtskonform bei der Arbeit nutzen kannst – und was du unbedingt beachten musst.

Illustration eines menschlichen Gehirns
26.8.2025

Bildung

Was motiviert uns zu lernen?

Lernen gelingt, wenn Neugier, Sinn und Emotionen im Spiel sind. In diesem Beitrag erfährst du, wie du deine innere Motivation stärkst und Weiterbildung zu einem Wachstumserlebnis machst.

AK Bildungsförderung

Wichtige Infos auf Mausklick:


Newsletter

AK für die Inbox. Jeden Montag neu.


Stark für dich

Als AK Mitglied profitierst du von Services zu Arbeit, Bildung und Konsum.

AK Vorarlberg Service