Skip to main content

Künstliche Intelligenz

Karlsruher Frauen wollen, dass KI weiblich programmiert ist

Beim Arzt, in der Schule, im Büro „feministische KI“? Worum genau geht es da? Die Karlsruher Frauenorganisationen erklären es bei ihrem Neujahrsempfang am 27. Januar im Tollhaus.

Auf Tuchfühlung mit dem humanoiden Roboter „Pepper“ geht der 81-jährige Helmut Brieger, Bewohner eines Alten- und Pflegeheims, während einer Informationsveranstaltung.
Der humanoide Roboter „Pepper“ zu Besuch in einem Alten- und Pflegeheim: Schon vor fünf Jahren erfragten Forscher in Hessen, welche Wünsche Senioren an Roboter haben. Foto: Boris Roessler/dpa

Wenn Ulrike Linder in ihr Büro im alten Sinner-Gebäude in Grünwinkel kommt, ist die Künstliche Intelligenz (KI) schon da. Linder übernimmt die kaufmännischen Aufgaben in einem Software-Unternehmen. Ihr Chef interessiert sich lebhaft für KI und die Perspektiven.

Dadurch hat Linder vom Verein Unternehmerfrauen im Handwerk und Mittelstand Karlsruhe einen direkten Draht zu den Chancen und Risiken.

„KI wird uns alle begleiten und geht nicht mehr weg“, sagt auch die Ärztin Ute Reitermann vom Zonta Club Karlsruhe. Radiologische Befunde von Künstlicher Intelligenz perfekt ausgewertet, Online-Sprechstunde, Hautdiagnose per Foto: „Ich bin gespannt“, sagt die Medizinerin, „wie das enden wird.“

KI ist im Karlsruher Alltag in manchen Bereichen voll angekommen

Zudem unterrichtet Reitermann seit mehr als 25 Jahren an der Elisabeth-Selbert-Schule. Ihr Fazit nach dem pädagogischen Tag zu Jahresbeginn: „In der Schule ist KI voll angekommen.“ Schriftliche Hausaufgaben haben ausgedient, wenn sich alle bei Chatbots bedienen.

Das Thema KI bewegt zwölf Karlsruher Frauenorganisationen intensiv. Die jüngsten Fortschritte bei der KI, so die Präsidentin des Internationalen Frauenclubs Karlsruhe, Swaantje Katz, eröffne herausragende neue Möglichkeiten – aber zugleich stellten sich wichtige Fragen zur Verteilung von Macht und Privilegien.

Deshalb fordern die Karlsruher Frauenorganisationen „feministische Künstliche Intelligenz“ und geben ihrem Neujahrsempfang am 27. Januar von 11 bis 14 Uhr im Tollhaus „eine faire, gendergerechte Verteilung von Aufgaben“ und Teilhabe von Frauen an allen gesellschaftlichen, wirtschaftlichen und kulturellen Bereichen der Gesellschaft als Ziel.

Karlsruher Frauenorganisationen: Männer füttern die KI mit Daten von Männern

Bei der Künstlichen Intelligenz werden von Anfang an Weichen gestellt. Denn entscheidend ist, wer sie mit Daten füttert. In der Entwicklung und Erforschung von KI sind aktuell Männer federführend. KI gebe immer nur die Sicht derer wieder, die sie programmieren, betont Katz, die Frauenclub-Präsidentin.

Daher benachteilige sie Gruppen, die in der Datengewinnung zu wenig repräsentiert sind. Nur mit weiblicher KI seien Schritte Richtung Gleichberechtigung und Chancengleichheit möglich.

Ein Beispiel für programmierte Ungerechtigkeit schildert Katja Wengler, Professorin für Wirtschaftsinformatik an der Dualen Hochschule Baden-Württemberg in der Erzbergerstraße, mit einem Blick in die USA.

Dort sei bereits weit mehr KI zugelassen als in Europa. Ein Online-Handelsunternehmen feuert Lieferanten, die langsamer auf Tour sind als veranschlagt oder auffällig von ihrer Route abweichen.

Wo patzt KI systematisch – und warum?

Die KI verschickt die Kündigungen automatisch. Was ihr entgeht: Baustellen, unauffindbare Adressen oder Kunden, die Fahrer aufhalten. Für alles, was niemand einprogrammiert hat, auch wenn es die ausschlaggebenden Faktoren sind, ist KI blind.

Künstliche Intelligenz patzt auch, wenn sie Bewerbungen auswerten soll. Bei der Tätersuche per Gesichtserkennung tappt sie ebenfalls im Dunkeln. Schlimmer noch: Sie stellt Unschuldige unter Verdacht.

Beides hat dieselbe Ursache, sagt Wengler. KI nutzt den bestehenden Datenschatz, und darin sei eine gesellschaftliche Gruppe überrepräsentiert: Männer mit weißer Hautfarbe.

Ungerechtigkeit vervielfältigt sich

In US-Bewerbungsverfahren wurden bisher tendenziell weniger Frauen als Männer eingestellt und weniger farbige Kandidaten. KI setzt dieses Missverhältnis fort, erklärt Wengler.

Bei der Gesichtserkennung wiederum reiche das Datenmaterial, das über farbige Menschen vorliegt, nicht aus, um Unterschiede präzise genug zu zeigen. Prompt „erkennt“ KI farbige Tatverdächtige zu Unrecht. Zwischen weißhäutigen Gesichtern wisse sie dagegen zuverlässiger zu unterscheiden.

Problem ist so alt wie die technische Entwicklung selbst

Was passiert, wenn nicht alle gesellschaftlichen Gruppen in gleicher Weise in Entscheidungs- und Entwicklungsprozessen vertreten sind, illustriert Wengler mit einem griffigen Paradebeispiel aus der Zeit vor KI: der Entwicklung einer Waschmaschine.

Liegen deren Konstruktion und Gestaltung in der Hand von Männern, entspricht das Ergebnis den Wünschen und Vorstellungen von Männern. Dabei besteht die Gefahr, dass sie die Bedürfnisse und Anforderungen, die Frauen an eine Waschmaschine stellen, glatt verpassen.

Künstliche Intelligenz wird unseren Alltag sehr stark verändern.
Katja Wengler
Professorin der Wirtschaftsinformatik

Das Waschmaschinenbeispiel macht auch deutlich, warum die Karlsruher Frauen die KI-Debatte jetzt in den Fokus nehmen. Die praktischen Folgen sind überall, betont die Professorin Wengler, die seit ihrer Promotion vor 20 Jahren zum Einsatz Künstlicher Intelligenz am Puls der Entwicklung ist.

„KI wird unseren Alltag sehr stark verändern“, sagt Wengler. „Sie wird Hilfestellung für Entscheidungen geben. Deshalb müssen ihre Informationen möglichst gerecht sein.“

nach oben Zurück zum Seitenanfang