Die Entschlüsselung des KI-Bias-Puzzles: Wie die Förderung von Vielfalt eine einfache Lösung bietet

Mit dem bevorstehenden zweijährigen Jubiläum von ChatGPT und dem anschließenden Boom der generativen KI-Anwendungen wird deutlich, dass zwei Realitäten nebeneinander bestehen: Das transformative Potenzial dieser Technologie ist unbestreitbar, doch die Risiken inhärenter Vorurteile in diesen Modellen sind erheblich.

In weniger als zwei Jahren hat sich KI von der Unterstützung alltäglicher Aufgaben – wie der Buchung von Fahrdiensten und der Empfehlung von Online-Käufen – hin zu einem Einflussfaktor für kritische Entscheidungen in Bereichen wie Versicherung, Wohnraum, Krediten und Sozialleistungen entwickelt. Während frühere Vorurteile – wie die Empfehlung von Kleber für Pizza – als trivial erscheinen mochten, werden sie zu ernsthaften Anliegen, wenn sie wesentliche Dienstleistungen betreffen, die unser Leben beeinflussen.

Vorurteile in der KI mindern: Ein Aufruf zur Diversität

Wie können wir KI-Vorurteile effektiv verringern, wenn die Trainingsdaten selbst fehlerhaft sind? Diese Herausforderung wird noch verstärkt, wenn die Entwickler der Modelle nicht in der Lage sind, Vorurteile in ihren vielen Formen zu erkennen. Die Lösung liegt in einer erhöhten Diversität innerhalb der KI-Teams – insbesondere mehr Frauen, mehr Minderheiten und mehr ältere Menschen.

Frühe Bildung und Exposition

Die Förderung von Diversität in der KI sollte nicht umstritten sein. Trotz meiner 30-jährigen Erfahrung in MINT-Bereichen war ich oft in der Minderheit. Obwohl sich die technologische Landschaft signifikant weiterentwickelt hat, bleibt die Diversität im Arbeitsmarkt – insbesondere in Daten und Analytik – stagnierend. Das Weltwirtschaftsforum berichtet, dass Frauen nur 29 % der MINT-Arbeiter ausmachen, während sie fast die Hälfte (49 %) der Gesamtarbeitskraft in Nicht-MINT-Berufen stellen. Im Bereich Mathematik und Informatik sind schwarze Fachkräfte lediglich mit 9 % vertreten. Diese Zahlen sind seit zwei Jahrzehnten stabil, wobei nur 12 % der Frauen in die Führungsetage gelangen.

Um dies zu ändern, benötigen wir umfassende Strategien, um MINT für Frauen und Minderheiten ansprechend zu gestalten, beginnend bereits in der Grundschule. Ein spannendes Beispiel stammt aus einem Mattel-Video, in dem junge Mädchen traditionelle Spielzeuge auswählen. Nach dem Kontakt mit inspirierenden Persönlichkeiten wie Ewy Rosqvist, der ersten Frau, die die Argentinische Tourenwagenmeisterschaft gewann, änderten sich ihre Perspektiven. Dies unterstreicht die Bedeutung von Repräsentation zur Förderung des Interesses an MINT.

Wir müssen positive Botschaften über MINT an junge Mädchen senden und gleiche Chancen zur Erkundung schaffen. Kooperationen mit Non-Profit-Organisationen wie Data Science for All und den KI-Bootcamps der Mark Cuban Foundation sind entscheidend. Zudem sollten wir wegweisende Frauen in diesem Bereich feiern – wie die CEO von AMD, Lisa Su, die CTO von OpenAI, Mira Murati, und Joy Buolamwini von der Algorithmic Justice League – um den Mädchen zu zeigen, dass MINT kein rein männliches Gebiet ist.

Daten und KI werden entscheidend für zahlreiche zukünftige Berufsfelder sein – von Athleten bis zu Filmemachern. Es ist wichtig, Barrieren abzubauen, die den Zugang zu MINT-Erziehung für Minderheiten einschränken, und zu zeigen, dass eine Basis in MINT den Zugang zu vielfältigen Karrierewegen eröffnet.

Vorurteile erkennen und angehen

KI-Vorurteile äußern sich auf zwei Hauptarten: durch die Datensätze, die für das Training verwendet werden, und durch die Vorurteile der Personen, die sie entwickeln. Um Vorurteile zu verringern, müssen wir zunächst deren Existenz anerkennen und verstehen, dass alle Daten inhärente Vorurteile enthalten, die oft durch unbewusste menschliche Vorurteile verschärft werden.

Betrachten wir bekannte Bildgeneratoren wie MidJourney, DALL-E und Stable Diffusion. Eine Analyse der Washington Post zeigte, dass bei der Aufforderung, eine „schöne Frau“ darzustellen, die Ergebnisse überwiegend junge, dünne und weiße Personen zeigten. Nur 2 % der Bilder zeigten sichtbare Altersmerkmale und lediglich 9 % hatten dunkle Hauttöne. Solche Befunde spiegeln eine drastische Diskrepanz zur wahren Vielfalt der Weiblichkeit wider.

Es gibt auch subtilere Vorurteile. Als ich Ende der 1980er Jahre meine Karriere in Zürich begann, konnte ich als verheiratete Frau kein Bankkonto eröffnen, obwohl ich der Hauptverdiener war. Wenn KI-Modelle mit historischen Kreditdaten trainiert werden, die Frauen nicht repräsentieren, könnten sie wesentliche Faktoren wie Mutterschaftsurlaub oder Betreuungslücken übersehen. Diese Bedenken können die Verwendung synthetischer Daten, die von KI generiert wurden, erfordern, jedoch nur, wenn die Entwickler sich dieser Vorurteile bewusst sind.

Daher ist es entscheidend, dass vielfältige Stimmen – insbesondere Frauen – an jedem Schritt des KI-Entwicklungsprozesses beteiligt sind. Wir können diese Verantwortung nicht allein einer kleinen Gruppe von Technologen überlassen, die nicht die reiche Vielfalt der globalen Bevölkerung widerspiegelt.

Der Aufruf zur Diversität in der KI

Obwohl eine vollständige Eliminierung von Vorurteilen in der KI möglicherweise ein unrealistisches Ziel ist, ist es ebenso inakzeptabel, das Problem zu ignorieren. Die Erhöhung der Diversität in MINT und innerhalb der KI-Entwicklungsteams ist unerlässlich, um genauere und integrativere Modelle zu schaffen, die allen zugutekommen.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles