Debatte über die 'Wokeness' von Google Gemini und deren Auswirkungen auf die KI-Zensur

Engagement mit der Tech- und KI-Community auf X (ehemals Twitter) in dieser Woche hat wertvolle Einblicke in die Möglichkeiten und Schwächen von Googles neuestem KI-Chatbot, Gemini, gegeben. Tech-Profis, Influencer und Autoren haben Screenshots ihrer Interaktionen mit Gemini geteilt, die bizarre, ungenaue und ahistorische Bildgenerierungen verdeutlichen. Kritiker argumentieren, dass diese Ausgaben oft in Richtung Diversität und "Wokeness" tendieren.

Kurz vor der Veröffentlichung dieses Artikels antwortete Jack Krawczyk, Senior Director of Product bei Google, auf X und erkannte an, dass das Unternehmen sich der Ungenauigkeiten in Geminis historischen Bildgenerierungen bewusst ist und aktiv daran arbeitet, diese zu beheben. Krawczyk erklärte: „Wir sind uns bewusst, dass Gemini bei einigen historischen Bilddarstellungen Ungenauigkeiten bietet, und wir bemühen uns, dies umgehend zu korrigieren. Im Rahmen unserer KI-Prinzipien gestalten wir unsere Bildgenerierung so, dass sie unsere globale Nutzerbasis widerspiegelt und wir nehmen Repräsentation und Vorurteile ernst. Dies werden wir auch bei offenen Aufforderungen fortsetzen. Historische Kontexte erfordern mehr Nuancen, und wir werden unsere Systeme entsprechend verbessern. Vielen Dank für Ihr Feedback, und bitte lassen Sie es uns zukommen!“

Gemini wurde letztes Jahr mit großer Vorfreude präsentiert und positionierte sich als führendes KI-Modell, das möglicherweise OpenAIs GPT-4 Konkurrenz machen könnte, das derzeit die meisten Benchmarks von Drittherstellern dominiert. Unabhängige Bewertungen zeigten jedoch, dass Gemini im Vergleich zu OpenAIs älterem Modell GPT-3.5 schlechter abschnitt, was Google dazu veranlasste, zu Beginn dieses Jahres verbesserte Versionen, Gemini Advanced und Gemini 1.5, herauszubringen und den vorherigen Bard-Chatbot auslaufen zu lassen.

Trotz dieser Updates sieht sich Gemini Kritik ausgesetzt wegen seiner Zögerlichkeit, historische Bilder zu erzeugen, wie beispielsweise Darstellungen von deutschen Soldaten aus den 1930er Jahren, und fragwürdigen Darstellungen von Amerikanischen Ureinwohnern und dunkelhäutigen Personen in Kontexten, die nicht mit historischer Genauigkeit übereinstimmen. Beispielsweise scheint die KI fälschlicherweise Diversität zu betonen, wenn sie frühere europäische Kulturen darstellt.

Nutzer äußerten Bedenken hinsichtlich Geminis vermeintlicher Ausrichtung auf "Wokeness", einem Begriff, der sich von einem Bewusstsein für Rassengleichheit in den USA zu einem negativ konnotierten Begriff entwickelt hat, um Organisationen zu kritisieren, die als übermäßig politisch korrekt wahrgenommen werden.

Interessanterweise haben einige Nutzer in Echtzeit Anpassungen in Geminis Ausgaben festgestellt, was darauf hindeutet, dass Google aktiv an der Verbesserung der Bildgenerierung arbeitet. Ein Google-Sprecher bestätigte Krawczyks Engagement für Verbesserungen und erkannte die Notwendigkeit genauerer Darstellungen bei gleichzeitiger Betonung der Diversität an.

Yann LeCun, Leiter der KI-Initiativen von Meta, hob einen bedenklichen Fall hervor, bei dem Gemini sich weigerte, ein Bild der Proteste auf dem Tiananmen-Platz von 1989 zu erstellen. LeCun argumentierte, dass solche Auslassungen die Notwendigkeit von Open-Source-KI unterstreichen, um eine breitere Kontrolle über die Ergebnisse zu ermöglichen.

Die Diskussionen um Geminis Bildausgaben werfen größere Fragen darüber auf, wie KI mit sensiblen Themen, einschließlich Diversität, historischen Ungerechtigkeiten und Unterdrückung, umgehen sollte. Google sah sich zuvor ähnlichen Kontroversen gegenüber, wie dem Vorfall 2015 mit Google Photos und algorithmischer Voreingenommenheit gegenüber dunkelhäutigen Personen. Zudem veranschaulicht die Entlassung des Mitarbeiters James Damore im Jahr 2017 wegen seiner Kritik an Googles Diversitätspraktiken die Herausforderungen, denen sich Tech-Unternehmen in diesen Diskussionen gegenübersehen.

Auch andere Unternehmen haben Schwierigkeiten mit den Implikationen von KI. So musste Microsofts KI-Chatbot Tay eingestellt werden, nachdem er schädliche und rassistische Ausgaben produziert hatte.

Um frühere Fehler zu vermeiden, erhielt Googles restriktiver Ansatz für Gemini Kritik, weil er Geschichte zugunsten moderner Sensibilitäten verzerrt, was Vergleiche zu George Orwells 1984 zwischen einem autoritären Regime und der Unterdrückung von Wahrheit hervorruft. Ähnliche Kritiken begleiteten OpenAIs ChatGPT, wo Nutzer versuchten, das System „aufzubrechen“, um eingeschränkte Informationen zu erhalten, was die anhaltende Spannung zwischen dem Wunsch nach Meinungsfreiheit und der Notwendigkeit, schädliche Inhalte zu mindern, widerspiegelt.

KI-Entwickler stehen vor der Herausforderung, die Notwendigkeit für zulässige Inhalte gegen die Rückmeldungen von Nutzern abzuwägen, die glauben, dass Beschränkungen zu historischen Ungenauigkeiten führen. Diese Spannungen haben zu Forderungen nach Open-Source-Modellen geführt, die individuelle Autonomie ermöglichen und gleichzeitig Bedenken bezüglich der potenziellen Risiken unabgedeckter Inhalte aufwerfen.

Der Anstieg generativer KI verstärkt die Debatten über die Meinungsfreiheit im Vergleich zu der Notwendigkeit, sozial schädliche Verhaltensweisen zu verhindern. Mit den technologischen Fortschritten dürfte die Kluft über ihre gesellschaftlichen Implikationen weiterhin lebhafte Diskussionen auslösen.

Most people like

Find AI tools in YBX