Nach einer Kontroverse diese Woche über Googles neuen KI-Chatbot Gemini, der historisch ungenaue Bilder erzeugte—wie die Darstellung der amerikanischen Gründerväter als Schwarze und der Google-Gründer als Asiaten—kündigte das Unternehmen an, die Möglichkeit der KI zur Generierung von Personenbildern vorübergehend auszusetzen. Google erklärte, dass es die Bedenken der Nutzer ernst nehme und plane, die Funktion in Zukunft wieder herzustellen.
Screenshots von Tech-Influencern, Autoren und Gemini-Nutzern zeigen, dass die KI häufig Bilder von Personen unterschiedlicher Herkunft erstellt, unabhängig von der historischen Genauigkeit. Beispiele hierfür sind schwarze katholische Päpste (obwohl es nie einen gab), dunkelhäutige Wikinger (die die meisten nicht hatten) und asiatische Soldaten der Nazi-Ära (die die Mehrheit nicht waren).
Obwohl KI-Modelle zur Bilderzeugung darauf abzielen, Vorurteile zu beseitigen und Vielfalt zu fördern, haben die Standardausgaben von Gemini eine Debatte über Googles Ansatz zur Repräsentation entfacht, die zu weitreichender Spott und Kritik führte.
Als Reaktion auf die Rückmeldungen bestätigte Jack Krawczyk, Senior Director of Product bei Google, das Problem und stellte fest, dass das Unternehmen daran arbeite, das Modell zu verfeinern, um den historischen Kontext besser zu respektieren und gleichzeitig das Engagement für Vielfalt in breiteren Aufforderungen, wie der Darstellung einer Person mit einem Hund, aufrechtzuerhalten. „Im Rahmen unserer KI-Prinzipien gestalten wir unsere Bildgenerierungsfunktionen so, dass sie unsere globale Nutzerbasis widerspiegeln, und nehmen Repräsentation und Vorurteile ernst“, erklärte Krawczyk.
Die Situation rief erhebliche Kritik von Nutzern und einflussreichen Persönlichkeiten hervor, darunter die Risikokapitalgeber Marc Andreessen und Paul Graham, wodurch eine breitere Diskussion über die Zuverlässigkeit von KI-Chatbots wie Gemini im Hinblick auf die Balance zwischen Diversität und sachlicher Genauigkeit angestoßen wurde. Diese Kontroverse erregte sogar allgemeine Aufmerksamkeit und machte Schlagzeilen in The New York Post.
Während Google an einer Lösung arbeitet, ist es wichtig zu betonen, dass dies nicht der erste Fall ist, in dem Gemini unter Beobachtung steht. Seit der Einführung der Gemini-Modellfamilie im Dezember 2023, die als vergleichbar mit und teilweise überlegen gegenüber OpenAIs GPT-4 beworben wurde, hat Google fortwährende Herausforderungen erlebt.
Der ursprüngliche Start stieß auf Kritik wegen eines inszenierten Videos, das die Fähigkeiten von Gemini als digitalen Assistenten übertrieb. Zudem ergab eine Untersuchung unabhängiger Forscher, dass Gemini im Vergleich zu OpenAIs älterem Modell, GPT-3.5, schlechter abschnitt.
In diesem Monat hat Google seinen Bard-Chatbot in Gemini umbenannt und verbesserte Versionen für Abonnenten eingeführt, während auch ein überarbeitetes Duet AI unter dem Namen Gemini für Workspace beworben wird. Trotz der Versprechen von erweiterten Funktionen mit Gemini 1.5 und Advanced—insbesondere in den Bereichen Videoanalyse und Dokumentenverarbeitung—könnten diese Vorteile von den anhaltenden Kontroversen überschattet werden.
Krawczyk betonte, dass die Meldung von Problemen wie der ungenauen Bilderzeugung entscheidend für die Verbesserung sei. Sollten jedoch weiterhin Probleme auftreten, könnte dies Googles Bemühungen, Gemini als führenden Anbieter im wettbewerbsintensiven Bereich der generativen KI zu positionieren, untergraben.