Ein Jahr nach dem AI 'Code Red' sieht sich Google wegen Gemini einem Rückschlag gegenüber: War es unvermeidlich?

Das ganze Wochenende über wurde mein Social-Media-Feed mit Screenshots, Memes und Schlagzeilen überschwemmt, die entweder Google’s angeblich „woken“ Gemini KI-Modell verspotteten oder kritisierten. Dieser Aufschrei folgte Googles Eingeständnis, dass sie den „Nagel auf den Kopf“ nicht getroffen hatten, indem sie historisch ungenaue und irreführende Bilder produzierten. Auf X (ehemals Twitter) teilten Nutzer Screenshots, die widersprüchliche Ergebnisse von Gemini zeigten, darunter einen, der absurd behauptete: „Es lässt sich nicht eindeutig sagen, wer die Gesellschaft negativer beeinflusst hat, Elon, der Memes tweetet, oder Hitler.“ Der VC Marc Andreessen erfreute sich besonders daran, fehlerhafte und anstößige Inhalte zu teilen, und behauptete, sie seien „absichtlich mit einer Liste von Personen und Ideen programmiert worden, die ihre Schöpfer hassen.“

Der deutliche Kontrast zwischen der anfänglichen Begeisterung über den Start von Gemini im Dezember—als es als Konkurrent von GPT-4 angesehen wurde—und dem folgenden Gegenwind ist frappierend. Letztes Jahr enthüllte die New York Times, dass Google nach dem Start von ChatGPT im November 2022 einen „Code Rot“ ausgerufen hatte, was einen Boom in der generativen KI auslöste, der die Tech-Giganten zu überschatten drohte.

Obwohl Google zu den Technologieentwicklern hinter ChatGPT beigetragen hatte, war das Unternehmen vorsichtig, sein Markenimage zu schützen. Startups wie OpenAI schienen bereitwilliger, Risiken für schnelles Wachstum einzugehen. Als Reaktion auf den Erfolg von ChatGPT war Google-CEO Sundar Pichai Berichten zufolge tief in die Neudefinition der KI-Strategie des Unternehmens involviert.

Der Spannungsbogen zwischen der Notwendigkeit schneller Innovation und der Aufrechterhaltung der Benutzerzufriedenheit hat wahrscheinlich zu der Gegenreaktion gegen Gemini beigetragen. Google zögerte, seine fortschrittlicheren großen Sprachmodelle (LLMs) herauszugeben, um genau die Art von Konsequenzen zu vermeiden, mit denen es nun konfrontiert ist: Kritik an unangemessenen KI-Ausgaben.

Es ist nicht das erste Mal, dass Google in einen LLM-Konflikt verwickelt ist. Im Juni 2022 behauptete der Ingenieur Blake Lemoine, dass LaMDA, Googles Chatbot-Technologie, empfindungsfähig sei. Lemoine, der im Responsible AI-Team von Google arbeitete, testete LaMDA auf diskriminierende Sprache, leakete jedoch letztendlich Transkripte seiner Interaktionen, darunter Fragen nach den bevorzugten Pronomen der KI.

Zu diesem Zeitpunkt waren sowohl Google als auch sein Forschungsinstitut DeepMind im LLM-Bereich zurückhaltend. DeepMind plante eine Veröffentlichung seines Sparrow-Chatbots in einer privaten Beta, wies jedoch darauf hin, dass Sparrow „nicht immun gegen Fehler“ sei.

Startups wie OpenAI und Anthropic stehen nicht unter dem gleichen Druck wie Google. Wie ein früherer Artikel in der New York Times bemerkte, hat Google Schwierigkeiten, fortschrittliche KI verantwortungsvoll einzusetzen, während interne Diskussionen anerkennen, dass kleinere Unternehmen mit weniger Einschränkungen operieren. Google erkannte, dass es sich mit der Branche auseinandersetzen musste, um nicht ins Hintertreffen zu geraten.

Jetzt ist Google vollständig der generativen KI verpflichtet, doch dieses Engagement bringt eigene Herausforderungen mit sich. Im Gegensatz zu OpenAI, das nicht mit den Anforderungen von Aktionären oder einer riesigen Nutzerschaft konfrontiert ist, die auf traditionelle Produkte angewiesen ist, hat Google ein komplexes Geflecht von Verpflichtungen.

Alle LLM-Unternehmen kämpfen mit Problemen wie Halluzinationen; erst letzte Woche produzierte ChatGPT unanständige Antworten und gab eine Erklärung ab, dass das Problem angegangen werde. Während diese Ausgaben möglicherweise nicht die gleiche Kontroversen wie die von Gemini auslösen, bleiben die Erwartungen an Google hoch. Als etablierter Akteur auf dem KI-Markt sieht sich das Unternehmen einer Prüfung ausgesetzt, der kleinere Unternehmen nicht ausgesetzt sind.

Ein Gleichgewicht zu finden, das verschiedene soziale, kulturelle und politische Werte berücksichtigt, ist praktisch unmöglich. Mit Halluzinationen als inherentem Teil der aktuellen KI-Technologie befindet sich Google in einer herausfordernden Position: Es muss die Anforderungen eines kritischen Publikums erfüllen und gleichzeitig verantwortungsbewusst innovieren.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles