Das Frühling-Update-Event von OpenAI im Mai 2024 war geprägt von der Einführung von GPT-4o und dem mit Spannung erwarteten Voice Mode für ChatGPT. Diese neue Funktion zielt darauf ab, eine natürliche, gesprächsähnliche Interaktion mit der KI zu schaffen, die emotionale Nuancen und die Fähigkeit zur Handhabung von Unterbrechungen umfasst. Allerdings wurde die Einführung des Voice Mode um mindestens einen Monat verzögert, sodass mit einer Verfügbarkeit frühestens Ende Juli oder Anfang August zu rechnen ist. Zunächst wird die Funktion nur einer kleinen Gruppe von Nutzern zugänglich sein.
OpenAI gab diese Verzögerung über sein X-Konto bekannt und betonte, dass zusätzliche Zeit erforderlich sei, um den Voice Mode weiter zu optimieren. Das Unternehmen hob hervor, dass die Verbesserungen in der Modellentwicklung auch die Erkennung und Ablehnung unangemessener Inhalte umfassen. In der Mitteilung hieß es: „Wir hatten geplant, den Voice Mode im Alpha-Stadium für eine ausgewählte Gruppe von ChatGPT Plus-Nutzern Ende Juni einzuführen, aber wir benötigen einen weiteren Monat, um unseren Qualitätsstandards gerecht zu werden. Wir verbessern die Erkennung von Inhalten, optimieren die Benutzererfahrung und stellen sicher, dass unsere Infrastruktur effektiv skalieren kann, während wir Echtzeit-Antworten liefern. Unsere schrittweise Einführungsstrategie sieht vor, Feedback von einer ersten Nutzergruppe zu sammeln, bevor wir den Zugang im Herbst auf alle Plus-Nutzer erweitern, vorausgesetzt, wir erfüllen unsere Sicherheits- und Zuverlässigkeitsstandards.“
Der Voice Mode verspricht, der KI das Verständnis und die Reaktion auf emotionale und nonverbale Signale zu ermöglichen und so das Gesprächserlebnis zu bereichern. OpenAI verpflichtet sich, diese Fortschritte sorgfältig einzuführen.
Diese Verzögerung stellt OpenAI vor Herausforderungen im Wettbewerb mit Rivalen wie Anthropic, das kürzlich das Claude 3.5 Sonnet-Grundmodell vorgestellt hat, das in mehreren Bewertungen Dritter anscheinend GPT-4o übertrifft. Zudem steht OpenAI in der Kritik wegen seiner Sicherheitsmaßnahmen im Streben nach künstlicher allgemeiner Intelligenz (AGI), was zu interner Kritik an restriktiven Trennungsvereinbarungen und Eigenkapitalgrenzen geführt hat—viele davon wurden mittlerweile geändert.
Die äußere Kritik hält an, insbesondere von Schauspielerin Scarlett Johansson, die gegen die KI-Stimme „Sky“ protestierte, die ihrer eigenen ohne ihre Zustimmung ähnelte. OpenAI stellte klar, dass die Sprecherin für Sky separat von Johansson kontaktiert wurde, obwohl das Unternehmen diese KI-Stimme inzwischen deaktiviert hat.
Trotz dieser Herausforderungen gewinnt OpenAI weiterhin neue Nutzer und Partnerschaften, einschließlich Kooperationen in der Kreativindustrie mit seinem noch nicht veröffentlichten Video-KI-Modell Sora sowie der Integration von GPT-4o in Gesundheitsanwendungen wie einem Krebs-Screening-Tool für Color und dem Gewinnen zahlreicher Unternehmenskunden.