OpenAI hat die Alpha-Version des Advanced Voice Mode für eine ausgewählte Gruppe von ChatGPT Plus-Nutzern gestartet, um die natürliche Interaktion mit dem KI-Chatbot in der ChatGPT-App für iOS und Android zu verbessern.
Auf ihrem X-Konto gab OpenAI bekannt, dass dieses Feature zunächst „einer kleinen Gruppe von ChatGPT Plus-Nutzern“ zur Verfügung steht, mit dem Ziel, den Zugang bis zum Herbst 2024 schrittweise auf alle Plus-Abonnenten auszudehnen. Mit ChatGPT Plus, dem Abonnementdienst für 20 $ pro Monat, haben Nutzer Zugriff auf OpenAI’s fortgeschrittenes Large Language Model (LLM) sowie weitere Stufen: Free, Team und Enterprise.
Es ist unklar, wie OpenAI die ersten Nutzer für den Advanced Voice Mode ausgewählt hat; die Gesuchten erhalten jedoch eine E-Mail und eine In-App-Benachrichtigung mit Anweisungen. Interessierte Nutzer sollten in ihrer ChatGPT-App auf Updates achten.
Der Advanced Voice Mode wurde erstmals bei OpenAIs Frühlingsupdate-Event im Mai 2024 vorgestellt und ermöglicht Echtzeitgespräche mit vier KI-generierten Stimmen. Der Chatbot strebt natürliche Interaktionen an, verwaltet Unterbrechungen und zeigt emotionale Nuancen in der Sprache.
OpenAI betonte mehrere praktische Anwendungen dieses Features, darunter Nachhilfehilfe, Modeberatung und Unterstützung für Sehbehinderte in Verbindung mit seinen Vision-Funktionen. Ursprünglich sollte die Veröffentlichung Ende Juni erfolgen, die Einführung verzögerte sich jedoch aufgrund einer Kontroverse um Schauspielerin Scarlett Johansson, die behauptete, OpenAI habe versucht, ihre Stimme nachzuahmen. Infolgedessen entfernte OpenAI die KI-Stimme „Sky“ aus seiner Bibliothek.
In einem aktuellen Beitrag auf X bestätigte das offizielle ChatGPT-App-Konto die lang erwartete Einführung des Advanced Voice Mode: „Der lang erwartete Advanced Voice Mode wird jetzt ausgerollt!“
Mira Murati, Chief Technology Officer von OpenAI, äußerte sich begeistert über die neue Funktion und erklärte: „Reichhaltigere und natürlichere Gespräche machen die Technologie weniger starr – wir haben festgestellt, dass sie kooperativer und hilfreicher ist, und wir glauben, dass es Ihnen ebenso gehen wird.“
In seiner offiziellen Ankündigung betonte OpenAI sein Engagement für Sicherheit und Qualität. „Seit wir den Advanced Voice Mode erstmals demonstriert haben, haben wir die Sicherheit von Sprachanrufen verstärkt, um diese Technologie für Millionen von Nutzern vorzubereiten“, sagte das Unternehmen und verwies auf umfangreiche Tests der Sprachfunktionen mit über 100 externen Testern in 45 Sprachen. Zum Schutz der Privatsphäre nutzt das Modell nur die vier voreingestellten Stimmen und blockiert Ausgaben außerhalb des Rahmens. Zudem bestehen Schutzmaßnahmen gegen Anfragen nach gewalttätigen oder urheberrechtlich geschützten Inhalten.
Diese Neuigkeiten kommen zu einem Zeitpunkt, an dem Bedenken hinsichtlich der Möglichkeiten von KI für Betrug und Identitätsmissbrauch wieder in den Fokus rücken. Derzeit unterstützt OpenAIs Voice Mode keine neue Stimmenerzeugung oder -klonierung, könnte jedoch dennoch Risiken für diejenigen darstellen, die sich der KI-Natur nicht bewusst sind.
In einem separaten Vorfall sah sich Elon Musk Kritik ausgesetzt, nachdem er einen Stimmklon der US-Demokraten-Präsidentschaftskandidatin Kamala Harris in einem kritischen Video geteilt hatte, was die anhaltenden Probleme rund um die Stimmklon-Technologie verdeutlicht.
Seit seinem Frühlingsupdate hat OpenAI mehrere Dokumente veröffentlicht, die sich mit Sicherheit und der Ausrichtung von KI-Modellen befassen, während das Unternehmen aufgrund seiner Produktveröffentlichungen anstelle von Sicherheitsbedenken unter Beobachtung steht. Der vorsichtige Rollout des Advanced Voice Mode zielt darauf ab, diese Kritiken zu entkräften und die Nutzer sowie Aufsichtsbehörden von OpenAIs Engagement für Sicherheit im Einklang mit Innovation zu überzeugen.
Die Einführung des Advanced Voice Mode hebt OpenAI weiter von Wettbewerbern wie Meta und Anthropic ab und verstärkt den Wettbewerb im Bereich der emotionalen KI-Stimmtechnologie.