OpenAI、モバイルユーザー向けにChatGPTの高度な音声モードへの限定アクセスを開始

OpenAIは、ChatGPT Plusの一部のユーザーに向けて、Advanced Voice Modeのアルファ版を開始しました。この機能により、iOSおよびAndroidのChatGPTモバイルアプリ上でAIチャットボットとの自然な会話が可能になります。

OpenAIはXのアカウントで、最初に「少数のChatGPT Plusユーザー」にこの機能を提供しており、2024年秋には全てのPlusサブスクライバーに順次拡大する予定であると発表しました。ChatGPT Plusは、月額20ドルのサブスクリプションサービスであり、OpenAIの高度な大規模言語モデル(LLM)チャットボットへのアクセスに加え、Free、Team、Enterpriseの各プランも提供しています。

Advanced Voice Modeの最初のユーザーはどのように選ばれたかは不明ですが、選ばれたユーザーにはメールとアプリ内通知で詳細が送られます。興味のあるユーザーは、ChatGPTモバイルアプリでの更新情報に注目してください。

この機能は、2024年5月のOpenAIの春のアップデートイベントで初めて披露され、リアルタイムでの会話を四つのAI生成音声で可能にします。チャットボットは自然なやり取りを目指し、途中での発言の中断や、発話における感情のニュアンスを管理します。

OpenAIは、教育支援、ファッションアドバイス、視覚障害者の支援など、さまざまな実用的な応用例を強調しています。この機能は、Vision機能と組み合わせることで一層効果を発揮します。

当初、Advanced Voice Modeは2023年6月下旬にリリースされる予定でしたが、スカーレット・ヨハンソンが自らの声を模倣されたと主張する騒動により、ローンチは遅れました。その結果、OpenAIはAI音声「Sky」をライブラリから削除しました。

最近、ChatGPTアプリの公式アカウントは、待望のAdvanced Voice Modeの開始を確認し、「ついにAdvanced Voice Modeが展開を始めました!」と発表しました。OpenAIの最高技術責任者、ミラ・ムラティ氏は「より豊かで自然な会話により、技術が柔軟になり、協力的で役立つものになると考えています」と新機能への期待を表明しました。

OpenAIは公式発表で、安全性と品質へのコミットメントを強調し、「Advanced Voice Modeを初めてデモした以来、何百万ものユーザーのためにこの技術を準備するために音声会話の安全性を強化してきました」と述べました。45言語で100人以上の外部タスクチームと共に音声機能の徹底的なテストを行ったことにも触れています。プライバシーを保護するため、モデルは四つのプリセット音声のみを使用し、範囲外の出力をブロックします。また、暴力的または著作権で保護された内容に対するリクエストに対しても保護対策が講じられています。

AIの詐欺やなりすましの潜在的リスクについての懸念が再び高まる中、OpenAIのVoice Modeは新たな音声生成やクローンはサポートしていないものの、AIの本質を知らない人にとっては依然としてリスクとなる可能性があります。

別の件では、Elon Musk氏がアメリカの民主党大統領候補カマラ・ハリスの音声クローンを使用した批判的な動画を公開し、音声クローン技術に関する課題が引き続き注目されています。

OpenAIは春のアップデート以降、安全性やAIモデルの調整に関する数々の論文を発表し、安全性への懸念よりも製品リリースに偏重しているとの批判に直面しています。Advanced Voice Modeの慎重な展開は、これらの批判に対処し、ユーザーと規制当局に対しOpenAIの安全性への取り組みを再確認することを目的としています。

Advanced Voice Modeの導入は、OpenAIをMetaやAnthropicといった競合他社から際立たせ、感情豊かなAI音声技術の市場競争をさらに激化させています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles