ChatGPT 高度音声モード:リリース日、互換性、機能などの詳細

アドバンスドボイスモードは、ChatGPTの革新的な機能で、ユーザーがAIチャットボットとリアルタイムで会話できるようになります。この機能により、テキストのプロンプトや長時間の音声交換が不要となります。2023年7月下旬に一部のPlusサブスクライバー向けに初めて発表され、OpenAIの春のアップデートイベントで展示されました。

OpenAIは、アドバンスドボイスモードを「より自然でリアルタイムの会話を提供し、ユーザーがシームレスに中断できる」機能だと説明しています。さらに、この機能はユーザーの感情を検知し、応答することができます。会話中に息をつくことや、人間の笑い声を模倣することも可能です。まだアクセスしていない場合でも心配はいりません。近日中に、さらに多くのユーザーに展開される予定です。

最近、OpenAIは待望のアドバンスドボイス機能を一部のChatGPT Plusサブスクライバーに正式に導入し、利用可能となりました。この初期の展開の正確な規模は不明ですが、同社は今後数週間でアクセスを拡大することを約束しており、全てのPlusサブスクライバーが秋までにアクセスできるようになる見込みです。多くのユーザーがこの機能を試すことを期待していますが、冬が来る前にアクセスできるでしょう。アクセスが可能になると、メールの招待状やChatGPTアプリ内の通知が届きます。

アドバンスドボイスモードを利用するには、Plusサブスクリプションと、アプリバージョン1.2024.206以上のAndroidデバイス、またはiOS 16.4以上を搭載したiPhoneが必要です。ただし、適切なデバイスを持っていても、アルファリリースフェーズに参加できる保証はありません。OpenAIはこの機能のユーザー選定基準を公開していませんが、選ばれたユーザーは、メール通知とChatGPTモバイルアプリ内のツールチップを通じて新しいモードにアクセスできます。

アルファフェーズでは、OpenAIはアドバンスドボイスモードを使った会話の音声を収集し、モデルの向上に役立てます。ただし、データ共有をオプトアウトしたユーザーの音声は収集されません。このオプションを無効にするには、アプリの設定内のデータコントロールタブで、「全員のために音声を改善」をチェック外してください。

OpenAIは、アドバンスドボイスの入力と出力には毎日の使用制限があると述べていますが、具体的な時間は明らかにされていません。そのため、制限は変わる可能性があります。それでも、Himels Techのようなユーザーは、ほぼ10分間の会話を実証しています。AIは、残り時間が3分になると通知し、会話を終了し、標準の音声インターフェースに切り替わります。

アドバンスドボイスモードは、GPT-4o大規模言語モデルとユーザーとの新たな対話方法を提供し、さまざまなタスクに活用できます。本質的に、テキストベースのChatGPTで可能なことはすべて、アドバンスドボイスでも実現可能で、楽しい音声機能で強化されています。初期の利用者たちは、ビートボクシングやストーリーテリング、急速なカウントなど、その機能を探求しています。

ただし、アドバンスドボイスモードには安全対策や制限があります。このモードでは、メモリー作成やカスタムインストラクションの利用、GPTへのアクセスはできません。以前のアドバンスドボイスの会話の詳細を記憶することはできても、テキストプロンプトや標準の音声インターフェースで行った以前の会話を参照することはできません。

さらに、アドバンスドボイスは歌うことができません。OpenAIによると、「クリエイターの権利を尊重するため、アドバンスドボイスモードが歌のような音楽コンテンツを生成しないように、いくつかの対策や新しいフィルターを導入しました。」

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles