MetaのLlama 3が急速に人気を集めている中、生成AIのパイオニアであるOpenAIは、GPT-4 Turbo LLMおよび他のモデルに新しいエンタープライズ向け機能を追加し、競争力を高めています。
OpenAIはAPI顧客向けにエンタープライズ向け機能の拡充を発表し、Assistants APIを強化するとともに、安全性、管理コントロール、コスト管理を向上させる新ツールを導入しました。
OpenAIのAPIプロダクト責任者オリビエ・ゴドモンは最近のインタビューで、「AIモデルに対して意義のある仕事について開発者や企業と話す際、OpenAIは依然としてリードしています。競争は常に歓迎です - それが全てを向上させます」と述べました。
プライベートリンクと強化されたセキュリティ機能
重要なセキュリティ強化として、プライベートリンクが導入され、MicrosoftのAzureクラウドサービスとOpenAIの間での安全な通信が可能になりました。これにより、APIクエリにおける顧客データのオープンインターネットへの露出が減少します。
OpenAIのセキュリティフレームワークには、SOC 2 Type II認証、シングルサインオン(SSO)、AES-256の静止データ暗号化、TLS 1.2の運送中暗号化、役割ベースのアクセス制御が含まれています。加えて、OpenAIは、コンプライアンス要件の増加に応じてアクセスコントロールを強化するためにネイティブマルチファクター認証(MFA)を実施しました。
HIPAAコンプライアンスが求められる医療機関向けには、Business Associate Agreementや、特定のAPIクライアントに対するデータ保持ゼロポリシーを提供しています。
ファイル管理機能を強化したAssistants API
OpenAIの重要なエンタープライズ提案の一つであるAssistants APIは、ファイル検索機能「file_search」の導入により、ファイル取得能力が向上しました。これにより、各アシスタントが最大10,000ファイルを管理可能となり、従来の制限であった20ファイルから500倍の増加があります。このアップグレードには、並列クエリ、再ランク付け、クエリの再構築機能が含まれています。
また、リアルタイムでの会話型応答を可能にするストリーミング機能が追加され、GPT-4 Turboなどのモデルが完全な応答を待つことなくトークンが作成されるたびに出力を生成します。APIには、ファイル管理の改善のために「vector_store」オブジェクトが新たに追加され、トークン使用に対する詳細なコントロールが提供され、コスト管理を支援します。
プロジェクト機能によるカスタマイズ可能なアクセス制御
新たに導入されたプロジェクト機能により、組織はプロジェクトレベルでの役割とAPIキーを管理できます。これにより、エンタープライズ顧客は権限を設定し、モデルの利用可否をコントロールし、予期しないコストを避けるための使用制限を設けることができます。
例えば、企業内の異なるチームは、プロジェクトごとに特定のAIモデルを使用でき、データの混在リスクを避けることができます。OpenAIのミクダッド・ジャファーは、「プロジェクト機能は、資源やメンバーを個別のプロジェクトに隔離し、明確な報告とアクセス、セキュリティ、コストの強化されたコントロールを提供します。」と説明しました。
スケーラブルなAI運用のためのコスト管理機能
OpenAIはまた、組織がAI運用を効率的にスケールアップするための新しいコスト管理機能も導入しています。これには、一貫したトークン使用に対する割引料金や、新しいバッチAPIを利用した非同期作業に対する50%のコスト削減が含まれています。このバッチAPIは、より速い応答時間と高いレート制限を約束します。
バッチAPIを使用するためには、顧客が単一のリクエストでトークンを提出する必要があり、結果は通常24時間以内に届きますが、OpenAIは即時のフィードバックが必要でない場合、10-20分で応答が得られることもあると述べています。
OpenAIは、エンタープライズ向けのセキュリティ、管理コントロール、コスト管理に焦点を当てながらサービスを強化し続けており、これらの更新は企業に対し、Llama 3やMistralのような競合のオープンモデルが持つ設置の手間を考慮しつつ、よりシームレスな体験を提供することを目指しています。