MetaがGPT-4V競合のテストを開始:レイバンスマートグラスに搭載された新しいマルチモーダルAI

Metaプラットフォームズ、Facebook、Instagram、WhatsApp、Oculus VRの親会社が、Ray-Ban Metaスマートグラス向けの新しいマルチモーダルAIを導入し、注目を集めています。この新技術は、音声クローンAI「Audiobox」の発表後に米国でベータテストが開始されました。

Metaの最高技術責任者であるアンドリュー・ボズワースによれば、マルチモーダルAIは2024年に一般公開される予定です。彼はInstagramの動画で、「来年、メガネのカメラを利用したAIアシスタントを発表します。これはユーザーの問いかけに応えるだけでなく、周囲の環境についても情報を提供します。」と語りました。現在、ベータテストが進行中ですが、参加方法の詳細はまだ発表されていません。

Ray-Ban Metaスマートグラスは299ドルで、9月のMeta年次Connectカンファレンスで披露されました。最新モデルには、AmazonのAlexaやAppleのSiriに似た基本的な音声コマンド応答機能を持つAIアシスタントが搭載されていますが、ライブ映像や写真をインテリジェントに分析する機能はありません。

ボズは、光る壁アートを観察しながらメガネを装着し、AIに質問しました。その結果、AIはそのアートを「木製の彫刻」と正確に特定し、「美しい」と表現しました。これにより、AIはより高度なパフォーマンスとインタラクションのために、接続されたスマートフォンに依存する可能性が示唆されます。

また、MetaのCEOマーク・ザッカーバーグは、AIが衣類のコーディネート提案や面白いキャプション生成、手にした果物の認識、スペイン語から英語への翻訳を行う様子を示しました。

この動きは、Metaが自社製品にAIを統合し、オープンソースAIをLlama 2モデルを通じて推進する姿勢を強調しています。生成AIが徐々にハードウェアにシフトしている中で、Metaの取り組みは際立ちます。かつてのGoogle Glassがユーザビリティや公共の認識で課題を抱えたのとは対照的です。

MetaのRay-Banスマートグラス向けマルチモーダルAIは、以前のスマートグラスの欠点を克服できるのでしょうか。技術が進化し、社会的な態度が変わる中で、この革新が市場に受け入れられるかどうか、時が経つにつれて明らかになるでしょう。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles