蘋果研究人員聲稱,ReALM 裝置模型超越 GPT-4,顯著提升 Siri 的智能。

Apple的ReALM模型提升Siri的智能

4月2日,有報導指出,Apple正在推進其人工智能的探索,推出了一種名為ReALM的新模型,旨在顯著增強Siri的能力。近期研究顯示,ReALM的表現超越了OpenAI著名的語言模型GPT-4.0,儘管目前Siri在圖像描述上的能力仍然不穩定。

ReALM的主要特徵

ReALM的一大特色是能同時理解用戶螢幕上顯示的內容和當前執行的動作。該模型將信息分為三種類型:

1. 螢幕實體:當前用戶螢幕上可見的內容。

2. 對話實體:與進行中的對話相關的信息,例如在“打給媽媽”的命令中提到的“媽媽”的聯絡資訊。

3. 背景實體:與用戶當前螢幕內容或行為不直接相關的實體,如播放音樂或即將到來的鬧鐘。

若完全運行,ReALM將使Siri變得更聰明和有用。研究團隊比較了ReALM與OpenAI的GPT-3.5和GPT-4.0的性能,得到了重要的見解:

「我們測試了OpenAI的兩款模型,GPT-3.5和GPT-4.0,為它們提供了上下文信息以預測不同實體。GPT-3.5僅處理文本輸入,而GPT-4則能理解圖像數據,這大大增強了其識別螢幕實體的能力。」

ReALM的卓越成果

ReALM在識別不同類型的實體方面表現出色。最小型模型在螢幕實體識別的準確率上較原系統提高了超過5%。與GPT-3.5和GPT-4.0相比,我們的最小型模型與GPT-4.0的表現相當,而較大型模型的表現則明顯優於其。

研究的一個結論是,儘管ReALM的參數數量遠少於GPT-4,但其性能仍具有競爭力,特別是在處理特定上下文中的用戶指令時,這使其成為高效的設備端實體識別系統。

對於Apple來說,挑戰在於如何在不妨礙性能的情況下,有效地將這項技術部署到設備上。隨著2024年WWDC開發者大會在6月10日的臨近,業界期待Apple展示iOS 18及其他即將推出系統中的新AI進展。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles