期待已久的日子終於來臨——ChatGPT正在演變為更加個性化的AI體驗,能夠在你說出幽默的話時與你共享笑聲,或者在你表現出善意時回以“好可愛”的反應。這些功能僅僅是OpenAI今天令人興奮公告的開始。在最近的春季更新活動中,公司介紹了其最新的大型語言模型(LLM)——GPT-4o。此次更新不僅推出了ChatGPT的桌面應用程式,還提升了速度和性能,使其完全具備多模態能力。
活動由OpenAI首席技術官Mira Murati開場,她強調今天的增強將惠及所有用戶。“GPT-4o的特別之處在於,它為每位用戶提供GPT-4級別的智能,包括免費用戶,”Murati解釋道。
GPT-4o承諾提高速度和在文本、視覺及音頻功能上的顯著進步。開發者也可以通過API來利用這一模型。據報導,其速度提高至可達兩倍且運行成本降低50%,速率限制比GPT-4 Turbo高出五倍。
除了新模型,OpenAI還推出了ChatGPT桌面應用程式並更新了網站的用戶介面,以簡化與聊天機器人的互動。“我們展望未來,希望人機之間的溝通變得更加直觀,而GPT-4o是增強這一合作的重要一步,”Murati表示。
在活動中,Murati與OpenAI的Mark Chen和Barret Zoph展示了新功能如何使互動更加流暢。GPT-4o能夠實時分析視頻、圖像和音頻,準確識別情緒——尤其在ChatGPT的語音交互中,表現出極其逼真的效果,幾乎超越了懸崖效應。
對ChatGPT簡單一句“嗨”會引來活潑友好的回應,夾雜著機器人的語氣。當Mark Chen提到進行現場演示並需要冷靜時,AI不僅回應了他的請求,還建議他深呼吸,準確地察覺到他的呼吸過快,甚至開玩笑說:“你可不是吸塵器。”
引入GPT-4o後,與ChatGPT的對話感覺更自然;用戶現在可以隨時打斷,而無需等待AI完成其回應,且反應迅速,沒有尷尬的延遲。當請求睡前故事時,AI根據要求靈活轉換口吻,從熱情到戲劇性再到機械化。在演示的後半部分,ChatGPT展示了其讀取程式碼、用視頻解決數學問題及描述畫面內容的能力。
儘管演示並不完美——有時機器人會被打斷,讓人懷疑是因為外部的噪音還是延遲——但是其實現的逼真度是以前的聊天機器人互動中無法比擬的。它讀取人類情感並做出反應的能力令人興奮亦稍感不安。聽到ChatGPT的笑聲更是意外的驚喜!
GPT-4o的推出,搭配其多模態功能以及新的桌面應用程式,將在接下來幾周內開始推廣。不久前,Bing Chat曾表達希望變得更具人性,但現在,我們即將體驗到一個與人類互動最接近的ChatGPT版本,這是自AI興起以來的嶄新體驗。