OpenAI的GPT-4o是最新最先進的大型語言模型(LLM),為免費和付費用戶提供了一系列創新功能。作為一款多模態人工智慧,它提升了ChatGPT的體驗,實現更快的回應、更佳的理解能力,以及將在未來幾週推出的一系列新功能。
隨著來自Meta的Llama 3和Google的Gemini競爭加劇,OpenAI的最新模型旨在領先於市場。以下是它的令人興奮之處。
對於使用免費版ChatGPT且羨慕ChatGPT Plus用戶功能的朋友們來說,好消息來了!您現在可以進行圖像識別、文件上傳、在GPT商店中查找自定義GPT,利用記憶功能保存對話歷史,以便於更流暢的互動,還能進行複雜的數據分析和計算。
GPT-4o展現了標準GPT-4模型的智慧,然而它是從零開始開發的多模態AI。GPT-4o的主要優勢在於其降低了計算成本,所需的token更少,使其更廣泛可用。但免費用戶每天的訊息還是有發送限制,超過限制後將轉回GPT-3.5模型。
GPT-4相比GPT-3.5引入了數項增強,速度是其重要組成部分。儘管GPT-4有所改進,但通常運行速度較慢。相反,GPT-4o提供幾乎即時的回應,使互動更快速、更具反應性,特別是在實時任務如翻譯和對話協助中。
在推出之後,GPT-4o支持文本和圖像,但設計上最終將能使用語音命令並以音頻與用戶互動。不同於GPT-4將語音轉換為文本、處理回應再轉回語音,GPT-4o能直接理解語音輸入並作出相應回應。其更快的處理速度使得對話更加自然,能理解語氣、節奏和情緒等細微差別。GPT-4o能笑、諷刺,並能隨時調整回應,還支持多語言的實時翻譯,它甚至能唱歌和創作對唱。
相比其前身,GPT-4o在用戶理解上有顯著提升,特別是在口語互動方面。它能更準確地解讀語氣和意圖,使其能保持輕鬆友好的態度。在分析代碼或文本時,它會考慮用戶的意圖,從而提供更貼合的回應,減少對具體提示的需求。其分析視頻和圖像的能力增強了對周圍世界的理解。
當前Windows用戶僅能使用基本的Copilot功能,而macOS用戶將很快能直接從桌面充分利用ChatGPT和GPT-4o模型。一款新型本地桌面應用程式將提供更強的可訪問性和全新的用戶界面,使互動更流暢。這款應用程式將很快向大多數ChatGPT Plus用戶推出,而免費用戶將在接下來的幾週內獲得,Windows版本預計將在今年晚些時候推出。
目前,公眾可以使用GPT-4o的文本和圖像功能,但高級語音支持和實時視頻理解功能即將推出,macOS桌面應用也將廣泛可用。這些令人振奮的更新和ChatGPT的其他改進將在不久的將來呈現給用戶。