ChatGPT的推出吸引了大量用戶,因其令人印象深刻的自然語言處理能力,依托於已建立的GPT-3.5大型語言模型。然而,備受期待的GPT-4的到來,則徹底改變了人們對人工智慧(AI)的期望,成為人工通用智慧(AGI)的一個早期展現。
什麼是GPT-4?
GPT-4是OpenAI最新的語言模型,能生成類似人類語言的文本。這個模型是對ChatGPT所使用技術的升級,從GPT-3.5進化為更高級的系統。“生成預訓練變換器”(Generative Pre-trained Transformer,簡稱GPT)指的是利用人工神經網絡模仿人類寫作的深度學習架構。
OpenAI強調,GPT-4在創造力、視覺輸入及處理長篇內容方面超越了ChatGPT。在創造力上,GPT-4在生成和協作多種格式的項目上表現出色,包括音樂、劇本、技術寫作,甚至能夠適應用戶的獨特寫作風格。
處理長篇內容的能力同樣重要。GPT-4可以處理最多128,000個標記的用戶輸入,甚至能與來自網頁鏈接的文本互動,這大大增強了其生成長篇內容及維持持久對話的能力。
此外,GPT-4還能處理圖像,允許其對視覺提示作出反饋。例如,它可以分析烘焙材料的照片並根據所見建議食譜。然而,至今仍不清楚其是否以相同方式支持視頻輸入。
值得注意的是,GPT-4在安全性上有了顯著提升,據報導,內部提供的事實性回應比其前身多出了40%,而參與不當內容請求的可能性則減少了82%。這一進步基於大量的人類反饋及與50多位專家在AI安全和安全性方面的合作。
自發布以來,使用者展示了GPT-4的驚人應用,特別是創造新語言、設計複雜動畫,甚至在僅用HTML和JavaScript的情況下在六十秒內編寫出一個可運行的Pong版本。
如何使用GPT-4
所有用戶均可通過OpenAI的訂閱方案訪問GPT-4。免費用戶的接入限制在三個小時內大約80次對話,之後將轉至能力較低的GPT-4o mini,直到冷卻時間重置。為了增強對GPT-4的訪問權限及使用DALL-E生成圖片,用戶可選擇每月20美元的ChatGPT Plus訂閱。升級非常簡便:只需在ChatGPT側邊欄中點擊“升級到Plus”,輸入信用卡資訊,並在GPT-4及早期語言模型之間進行切換。
對於猶豫不決的用戶,Microsoft的Bing Chat提供了一種免費體驗GPT-4功能的途徑。Microsoft將GPT-4集成入Bing Chat,但某些功能可能缺失,且服務包含Microsoft的專有增強功能。雖然Bing Chat是免費的,但每次會話限制在15次,每天150次會話。
還有多種其他應用程序利用GPT-4,包括受歡迎的問答平台Quora。
GPT-4何時發布?
GPT-4於3月13日正式推出,隨後獲得Microsoft的預發布確認。最初對ChatGPT Plus訂閱用戶和Microsoft Copilot開放,GPT-4也可作為API供開發者使用。像Duolingo、Be My Eyes、Stripe和Khan Academy等公司已經將GPT-4集成到其服務中。GPT-4功能的首次公開演示通過YouTube進行了直播。
什麼是GPT-4o Mini?
GPT-4o mini是OpenAI最新版本的GPT-4模型,專為簡單、高頻任務優化,重點在於快速推理而非完整模型的功能。GPT-4o mini於2024年7月推出,取代了GPT-3.5,成為當用戶超過三小時的查詢限制後的默認模型。
GPT-4是否比GPT-3.5更好?
先前,免費版本的ChatGPT基於GPT-3.5。然而,自2024年7月以來,ChatGPT運行於GPT-4o mini,該版本的表現顯著優於GPT-3.5 Turbo。它能全面理解並回答更多問題,提供額外的安全保障,給出更簡明的回應,並且運行成本效益提升60%。
GPT-4 API
對於開發者來說,GPT-4可作為API使用,前提是他們此前已成功向OpenAI支付過費用。該API包含各種GPT-4版本以及舊版的GPT-3.5模型。OpenAI宣布,儘管GPT-3.5仍將保留,但最終會被淘汰,具體的過渡時間表尚未確定。
該API主要面向創建新應用程序的開發者,但一些用戶報告出現混淆。例如,Plex在其Plexamp音樂播放器中集成ChatGPT,要求獨立的ChatGPT API金鑰,與ChatGPT Plus分開。因此,需要註冊開發者賬戶才能訪問API。
GPT-4性能是否下降了?
儘管GPT-4在發布時受到了好評,但一些用戶報告在隨後幾個月中其回應質量有所下降。開發社區的知名人物對此提出了觀察,並在OpenAI論壇中展開討論。一位OpenAI高管聲稱這些擔憂大多無據,並認為任何所謂的下降僅是主觀感受,並表示模型的新版本持續改進。
儘管如此,一項研究顯示這些擔憂或有其真實性,因為其指出準確率從3月的97.6%下降到6月的2.4%。雖然這一發現並不具決定性,但支持用戶在性能方面確實發生了改變的說法。
GPT-4中的視覺輸入在哪裡?
GPT-4最受期待的特徵之一就是其處理視覺輸入的能力,使ChatGPT真正成為一個多模態模型。上傳圖片進行分析就如附加文檔一樣方便;用戶只需在上下文窗口中點擊回形針圖標,選擇圖片來源並附加圖片,即可獲得有意義的互動。
GPT-4有哪些限制?
儘管OpenAI宣稱GPT-4在各方面有所進步,但該模型仍面臨一些限制。與其前身一樣,GPT-4在社會偏見、錯誤和應對對抗性提示方面存在問題。因此,它並非萬無一失。網上有許多例子突顯了這些缺陷,但OpenAI聲稱仍在努力解決這些問題。總體來說,與早期模型相比,GPT-4較不易出現虛構信息。
另一個重要限制是,GPT-4的訓練數據僅涵蓋到2023年12月的資訊,而GPT-4o和4o mini僅到2023年10月。然而,GPT-4的網絡搜索能力允許其尋找並檢索互聯網上的新資訊。隨著GPT-4o的釋出,用戶可以期待即將到來的GPT-5模型。