人工智慧進展報告2024:關鍵發現與趨勢
根據斯坦福大學人本中心人工智慧研究所的《人工智慧指標2024》報告,2023年人工智慧(AI)在技術基準、研究成果和商業投資方面取得了重大進展。然而,報告中也指出了明顯的限制,以及對其風險和社會影響的日益擔憂。
《人工智慧指標2024》報告深入分析了全球AI的進展,顯示AI系統在圖像分類、視覺推理和英文理解等基準中的表現已超越人類,但在高級數學、常識推理和策略規劃等複雜領域仍有不足之處。
AI研究激增與成本上升
報告指出,2023年AI研究和開發活動顯著增加,主要由私營部門驅動。企業推出了51個重要的機器學習(ML)模型,而學術機構僅有15個。產業與學術界的合作還帶來了21個高知名度的模型。
與此同時,訓練複雜AI系統的成本飆升。例如,OpenAI的GPT-4語言模型消耗了約7800萬美元的計算資源,而Google的Gemini Ultra模型則驚人地估計成本高達1.91億美元。報告作者指出:「最先進AI模型的訓練成本已達前所未有的水平。」
AI生產的地理主導
美國在AI模型開發中依然領先,2023年生產了61個顯著系統。中國與歐盟則分別緊隨其後,推出了15個和21個模型。
投資趨勢呈現混合局面。儘管整體私營AI投資連續第二年下降,但生成性AI(能生成文本、圖像及其他媒體)的資金激增近八倍,達到252億美元。OpenAI、Anthropic和Stability AI等公司獲得了大量資金。報告指出:「儘管整體AI投資下降,但生成性AI領域卻取得了顯著增長。」
標準化AI測試的需求
AI的快速發展引發了對系統責任、安全性和保障缺乏標準化測試的擔憂。主要開發者如OpenAI和Google經常根據不同基準評估其模型,增添了跨比較的複雜性。
《人工智慧指標》的分析警告道:「大型語言模型(LLM)責任的堅實和標準化評估極為缺乏,這使得系統性評估主要AI模型的風險和限制變得困難。」
新出現的風險與公眾擔憂
報告強調了新出現的風險,包括政治深偽技術的普及,這些技術「易於生成且難以檢測」。此外,報告還揭示了語言模型中存在的脆弱性,可能導致有害結果的發生。
公眾對AI的情緒反映出擔憂日增。全球因AI預期「劇烈」影響的比例已從60%上升至66%。現在超過一半的受訪者對AI產品和服務表示不安。
在美國,對AI不斷增長角色的擔憂顯著增加;感到對AI更加不安的美國人比例從2021年的37%上升至2023年的52%,而感到興奮的比例則降至36%。
報告最後指出:「公眾對AI潛在影響的認識正在增長,同時伴隨著情緒的升高。」隨著AI技術的演變,《人工智慧指標》旨在提供客觀見解,幫助政策制定者、商界領袖和公眾導航未來的複雜性和機遇。