在2024年達沃斯,人工智慧成為熱議主題,超過兩十場會議集中探討其影響,涵蓋教育到監管等議題,福布斯特別指出。與會者包括知名的人工智慧領袖,如OpenAI首席執行官山姆·奧特曼(Sam Altman)、Inflection AI首席執行官穆斯塔法·蘇萊曼(Mustafa Suleyman)、人工智慧先驅安德魯·吳(Andrew Ng)、Meta首席人工智慧科學家顏·勒昆(Yann LeCun)及Cohere首席執行官艾登·戈麥斯(Aidan Gomez)。
這次的討論氣氛與2023年的熱情投機大相逕庭。IBM政府與監管事務副總裁克里斯·帕迪拉(Chris Padilla)在《華盛頓郵報》中指出:“去年氛圍充滿驚奇;現在則是評估風險並確保人工智慧的可信性。” 今年的主要關切包括可能的假資訊泛濫、工作崗位流失及富裕與貧困國家之間日益擴大的經濟鴻溝。最緊迫的問題似乎是深偽技術助長的假資訊崛起——操控影像、影片和音頻,扭曲現實並破壞公信力。近期在新罕布什爾州初選前,模擬喬·拜登總統聲音的自動撥號電話事件便是這一威脅的明證。
卡內基梅隆大學教授凱瑟琳·卡利(Kathleen Carley)指出:“這僅僅是潛在選民壓制或對選舉完整性攻擊的冰山一角。”企業人工智慧顧問瑞文·科恩(Reuven Cohen)也提醒,人工智慧的進步可能導致2024年選舉期間深偽內容的激增。
儘管持續研究,尚未找到可靠的深偽檢測方法。根據Jeremy Kahn在福布斯的報導,“我們需要迅速找到解決方案;不信任對民主是有害的。”這種從樂觀轉向謹慎的焦點變化促使蘇萊曼提倡一種“冷戰策略”以應對人工智慧相關威脅。他強調,隨著人工智慧技術變得更加可及,可能被敵對勢力濫用,導致混亂超越驗證的努力。
有關人工智慧的擔憂已存在數十年,這一情況在1968年電影《2001太空漫遊》中得到了明確描繪。甚至消費科技如Furby玩具也因安全漏洞而引發警覺,NSA因擔心其可能作為監控設備而禁止使用。
隨著對人工通用智能(AGI)即將實現的預測,討論越發激烈。AGI——即在多項任務上超越人類智慧的人工智慧——仍是一個有爭議的話題,奧特曼和戈麥斯等人對其即將到來表示樂觀,而包括勒昆在內的其他人則呼籲謹慎,認為仍需重大突破。
根據2024年艾德曼信任指標顯示,公眾對人工智慧的看法仍不一,35%的受訪者反對人工智慧,而30%接受其存在。人們對人工智慧潛在利益的認識受到其風險的影響,當專家引導並確保人們對其影響有控制時,他們更願意接受人工智慧的進步。
最終,未來的路徑不僅在於快速回應人工智慧的發展,還需要對長期後果保持平衡的視角。正如羅伊·阿馬拉(Roy Amara)所言:“我們往往高估技術在短期內的影響,而低估其在長期的影響。”
儘管持續探索和實驗,人工智慧的廣泛成功並非保證。人工智慧測試非營利組織Humane Intelligence首席執行官拉曼·查德哈里(Rumman Chowdhury)預測,2024年將出現“失望的低谷”,當時的期望可能與現實不符。
今年或將對人工智慧的變革潛力進行關鍵評估。隨著機構探討生成人工智慧的個人和專業用途,將科技熱情與實際價值相結合至關重要。艾克森科技首席執行官朱莉·史威特(Julie Sweet)表示,現為高管領導提供的工作坊是實現人工智慧潛力的重要步驟。
在我們導航人工智慧的複雜領域時,明智的決策與創新的思考將是确保人工智慧增強人類潛力,同時堅持共同價值與正直的重要關鍵。責任在於我們,塑造一個人工智慧提升人類經歷而非主導它的未來。