生成式人工智慧的興起標誌著一個重要的轉折點,這背後受到三大因素的驅動:數據的爆炸性增長、可擴展計算的進步以及機器學習技術的突破。儘管生成式人工智慧在文本到圖像、文本到文本和文本到視頻等應用方面展現了令人驚艷的能力,但其普遍採用依然面臨重大挑戰,其中最主要的問題包括偏見、隱私、知識產權侵犯、錯誤信息及有害內容的潛在風險。
“這些都是組織面對的關鍵風險,因此他們在將 ChatGPT 等工具整合進日常運作中非常謹慎,”美國航空的資深數據科學家 Sai Nikhilesh Kasturi 在德克薩斯州奧斯汀的 Applied Intelligence Live!會議上指出。為了解決這些風險,他主張建立健全的人工智慧框架。
有效部署人工智慧的關鍵策略:
- 人工智慧政策與規範:制定全面的政策以規範人工智慧的使用。
- 治理與合規:確保遵循法律和道德準則。
- 風險管理:識別並減輕與人工智慧實施相關的風險。
- 負責任的實踐:促進人工智慧技術的道德使用。
- 模型解釋:開發方法以澄清人工智慧模型如何作出決策。
- 透明的決策過程:促進對人工智慧輸出的理解和信任。
- 偏見與公平:界定、衡量並主動管理模型中的偏見。
- 安全與防護:實施核心做法以保障人工智慧系統免受漏洞威脅。
- 人類監督:在決策過程中保持人類的參與。
- 監控模型漂移:定期評估模型以確保其準確性和相關性。
Kasturi 認為,一旦確立倫理框架,生成式人工智慧的採用可能在未來幾年內激增。根據 Bloomberg 的預測,生成式人工智慧市場到了 2032 年可能達到 13 億美元,顯示出光明的未來。
與傳統專門為特定任務設計的人工智慧模型不同,生成式人工智慧的基礎模型能夠同時執行多個任務,從而大幅縮短訓練時間。面對不準確或虛假的回答挑戰,Kasturi 建議可以採用兩個 AI 系統互相交叉驗證的解決方案。值得注意的是,麻省理工學院和 Google DeepMind 的研究人員提出了一種新穎的方法,讓 AI 聊天機器人進行辯論,通過評估對立觀點來達成正確結論。
通過實施這些策略並促進道德實踐的環境,組織可以充分利用生成式人工智慧的潛力,同時應對相關風險,從而為人工智慧技術創造一個更負責任和創新的未來鋪平道路。