麻省理工學院的研究人員和學者們發佈了一份深具洞見的政策文件,呼籲美國政府擴大對人工智慧(AI)的監管框架。這份名為《創造安全且繁榮的AI行業》的十頁文件強調需要將現有法律框架擴展至涵蓋AI技術,特別是在醫療保健監管方面,包括AI輔助診斷的相關提案。此外,作者主張AI應該受到與目前監管政府運作相同的監督,例如執法實踐、保釋決定和招聘流程。
研究人員強調,任何規範人類活動的法律也應適用於AI系統。他們指出:「如果沒有使用AI的人類活動受到監管,那麼使用AI的行為也應同樣受到監管。」這一原則將確保AI系統的發展、部署和使用遵循與人類行為相同的標準。
政策文件指出,對於風險較高的AI應用,例如自動駕駛汽車,這些應用已經在現有法律的監督下受到審查,應成為關鍵關注點。這些車輛必須符合與人工操作車輛相同的標準,這顯示了現有框架的有效應用。
作者也主張,通用AI系統的開發者,如ChatGPT,應被要求在其技術發布前明確定義其預期用途。這種問責制將使監管機構能夠為預期用途建立具體指導方針,確保開發者能將其系統與這些定義參數保持一致。
文件的一個重要方面是澄清與AI相關的知識產權問題。作者建議需要制定機制,幫助創作者防範潛在侵權行為,並倡導對AI生成內容進行強制標籤作為解決方案之一。
該文件強調目前對於AI涉及時現有監管和法律框架適用性的不明確性。它指出:「不清楚當AI介入時,目前的監管和法律框架如何適用,以及它們是否能應對挑戰。」這種不明確性為服務提供者、使用者和公眾帶來挑戰,使他們對AI技術的風險感到不安。作者強調,增強透明度和監管的重要性,以促進負責任的AI發展和使用,最終最大化其對全體美國人的好處。
麻省理工學院施瓦茨曼計算學院院長Dan Huttenlocher表示:「作為一個國家,我們已經在許多相對高風險的領域進行監管並提供治理。我們並不是說這已經足夠,但讓我們從人類活動已經受到監管且社會認定為高風險的領域開始。以這種方式進行AI監管是切實可行的前進之路。」
這份政策文件與其他多份探討AI不同面向的文件相一致,包括大規模語言模型的管理、支持勞工的AI策略及AI生成內容的標籤等,顯示出建立完善AI監管體系的更廣泛承諾。