負責任的人工智慧:技術中的關鍵討論
負責任的人工智慧在當今科技領域中是一個重要議題。隨著模型開發者努力防範生成 AI 和大型語言模型(LLMs)的粗心或惡意使用,全球 AI 規範不斷演進。然而,AI 開發者和組織當前亟需有效的解決方案。
這種日益增長的關注促使採用帶有特定行為使用條款的許可證,包括非牟利的負責任 AI 許可證(RAIL)。這些許可證在共享時合法限制 AI 模型、代碼和訓練數據的使用方式。
為了進一步促進生成 AI 加速普及過程中的定制化和標準化,RAIL 推出了許可證生成器(Rail License Generator)。這一創新工具允許 AI 開發者從策劃的目錄中選擇相關項目以進行許可,並施加使用限制。
“基礎模型通常提供廣泛的多功能性——它可以解讀多種語言,並在很少的微調下應用於下游應用,”RAIL 的共同主席 Daniel McDuff 解釋道。他補充說:“以前對應用的限制需求較少。然而,今天這些多功能模型可以輕易改作用途,使得這些許可證變得至關重要。”
用法律權威編纂倫理原則
自2018年成立以來,RAIL倡議已增長至擁有41,700個帶有RAIL許可證的模型庫。包括 Hugging Face 的 BLOOM、Meta 的 Llama 2、Stable Diffusion 和 Grid 在內的知名模型皆包含行為使用條款。
許可證生成器旨在降低存取障礙,以增加這一數字。這一工具由 RAIL 工具和程序治理工作小組開發,該小組由 Jesse Josua Benjamin、Scott Cambo 和 Tim Korjakow 領導,旨在提供創建定制許可的簡化流程。
用戶首先選擇許可證類型,以生成初步模板。可選的許可證類型包括:
- 開放 RAIL:允許開發者在遵循既定行為限制的前提下使用、分發和修改許可的項目。
- 研究 RAIL:僅限於研究目的使用許可項目,禁止商業用途,同時遵循行為限制。
- RAIL:不包括行為使用條款,但可能包括其他規範誰可以使用許可項目及其使用方式的條款。
在下一步中,用戶挑選欲授權或共享的項目,通常涉及小心發布與 AI 相關的代碼、算法或模型。他們可以從各種系統特定的限制中進行選擇。
最終的許可證可匯出為 LaTeX、純文本和 Markdown 格式,並附有域名圖標和連結完整許可證的 QR 碼的 PNG 下載。
許可證生成器支持缺乏法律團隊的個人使用,雖然也被大型和小型組織共同使用。McDuff 指出,撰寫許可文件時常出現一層“安全感不足”,因為語言必須針對特定領域、背景和 AI 類型量身定制。許多開發者感到猶豫,因其背景是計算機科學或研究,覺得不適合起草法律條款。
“確定所需的條款後,創建許可證現在只需幾分鐘,”McDuff 表示。“這個工具用法律權威編纂了倫理原則。”
AI 對傳統科學過程的影響
開放性和開源倡議是科學研究和技術進步的基礎,能夠驗證和審計研究成果。這種開放性顯著惠及 AI,儘管基礎模型因其可調整性而面臨獨特挑戰。
雖然開發者常常出於良好意圖創造強大的模型,但這些模型的多功能性可能導致意外或有害的應用。去中心化加劇了這些風險,使下游用戶的責任和救濟途徑更加複雜。
“開源是有利的,但當單一行為者能夠施加重大下游影響時,例如散布虛假信息,情況就變得更加複雜,”McDuff 警告道。
RAIL 共同主席 Danish Contractor 強調開發者面臨的使用限制困惑。“許多人會想,如果『AI 可以做 X,那麼它也可以做 Y』,”他解釋道。例如,一個醫療模型可能在機器人或軍事應用等領域被誤用——無論是故意還是無意識。
有效的溝通和獲取追踪及執行許可違規行為的工具至關重要,Contractor 強調。行為限制可以在應用的條款中提供一致性和多樣性的平衡。雖然一些條款是普遍適用的,例如禁止歧視和虛假信息,但標準化至關重要。
“迫切需要幫助創建熟悉且靈活的許可證的工具,並具備必要的法律語言,”McDuff 再次強調。他總結道:“開源代碼的不當使用所帶來的風險對 Google 或 Microsoft 等公司來說過於重大,不容忽視。”