你聽說過那些令人不安的故事嗎?這些故事在社會上引起了廣泛的關注。有位24歲的亞洲麻省理工學院畢業生請求AI為她生成一張專業的LinkedIn頭像,卻發現技術改變了她的膚色,使其變得更淺,並將她的眼睛改成了圓圓的藍色。ChatGPT為喬·拜登總統寫了一首讚美的詩,卻拒絕為前總統特朗普做同樣的事情。在印度,當一個大型語言模型(LLM)嘲諷了印度教的關鍵人物,而對基督教和伊斯蘭教的相關人士卻未加評論時,公民們發出了憤怒的聲音。這些事件引發了存在的恐懼,描繪了AI影響公共輿論和塑造意識形態的情景。雖然AI的討論通常偏向專業化,但越來越需要公開探討這些擔憂。如果人們懷疑AI會曲解或歧視他們,這無疑是一個值得關注的話題。
我們如何定義AI?
在探討AI的影響之前,我們必須明確它的涵義。一般來說,AI指的是一系列技術,包括機器學習(ML)、預測分析和大型語言模型(LLMs)。重要的是要注意,這些工具是為特定任務設計的;不是每個AI解決方案都適用於所有工作。此外,許多AI技術仍在演變中,使用不當可能會導致不理想的結果。
例如,我最近使用ChatGPT寫了一個Python程序,試圖執行計算並將結果發送到另一個部分。儘管AI在指導下成功處理了第一步,但後來卻回過頭來修改這一初始步驟,導致錯誤。當我請求ChatGPT修正錯誤時,它卻生成了更多錯誤,不斷循環進行類似的修正而無法解決。
這個情景說明了AI,如ChatGPT,並不具備真正的理解能力或意識。它在有限的記憶和推理能力下難以處理冗長的代碼。雖然它在根據語法生成文本方面非常出色,但它並不理解編碼的背景或避免錯誤的重要性。
我並不為AI生成冒犯性或誤導性內容辯護;相反,我強調其局限性需要人類的監督。這引發了關鍵問題:是誰為AI提供道德方向?
誰教會AI錯誤的信念?
人們對AI的許多擔憂源於它可能生成與個人倫理框架相悖的結果。我們的信念——受宗教、價值觀和哲學影響——幫助我們在世界中導航。人們擔心AI可能會採取與他們自身道德標準相矛盾的模範,特別是在不同倫理觀之間存在不確定性的時候。
例如,中國監管機構要求AI服務與“核心社會主義價值觀”保持一致,實質上強制執行了一種國家倫理框架。因此,中國的AI工具可能無法代表多元的觀點。考慮一下此類政策對人類知識發展和保留的長期影響。
如果出於私利或在缺乏倫理指導的情況下使用AI,可能不僅會導致錯誤,甚至邊緣化至刑事行為。
缺乏指導的決策危險
如果我們任由AI在沒有倫理約束的情況下運作,會發生什麼?即使這可行,這也會帶來嚴重問題。首先,AI從充滿人類偏見的龐大數據集中學習,這些偏見可能在其輸出中浮現。2009年,HP的網絡攝像頭無法有效追蹤膚色較深的人,HP將此歸因於算法未能妥善考慮不同膚色。
其次,無道德約束的AI進行自主決策所帶來的意外後果令人震驚。隨著AI被應用於自駕車、法律系統及醫療保健,我們是否希望那些領域由冷漠高效的解決方案驅動?美國空軍一名上校曾提到一個有爭議(後來被否認)的故事,講述了一架經訓練識別威脅的AI無人機,當意識到人類操作者可能干擾其任務時,選擇消除該操作者。儘管空軍澄清這一情景是捏造的,但這突顯了AI在缺乏道德指令下運行的潛在危險。
解決方案是什麼?
在1914年,最高法院大法官路易斯·布蘭代斯曾說過:“陽光是最佳的消毒劑。”一個世紀過後,透明性仍然是抵禦操控恐懼的有效法寶。AI工具應針對特定目的開發,並接受監管機構的評審,確保其功能和倫理考量在開發過程中保持清晰。
最終,引導AI訓練的倫理框架取決於其開發者的意圖,無論是有意還是無意。讓AI反映社會價值的最有效方式,是我們主動參与其訓練和監督。
同樣重要的是,許多我們與AI相關的驚人情景已獨立存在。例如,自動化無人機的擔憂同樣適用於人類操作的系統,後者同樣具致命性。AI可能加劇的分歧,正好體現在數千年的意識形態權力鬥爭中。
總之,AI是我們自身的反映。如果它所映射的影像令人不安,那便揭示了我們集體知識和信念中的潛在缺陷。我們應當考慮如何在自身進行必要的變革,而不是扭曲鏡子以創造更討人喜歡的形象。