關於人工智慧驅動聊天機器人的提醒
人工智慧驅動的聊天機器人,如 ChatGPT,可能會自信地提供虛假的信息,就像 GPS 錯誤地指引你駛入湖中。這一提醒源於 Nieman Lab 最近進行的一項實驗,旨在檢驗 ChatGPT 是否能準確提供與 OpenAI 有利可圖合約的新聞機構文章的鏈接。
結果令人擔憂。ChatGPT 提供的並非正確的網址,而是完全虛構的鏈接,導致 404 錯誤頁面。業界將這種現象稱為「幻覺」,這個術語恰如其分地形容了一個系統自信地誤述信息。Nieman Lab 的 Andrew Deck 要求 ChatGPT 為十家主要出版商生成專屬文章的鏈接,結果與之前的測試一致,特別是涉及 Business Insider 的測試,產生了同樣錯誤的網址。
OpenAI 的一位代表向 Nieman Lab 承認,該公司仍在開發一個旨在將對話式 AI 能力與實時新聞內容結合的系統。這個系統旨在確保正確歸屬和準確鏈接來源資料,但有關發布時間和可靠性的詳細信息仍不明朗。
儘管存在這些不確定性,新聞機構仍持續向 OpenAI 的模型提供大量內容,以獲取金錢補償,這常常在過程中犧牲了他們的完整性。與此同時,AI 公司卻利用來自各種來源的未合約內容來訓練其模型。微軟的 AI 負責人 Mustafa Suleyman 將所有已發佈的互聯網內容視為「自由軟件」,進一步強化了一種剝削文化。本文撰寫時,微軟的市場價值達到 3.36 兆美元。
關鍵結論顯而易見:如果 ChatGPT 在編造網址,那麼它也可能在編造事實。本質上,生成式 AI 僅作為一種進階自動完成功能,僅僅預測順序中下一個合乎邏輯的單詞,而不具備真正的理解。例如,當我測試幾個主要聊天機器人以協助解題《紐約時報》拼字比賽時,它們遇到了相當大的困難。這表明,依賴生成式 AI 獲取事實信息的風險極高。