如何培養員工具備類似AI專業人士的思維方式

如果你感到無法解釋的衝動想對這塊石頭微笑,你並不孤單。作為人類,我們經常給物體賦予人類特徵,這種現象稱為擬人化,這在我們與人工智慧的互動中越來越重要。

擬人化表現在我們對聊天機器人說“請”和“謝謝”,或對符合我們期望的生成AI輸出表示欣賞。然而,真正的挑戰在於當我們期望AI在簡單任務上,如總結文章,能同樣應對更複雜的主題,如科學論文選集時。我們常會期望AI能根據多家公司的盈利報告進行市場調研,但當AI提供有關微軟收益的答案時,我們就容易失望。這些任務雖然看似相似,但對AI模型來說卻本質上不同。正如卡西·科齊爾科夫所說:“AI的創造力就像一支畫筆。”用AI提高生產力的主要障礙在於我們能否有效地將其用作工具。

根據經驗,一些用戶在推出微軟Copilot許可證後減少了授權人數,因為用戶沒有覺得它們有價值。這種不匹配源於對AI能力的非現實期望與實際表現之間的差距。我們都經歷過那一刻的頓悟:“哦,AI不擅長這個。”與其放棄生成AI,我們可以培養直覺,更好地理解AI和機器學習,同時避免擬人化的陷阱。

定義機器學習中的智力與推理

我們對智力的定義一直模糊不清。當狗乞求零食時,那是智力行為嗎?猴子使用工具是否展現出智力?同樣,當計算機執行這些任務時,我們可以認為它們是智力的嗎?

直到最近,我一直認為大型語言模型(LLMs)無法真正“推理”。然而,與信賴的AI創始人的討論使我們提出了一個潛在解決方案:一套評估AI推理能力的標準。就像我們有閱讀理解和定量推理的標準,引入針對AI的特定標準可以幫助傳達LLM驅動的解決方案所應具備的推理能力及其不切實際的例子。

AI的非現實期望

人們對其他人所犯的錯誤通常比較寬容。儘管自駕車在統計上比人類駕駛者更安全,但事故仍引發重大反響。當AI在我們預期人類能夠應對的任務上失敗時,這種反應會加劇失望感。許多人將AI比喻為一支巨大的“實習生”樂隊,但機器在某些方面可能失誤,而這是人類所不會的,儘管在很多領域的表現超過人類。所以,不到10%的組織成功開發和實施生成AI項目。與商業價值的不一致和與數據策展相關的意外成本進一步複雜化了這些計劃。

要克服這些障礙並實現項目成功,必須使AI使用者擁有有效使用AI的直覺。

培訓以培養與AI的直覺

培訓對於適應快速發展的AI環境和重新定義我們對機器學習智力的理解至關重要。雖然“AI訓練”一詞聽起來模糊,但可以將其劃分為三個關鍵領域:

1. 安全性:學習負責任地使用AI,避免新出現的AI增強型網絡釣魚詐騙。

2. 知識:理解AI能做什麼,應期望什麼以及可能的陷阱。

3. 準備:熟練高效地使用AI工具提高工作質量。

AI安全性培訓就像給新騎自行車的人戴上護膝和護肘;這可能防止一些擦傷,但無法使他們應對更具挑戰性的情境。相對地,AI準備培訓使團隊能夠最大限度地發揮AI和機器學習的潛力。

你給員工提供越多安全使用生成AI工具的機會,他們就越能熟練識別哪些有效、哪些無效。我們只能推測未來一年會出現的能力,但能將其與明確的推理層次標準聯繫起來,將使你的團隊更好地為成功做好準備。

隨時學會說“我不知道”、尋求幫助,最重要的是,當某個問題超出了特定AI工具的範疇時,學會放下。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles