AI21 CEO表示,轉換器不適合用於AI代理,因為存在錯誤傳播問題。

隨著企業組織追求智能化的未來,AI模型的架構成為一大挑戰。AI21的CEO Ori Goshen 強調,為了創造更高效的AI代理,需探索替代的模型架構,因為當前主流的Transformer模型存在局限,阻礙了多代理生態系統的建立。

在最近的訪談中,Goshen 提到了Transformer架構的缺點:隨著上下文處理的加長,計算強度隨之增加,導致性能下降和成本上升。他提到,“代理需要在每一步中對大型上下文進行多次調用,這使得Transformer成為瓶頸。”

AI21主張更靈活的模型架構方法,提出雖然Transformer可以作為一種可行的選擇,但不應是默認架構。公司的JAMBA架構(Joint Attention and Mamba的縮寫)利用普林斯頓和卡內基梅隆大學研究人員開發的Mamba框架,提高推論速度並擴展上下文能力。

Goshen解釋說,基於Mamba的模型能提升記憶表現,從而增強代理的功能,特別是在與其他模型整合時。AI代理的近期流行,主要源於基於Transformer的LLM存在的限制。

“代理仍在開發中——尚未廣泛投入生產的主要原因是可靠性。由於LLM本質上是隨機的,必須實施額外措施以確保必要的可靠性,”Goshen表示。

今年,AI代理已成為企業AI的主要趨勢,多家公司已推出新的代理開發平台。例如,ServiceNow升級了其Now Assist AI平台,新增了AI代理的庫,而Salesforce則推出了其Agentforce。Slack也允許用戶整合來自不同公司的代理,包括Salesforce、Cohere和Adobe。

Goshen認為,隨著模型和架構的有效組合,對AI代理的興趣將日益增加。他評論道:“當前的用例,如聊天機器人的問答功能,主要類似於增強搜索。真正的智能在於連接和檢索來自多個來源的多元資訊。”AI21正在積極開發其AI代理產品以滿足這一需求。

隨著Mamba架構的日益受到重視,Goshen作為支持者,堅持認為Transformer的成本和複雜性降低了其實際應用的潛力。與依賴固定的注意力機制的Transformer不同,Mamba專注於優化內存使用及有效利用GPU處理能力。

對Mamba的需求日益增加,其他開發者也開始推出基於Mamba的模型,例如Mistral的Codestral Mamba 7B和Falcon的Falcon Mamba 7B。然而,Transformer仍然主導著作為基礎模型的標準選擇,包括OpenAI成功的GPT。

最終,Goshen指出,企業在不同架構中優先考量可靠性。然而,組織應該保持警惕,對那些承諾提供廣泛解決方案的迷人演示保持謹慎。他警告說:“我們正處於一個迷人演示普遍存在的階段,但我們仍在向適用產品階段過渡。雖然企業AI對研究具有價值,但尚未準備好用於關鍵業務決策。”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles