開發生成式人工智慧基礎模型的解決方案
我們已經探索生成式人工智慧基礎模型超過一年。最初專注於大型語言模型(LLMs),如今多模態模型的興起讓我們能夠理解和生成圖像及視頻,使得“基礎模型”(FM)這一術語更為適切。隨著這一領域的發展,我們正在識別有效將這些解決方案投入生產的模式,並透過定制信息來滿足多樣化需求,創造有意義的影響。未來有許多變革機遇,將提升LLMs所帶來的複雜性和價值,但這些進步也需謹慎管理成本。
理解基礎模型
為了有效利用FMs,我們必須理解它們的運作原理。這些模型將文字、圖像、數字和聲音轉換為標記,預測最相關的“下一個標記”來吸引使用者。過去一年來的反饋優化了Anthropic、OpenAI、Mixtral和Meta等公司所開發的核心模型,使其更符合用戶的期待。
對標記格式的重要性認識的增強,提升了性能——YAML通常優於JSON。社群也開發了“提示工程”技術以增強模型的回應。例如,利用少量提示提供範例來引導模型輸出,而思路鏈提示則能為複雜查詢帶來更全面的答案。許多使用生成式人工智慧聊天服務的活躍用戶可能已經注意到這些改進。
LLM能力的進展
擴展LLMs的信息處理能力是其進步的基礎。先進模型現在能夠處理多達100萬個標記,相當於一本完整的大學教科書,讓用戶前所未有地掌控上下文的相關性。例如,使用Anthropic的Claude,我協助一位醫生理解一份複雜的700頁指導文件,在相關入學考試上達到了85%的準確率。此外,基於概念而非關鍵詞檢索信息的技術也進一步豐富了知識基礎。
新出現的嵌入模型,如titan-v2和cohere-embed,通過將多樣來源轉換為來源於廣泛數據集的向量,實現相關文本的檢索。創新如向量查詢集成於數據庫系統及專門的向量數據庫(如Turbopuffer)使得大規模文檔集合的可擴展性得以實現,且性能損失最小。儘管有這些進展,解決方案的擴展仍然具有挑戰性,需要多學科合作來優化LLM應用中的安全性、可擴展性、延遲、成本效益和回應質量。
與Gen 2.0及代理系統的創新
儘管最近的改進提升了模型性能和應用可行性,我們正邁向一個新的演變:整合多種生成式人工智慧功能。初步階段包括創建手動行動鏈,例如BrainBox.ai的ARIA系統,該系統能解釋設備故障的圖像,訪問相關知識庫,並查詢物聯網數據流以建議解決方案。然而,這些系統在邏輯上存在局限,既需要開發者提供硬編碼定義,亦受限於簡單的決策路徑。
隨後的階段,Gen AI 2.0,設想將利用多模態模型的敏捷代理系統與推理引擎(通常是LLM)結合。這些代理將問題分解為可管理的步驟,並選擇合適的AI驅動工具進行執行,根據每個階段的結果調整其方法。這種模塊化的方法提升了靈活性,使系統能夠處理複雜任務。例如,Cognition Labs的Devin.ai可以自動化端到端的編程任務,減少大量人為干預並快速完成過程,而亞馬遜的Q for Developers則促進Java的自動升級。
在醫療領域,醫療代理系統可以綜合電子健康記錄(EHR)數據、影像、基因信息和臨床文獻,提供全面的治療建議。此外,多個專業代理可協作生成詳細的患者檔案,自動執行多步知識流程,減少對人類監督的需求。
不過,這些先進系統因大規模的LLM API調用所需的高額成本能令人擔憂,因此在硬體(如NVIDIA Blackwell)、框架(Mojo)、雲端(AWS Spot Instances)和模型配置(參數大小、量化)等領域的LLM優化需同步推進,以有效控制開支。
結論
隨著組織在LLMs部署上的演進,重點將轉向快速和高效地實現高質量的輸出。鑑於變化的快速步伐,與優化生成式人工智慧解決方案方面經驗豐富的團隊合作將是成功的關鍵。