Mistral AI 突破傳統:發布新型開源大語言模型的 Torrent 連結

在一次大膽的舉措中,開源模型創業公司Mistral AI今日發佈了一款全新的大型語言模型(LLM),並僅提供了一個下載鏈接。這一做法與谷歌本週推出的Gemini形成鮮明對比,OpenAI的Andrej Karpathy形容其為“過於排練的專業發布視頻,討論AI的革命”。

谷歌的一個演示視頻因過度編輯和舞台化展示能力而受到嚴厲批評。相比之下,Mistral則採取了直接的方式,分享了其新模型Mixtral 8x7B的下載鏈接。一篇Reddit貼文將Mistral的LLM形容為“縮小版的GPT-4”,指出其為混合專家模型(MoE),擁有8位專家,每位專家的參數數量為70億。該貼文提到,在每個標記的推理過程中,僅激活2位專家,並推測GPT-4也可能為一個MoE模型,擁有8位專家,每位具有1110億參數及550億的共享注意力參數,總計達1660億參數。

AI顧問及“以色列機器與深度學習”社群創辦人Uri Eliabayev強調了Mistral在此類發布中的聲譽,表示其“無需任何論文、博客、代碼或新聞稿。”開源AI倡導者Jay Scambler也表示,雖然這次發布“確實不尋常”,但成功引發了大量討論與關注。

這種游擊市場行銷策略在AI社群中廣受好評。企業家George Hotz對此發布表示讚賞,而1X Technologies的AI副總裁Eric Jang以及前谷歌機器人研究者亦對Mistral的品牌表達了熱情,稱其為“我在AI領域的最愛之一”。

位於巴黎的Mistral AI最近在Andreessen Horowitz主導的一輪重大融資中達到了20億美元的估值。該公司以創下歐洲歷史上最大118億美元的種子輪融資而聞名,並於去年九月推出了其首款大型語言AI模型Mistral 7B。公司在歐盟AI法案的討論中也處於前沿,據報導正在遊說減少對開源AI的監管。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles