在一项大胆的举措中,开源模型初创公司 Mistral AI 今天发布了一款新的大型语言模型(LLM),并仅提供了一个下载链接。这一做法与谷歌此次推出的 Gemini 模型形成鲜明对比,OpenAI 的 Andrej Karpathy 指出,谷歌的发布会更像是“一段过于排练的专业视频,讨论人工智能的革命。”
谷歌的一段演示视频因过度编辑和摆拍而受到强烈批评,而 Mistral 选择了更直白的方式,直接分享了他们的新模型 Mixtral 8x7B 的下载链接。一篇 Reddit 帖子将 Mistral 的 LLM 描述为“缩小版的 GPT-4”,并指出它是一个混合专家模型(MoE),具有 8 个专家,每个专家拥有 70 亿个参数。曝光的帖子提到,在推理每个令牌时,只有 2 个专家被激活,并猜测 GPT-4 可能也是一个 MoE 模型,具有 8 个专家,每个专家有 1110 亿个参数,以及 550 亿个共享注意力参数,总计 1660 亿个参数。
AI 顾问及“以色列机器与深度学习”社区创始人 Uri Eliabayev 强调,Mistral 在此类发布上的声誉——“没有任何论文、博客、代码或新闻稿。”开源 AI 拥护者 Jay Scambler 也表示,尽管这一发布“确实不寻常”,但成功引发了广泛关注。
这种游击营销策略在 AI 社区内广受赞誉。企业家 George Hotz 对这一发布作出了评论,而 1X Technologies 的 AI 副总裁、前谷歌机器人研究员 Eric Jang 则对 Mistral 表达了热情,称其为“我在 AI 领域最喜欢的品牌之一。”
巴黎的 Mistral AI 最近在 Andreessen Horowitz 领导的主要融资轮中达到 20 亿美元的估值。该公司已因创下 1.18 亿美元的种子轮融资记录而备受关注,这也是欧洲历史上最大的一轮融资。此外,Mistral AI 还是欧盟 AI 法案讨论的前沿力量, reportedly 在游说减少对开源 AI 的监管。