Mistral AI 突破常规:发布新开源 LLM 的 Torrent 链接

在一项大胆的举措中,开源模型初创公司 Mistral AI 今天发布了一款新的大型语言模型(LLM),并仅提供了一个下载链接。这一做法与谷歌此次推出的 Gemini 模型形成鲜明对比,OpenAI 的 Andrej Karpathy 指出,谷歌的发布会更像是“一段过于排练的专业视频,讨论人工智能的革命。”

谷歌的一段演示视频因过度编辑和摆拍而受到强烈批评,而 Mistral 选择了更直白的方式,直接分享了他们的新模型 Mixtral 8x7B 的下载链接。一篇 Reddit 帖子将 Mistral 的 LLM 描述为“缩小版的 GPT-4”,并指出它是一个混合专家模型(MoE),具有 8 个专家,每个专家拥有 70 亿个参数。曝光的帖子提到,在推理每个令牌时,只有 2 个专家被激活,并猜测 GPT-4 可能也是一个 MoE 模型,具有 8 个专家,每个专家有 1110 亿个参数,以及 550 亿个共享注意力参数,总计 1660 亿个参数。

AI 顾问及“以色列机器与深度学习”社区创始人 Uri Eliabayev 强调,Mistral 在此类发布上的声誉——“没有任何论文、博客、代码或新闻稿。”开源 AI 拥护者 Jay Scambler 也表示,尽管这一发布“确实不寻常”,但成功引发了广泛关注。

这种游击营销策略在 AI 社区内广受赞誉。企业家 George Hotz 对这一发布作出了评论,而 1X Technologies 的 AI 副总裁、前谷歌机器人研究员 Eric Jang 则对 Mistral 表达了热情,称其为“我在 AI 领域最喜欢的品牌之一。”

巴黎的 Mistral AI 最近在 Andreessen Horowitz 领导的主要融资轮中达到 20 亿美元的估值。该公司已因创下 1.18 亿美元的种子轮融资记录而备受关注,这也是欧洲历史上最大的一轮融资。此外,Mistral AI 还是欧盟 AI 法案讨论的前沿力量, reportedly 在游说减少对开源 AI 的监管。

Most people like

Find AI tools in YBX