放大/举着法国国旗的机器人插图,象征性地反映了人工智能在法国因米斯特拉尔而崛起。很难画出法学硕士的图画,因此必须由机器人来完成。 (来源: 盖蒂图片社)
周一,Mistral AI宣布了一种名为 Mixtral 8x7B 的新人工智能语言模型,这是一种具有开放权重的“专家混合”(MoE) 模型,据报道其性能真正与 OpenAI 的GPT-3.5相匹配——这一成就过去曾被其他人声称过但正在受到 OpenAI 的Andrej Karpathy和Jim Fan等 AI 重量级人物的重视。这意味着我们距离拥有 ChatGPT-3.5 级别的人工智能助手更近了一步,只要实施正确,它就可以在我们的设备上本地自由运行。
Mistral总部位于巴黎,由 Arthur Mensch、Guillaume Lample 和 Timothée Lacroix 创立,最近在人工智能领域迅速崛起。它一直在迅速筹集风险投资,成为法国的 OpenAI 反派,支持具有引人注目性能的小型模型。最值得注意的是,Mistral 的模型在本地运行,具有开放权重,与 OpenAI、Anthropic 或 Google 的封闭式 AI 模型相比,可以下载和使用,限制更少。 (在这种情况下,“权重”是代表经过训练的神经网络的计算机文件。)
Mixtral 8x7B 可以处理 32K 令牌上下文窗口,并适用于法语、德语、西班牙语、意大利语和英语。它的工作原理很像 ChatGPT,因为它可以协助完成组合任务、分析数据、排除软件故障和编写程序。 Mistral 声称它的性能优于 Meta 更大的LLaMA 2 70B (700 亿参数) 大型语言模型,并且在某些基准测试上匹配或超过 OpenAI 的 GPT-3.5,如下图所示。