英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用

AI新闻5个月前发布 SUYEONE
1.3K 0 0

IT之家 7 月 19 日消息,英伟达联合法国初创公司 Mistral AI,今天发布了全新的 Mistral-NeMo AI语言模型,拥有 120 亿个参数,上下文窗口(AI 模型一次能够处理的最大 Token 数量)为 12.8 万个 token。

VentureBeat 与 Midjourney 合作制作

Mistral-NeMo AI 大模型主要面向企业环境,让企业不需要使用大量云资源的情况下,实施人工智能解决方案。

由于 Mistral NeMo 依赖于标准架构,因此企业在使用过程中可直接替换任何使用 Mistral 7B 的系统。

英伟达是 GPU 制造和人工智能硬件领域的巨头,而 Mistral AI 则是欧洲人工智能领域的后起之秀,双方的合作标志着人工智能行业的企业解决方案发生了重大转变。

行业分析师认为,这一版本可能会极大地颠覆人工智能软件市场。Mistral-NeMo 的推出代表着企业人工智能部署的潜在转变。

通过提供一种可在本地硬件上高效运行的模式,英伟达和 Mistral AI 正在解决阻碍许多企业广泛采用人工智能的问题,如数据隐私、延迟以及与基于云的解决方案相关的高成本。

此举有可能创造公平的竞争环境,让资源有限的小型企业也能利用人工智能功能,而这些功能以前只有拥有大量 IT 预算的大型企业才能使用。

然而,这一发展的真正影响将取决于该模型在实际应用中的表现,以及围绕该模型开发的工具和支持生态系统。

该模型以 Apache 2.0 许可发布,允许商业使用,这将加速其在企业环境中的应用。IT之家附上官方公布的该 AI 模型性能参数如下:

表 1:Mistral NeMo 基本模型与 Gemma 2 9B 和 Llama 3 8B 的性能比较。

图 1:Mistral NeMo 在多语言基准测试中的表现。

图 2:Tekken 压缩率

Mistral NeMo 指令调整模型精度。使用 GPT4o 根据官方参考文献进行的评估。

参考

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

Source link

© 版权声明

相关文章

暂无评论

暂无评论...
☺一键登录开启个人书签等功能!