IT之家 6 月 30 日消息,Meta 前天推出了一款名为“LLM Compiler”的模型,该模型基于 Meta 现有的 Code LLAMA 打造,主打代码优化,目前相关模型已登陆 Hugging Face,提供 70 亿参数及 130 亿参数两个版本,允许学术及商业使用,IT之家附项目地址如下:点此访问。
Meta 认为,尽管业界各大语言模型已在各种编程代码任务中展现了出色的能力,但此类模型在代码优化还有进步空间,目前推出的 LLM Compiler 模型便是一款专为优化代码任务设计的预训练模型,能够模拟编译器对代码进行优化,或将“已经过优化的代码转换回原本的语言”。
IT之家获悉,LLM Compiler 在 5460 亿个 LLVM-IR 和汇编代码标记的庞大语料库上进行了训练,据称能够达到 77% 的“代码优化潜力”,开发者可以自由将相关模型配合其他 AI 模型一起使用,从而改善生成代码的质量。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...