近期,英伟达与Hugging Face及ServiceNow携手推出新品StarCoder2系列LLMs模型,致力于在代码生成领域建立新的行业标杆,凭借诸多优势凸显性能、透明度以及经济性。
此系列共包含三款模型,其中ServiceNow负责训练的30亿参数模型、Hugging Face训练的70亿参数模型以及英伟达训练的150亿参数模型。
新一代模型得以实现,借助Stack v2代码集,该数据集容量是上一代Stack v1的7倍之多。此外,创新性的训练技术使其能够更精准地解析低资源编程语言、数学和程序源代码讨论等内容。
经过619门编程语言的训练后,StarCoder2支持多种专业任务,例如源代码生成、工作流创建以及文本摘要等。英伟达承诺,开发者可借此进行代码填充、高层次代码摘要以及代码片段搜索等操作,以提升工作效率。
相比初版StarCoder LLM,这款30亿参数的最新模型对优质参数进行了更为精确的筛选,性能相当于初版150亿参数模型的StarCoder。
特别值得关注的是,StarCoder2特许使用BigCode Open RAIL-M许可证,无需支付任何版权费用即可享受使用权。IT之家建议有需用户前往BigCode项目GitHub页面下载源代码,同时亦可在Hugging Face获取模型信息。
-
编程语言
+关注
关注
10文章
1937浏览量
34588 -
数据集
+关注
关注
4文章
1205浏览量
24635 -
英伟达
+关注
关注
22文章
3739浏览量
90790
发布评论请先 登录
相关推荐
评论