5月11日讯,多方企业与机构联手的日本研究小组昨日公布了Fugaku-LLM大型模型。该模型最大特点在于在Arm架构超算“富岳”上完成了训练。
自2023年5月起,Fugaku-LLM模型的开发工作开始展开,最初参与团队包括富士通、东京工业大学、日本东北大学以及日本理化学研究所(简称理研)。
至同年8月,又有三家合作伙伴——名古屋大学、CyberAgent(同时也是游戏巨头Cygames的母公司)及HPC-AI领域创新企业Kotoba Technologies加入项目。
研究团队在昨日的新闻发布会上表示,他们成功利用富岳超算的强大性能,使矩阵乘法运算速度提升6倍,通信速度提高3倍,从而证明大型纯CPU超算同样适用于大模型训练。
Fugaku-LLM模型参数规模达13B,成为日本国内最大的大型语言模型。
该模型采用13824个富岳超算节点,在3800亿个Token上进行训练,其中60%为日语数据,其余40%涵盖英语、数学、代码等内容。
研究团队表示,Fugaku-LLM模型能够在交流过程中自然运用日语敬语等特殊表达方式。
在测试结果方面,该模型在日语MT-Bench模型基准测试中的平均得分高达5.5,位列基于日本语料资源的开放模型之首;在人文社科类别的测试中更获得了9.18的高分。
现如今,Fugaku-LLM模型已在GitHub和Hugging Face平台公开发布,外部研究人员和工程师可在遵循许可协议的基础上,将该模型应用于学术和商业领域。
-
cpu
+关注
关注
68文章
10548浏览量
207672 -
模型
+关注
关注
1文章
2841浏览量
48068 -
语言模型
+关注
关注
0文章
466浏览量
10171 -
大模型
+关注
关注
2文章
1884浏览量
1506
发布评论请先 登录
相关推荐
超算训练大模型,不浪费一丁点计算资源
富士通使用富岳超级计算机训练LLM
日本超算富岳助力构建大规模语言模型Fugaku-LLM
了解大型语言模型 (LLM) 领域中的25个关键术语
![了解大型语言<b class='flag-5'>模型</b> (<b class='flag-5'>LLM</b>) 领域中的25个关键术语](https://file.elecfans.com/web2/M00/4E/DC/poYBAGLCjeiALm_WAAAYmfR7Qec474.png)
【大语言模型:原理与工程实践】大语言模型的预训练
基于NVIDIA Megatron Core的MOE LLM实现和训练优化
![基于NVIDIA Megatron Core的MOE <b class='flag-5'>LLM</b>实现和<b class='flag-5'>训练</b>优化](https://file1.elecfans.com/web2/M00/C6/46/wKgaomX85HSAYXw6AAANlNSD8a0224.jpg)
2023年LLM大模型研究进展
优于10倍参数模型!微软发布Orca 2 LLM
NVIDIA 为部分大型亚马逊 Titan 基础模型提供训练支持
![NVIDIA 为部分大型亚马逊 Titan 基础<b class='flag-5'>模型</b>提供<b class='flag-5'>训练</b>支持](https://file1.elecfans.com//web2/M00/B3/96/wKgZomVnOoKAIrzWAACT_z650WI921.png)
Long-Context下LLM模型架构全面介绍
![Long-Context下<b class='flag-5'>LLM</b><b class='flag-5'>模型</b>架构全面介绍](https://file1.elecfans.com/web2/M00/B1/72/wKgaomVkY_yAGWODAAANb0susLQ426.png)
从原理到代码理解语言模型训练和推理,通俗易懂,快速修炼LLM
![从原理到代码理解语言<b class='flag-5'>模型</b><b class='flag-5'>训练</b>和推理,通俗易懂,快速修炼<b class='flag-5'>LLM</b>](https://file1.elecfans.com/web2/M00/A3/C8/wKgZomUJW1-ARhvPAAAN_GEnaZ8076.png)
大语言模型(LLM)预训练数据集调研分析
![大语言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)预<b class='flag-5'>训练</b>数据集调研分析](https://file1.elecfans.com//web2/M00/A3/D6/wKgZomUKEIKAbs69AAZcfztKYP4114.png)
开源大模型FLM-101B:训练成本最低的超100B参数大模型
![开源大<b class='flag-5'>模型</b>FLM-101B:<b class='flag-5'>训练</b>成本最低的超100B参数大<b class='flag-5'>模型</b>](https://file1.elecfans.com/web2/M00/A4/11/wKgaomUAIfSACSnuAAArXgW7Drg804.png)
评论