背景
AI大模型技术的持续进步正在推动千行百业智能化升级。近日,Meta、Microsoft相继发布具有里程碑意义的Llama 3系列和Phi-3系列模型,其中Llama 3包括8B、70B两种规格,Phi-3包括mini(3.8B)、small(7B)、medium(14B)三种规格。为了进一步给开发者提供更多尝鲜,爱芯元智的NPU工具链团队迅速响应,已基于AX650N平台完成 Llama 3 8B和Phi-3-mini模型适配。
Llama 3
上周五,Meta发布了Meta Llama 3系列语言模型(LLM),具体包括一个8B模型和一个70B模型在测试基准中,Llama 3模型的表现相当出色,在实用性和安全性评估中,与那些市面上流行的闭源模型不相上下。
在架构层面,Llama 3选择了标准的仅解码(decoder-only)式Transformer架构,采用包含128K token词汇表的分词器。Llama 3使用了超过15T的公开数据进行训练,其中5%为非英文数据,涵盖30多种语言,训练数据量是前代Llama 2的七倍。
根据Meta的测试结果,Llama 3 8B模型在MMLU、GPQA、HumanEval等多项性能基准上均超过了Gemma 7B和Mistral 7B Instruct,70B模型则超越了名声在外的闭源模型Claude 3的中间版本Sonnet,和谷歌的Gemini Pro 1.5相比三胜两负。
实际上板结果
目前AX650N已经完成了Llama 3 8B Int8版本的适配,若采用Int4量化,每秒token数还能再翻一倍,能满足正常的人机交流。
Phi-3
Llama 3刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。
本周二,微软发布了自研小尺寸模型Phi-3。尽管Phi-3-mini被优化至可部署在手机上,但它的性能可以与Mixtral 8x7B和GPT-3.5等模型相媲美。微软表示,该创新主要在于用了质量更好的训练数据集。
实际上板结果
目前AX650N已经完成了Phi-3-mini Int8版本的适配,已能满足正常的人机交流。
其他成果
AX650N能第一时间完成Llama 3和Phi-3的适配,源于今年以来相关团队悄悄完成了现有NPU工具链针对大语言模型的支持和调优。目前除了Llama 3之外,已经完成了Llama 2、TinyLlama、Phi-2、Qwen1.5、ChatGLM3等国内外主流的开源大语言模型适配。
审核编辑:刘清
-
NPU
+关注
关注
2文章
255浏览量
18507 -
爱芯元智
+关注
关注
1文章
70浏览量
4814 -
LLM
+关注
关注
0文章
256浏览量
297 -
AI大模型
+关注
关注
0文章
307浏览量
275
原文标题:爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及
文章出处:【微信号:爱芯元智AXERA,微信公众号:爱芯元智AXERA】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论