随着深度求索(DeepSeek)大模型的发布引发行业热议,研华科技基于昇腾Atlas平台边缘AI Box MIC-ATL3S正式发布与Deepseek R1模型的部署流程。该平台依托昇腾芯片的强大异构计算能力,结合研华边缘AI Box高可靠特点,通过模型轻量化、算子适配等技术实现大模型边缘端部署。
硬件部署/
CPU:Atlas 310P
10个DaVinciV200 AI core,主频最高达1.08GHz
16个64位TaishanV200M处理器核,核主频最高1.9GHz
8个DaVinciV200 Vector core,主频最高达1GHz
AI算力:176TOPS INT8
操作系统:OpenEuler
模型:DeepSeek-R1
推理模型/
根据MIC-ATL3S硬件规格,我们选取了DeepSeek-R1-Distill-Qwen-1.5B这个精度和对硬件配置要求相对平衡的蒸馏模型进行适配和部署。
部署步骤/
昇腾310P + openEuler22.03部署deepseek-R1
1. 安装驱动包以及CANN
前往昇腾社区获当前芯片版本的驱动、FW、以及CANN(昇腾异构计算架构)
driver:Ascend-hdk-310p-npu-driver_xxxxx_linux-aarch64_chip-enable.run Firmware:Ascend-hdk-310p-npu-firmware_xxxxx_chip-enable.run CANN:Ascend-cann-toolkit_xxxxx_linux-aarch64.run
2. 安装依赖组件
3. 安装mindspore (昇思模型框架)
4. DeepSeek-R1模型拉取
拉取模型指令,以1.5B为例
yum install git-lfs -y git lfs install git clone https://ai.gitee.com/hf-models/DeepSeek-R1-Distill-Qwen-1.5B
克隆完成示例如下,包含HF完整的仓库:
5. 模型转换
下载后的模型为safetensors格式,还不能直接使用,先用transformers转换为ONNX格式,再使用atc转换为OM(昇腾)格式才能使用。
创建python脚本将safetensors格式转换为ONNX格式,最终转换为OM格式。
执行脚本后会生成对应模型文件,生成对应格式模型文件 执行:
Python3 convert.py ./convert.sh
最后,需要用一个简单的python脚本去做互动窗口,运行指令:python3 deepseek_r1.py
示例:
总结:目前研华进行MIC-ATL3S适配更多Deepseek模型,以及与生态伙伴展开具体应用场景测试,后续我们会持续公布研华边缘AI平台产品的部署&测试内容,敬请关注。
研华昇腾310系列边缘AI平台
研华基于昇腾Atlas 310系列平台开发出三款不同形态的边缘AI产品:工业标准化AI模组、边缘AI开发套件以及边缘AI盒子。此系列产品算力高达176 Tops,专注于工业场景下的细分应用。同时,在软件方面,研华聚焦底层开发,定期更新SDK套件以满足客户的开发需求,并自主研发工业领域远程部署和管理工具。
-
AI
+关注
关注
87文章
32867浏览量
272341 -
研华
+关注
关注
0文章
393浏览量
38958 -
昇腾
+关注
关注
1文章
149浏览量
6749 -
DeepSeek
+关注
关注
1文章
687浏览量
534
原文标题:研华正式发布国产化昇腾AI Box与Deepseek R1模型部署全流程!
文章出处:【微信号:研华智能地球,微信公众号:研华智能地球】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
【幸狐Omni3576边缘计算套件试用体验】DeepSeek 部署及测试
RK3588开发板上部署DeepSeek-R1大模型的完整指南
OpenAI O3与DeepSeek R1:推理模型性能深度分析
添越智创基于 RK3588 开发板部署测试 DeepSeek 模型全攻略
IBM在watsonx.ai平台推出DeepSeek R1蒸馏模型
了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择
DeepSeek模型成功部署,物通博联在 AI 赋能工业上持续探索、不断前行
Gitee AI 联合沐曦首发全套 DeepSeek R1 千问蒸馏模型,全免费体验!

部署DeepSeek R1于AX650N与AX630C平台

评论