0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OrangePi KunPeng Pro部署AI模型介绍

嵌入式小生 来源:嵌入式小生 2024-11-16 11:03 次阅读

一、OrangePi Kunpeng Pro简介

OrangePi Kunpeng Pro是一款香橙派联合华为精心打造的高性能板卡,搭载了鲲鹏处理器,可提供8TOPS INT8计算能力,板卡设计很精致,板载资源也非常多:

•拥有以太网Wi-Fi+蓝牙功能,提供多种可选择的网络接入方式。

• 2个USB3.0 Host、1个支持USB3.0的Type-C接口:可接入鼠标、键盘、USB摄像头等设备,方便板卡操作。

• 2个HDMI接口、1 个 MIPI DSI 2 Lane接口,提供两种显示方案。

•引出了40 pin 扩展口,可扩展UARTI2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下图所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡扩展出的功能很多,能够满足很多应用场景和行业的开发需求,本文将描述使用OrangePi Kunpeng Pro来部署AI大模型,记录分析模型运行期间板卡的状态和模型运行效果。

二、环境搭建

(1)首先取出板卡,为板卡接入一个HDMI显示屏、一个无线蓝牙鼠标、一个有线键盘,接着接通电源,完成后如下图所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)随后板卡将自动启动运行openEuler操作系统,接着我们进入终端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存储容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

从上图可知目前可用容量很大,可满足小量级离线模型的存储。

板卡运行openEuler非常流畅,使用体验感非常好。

(4)选择网络接入方式,本文使用Wifi接入。

(5)更改CPU为AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

从上图中可知目前板卡有3个AI CPU和1个control CPU。

接着就进行模型运行环境搭建和模型部署了。

三、模型运行环境搭建

(1)下载Ollama用于启动并运行大型语言模型

由于在线下载Ollama速度较慢,故而使用手动方式安装Ollama,首先从下列地址下载Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后将其通过ssh方式传输到板卡。接着将其重名为ollama,便于命令操作,然后将ollama复制到/usr/bin目录中并赋予可执行权限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系统服务

使用以下命令创建ollama服务描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中编辑如下内容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)启动ollama服务

使用下述命令启动ollama服务:

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)启动ollama

使用下述命令启动ollama:

sudosystemctlstartollama

(5)查看ollama运行状态

使用如下命令查看ollama运行状态:

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

从上图可知目前ollama启动成功。

四、模型部署

通过上述第三小节的步骤后,Ollama模型运行环境就搭建完成,本小节将部署五个模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,测试OrangePi Kunpeng Pro运行模型的实际效果。模型细节如下表所示:

序号 模型 参数 描述
1 qwen 1.8b Qwen是阿里云开发的大型语言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind构建的一系列轻量级的开放模型,大小1.7GB
3 phi3 3.8b phi3是微软开发的开放AI模型系列,3.8b为Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云开发的大型语言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平台公司发行的基础语言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:运行1.8b的qwen模型,CPU负载没有占满,进行问答测试,回答速度较快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:运行2b的gemma模型和运行1.8b的qwen模型效果相似,CPU负载同样没有占满,进行问答测试,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:运行3.8b的phi3模型,进行问答测试,回答速度变慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:运行4b的qwen模型,进行问答测试,回答问题速度明显变慢:计算生成答案的速度变慢,打印文字的速度也变慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:运行7b的llama2模型,CPU满负载了,进行问答测试,回答问题速度也明显变得很慢:计算生成答案的速度变慢,打印文字的速度也变慢了。

五、实际效果

上述第四小节描述了运行五个模型的实际使用效果,本小节附上运行2b的gemma模型的效果,如下图所示:

(注:因gif图对视频有所处理,以实际运行效果为准!)

六、总结

OrangePi Kunpeng Pro板卡是一块拥有较高计算性能的板卡,本文使用该板卡部署了五个模型(以本文所描述模型为参考),对于1.8b和2b量级的模型来说运行效果还可以,体验较好;对于3.8b和4b量级的模型来说,体验感有所下降,一是计算生成答案的过程变长,二是文字输出存在断续;对于7b量级的模型,体验感更是降了一个层次,文字输出存在明显的断续了。

体验感是一个非理性的名词,因人而异,不同的场景和模型,不同的使用者都可能存在不同的体验,本文所有内容仅供参考和评测!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    32328

    浏览量

    271425
  • 板卡
    +关注

    关注

    3

    文章

    119

    浏览量

    16944
  • 模型
    +关注

    关注

    1

    文章

    3406

    浏览量

    49457

原文标题:玩玩OrangePi KunPeng Pro部署AI模型

文章出处:【微信号:嵌入式小生,微信公众号:嵌入式小生】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    香橙派发布OrangePi 5Plus本地部署Deepseek-R1蒸馏模型指南

    在DeepSeek迅速成为行业焦点之际,香橙派昇腾系列产品已经率先完成了与DeepSeek模型的深度适配,通过在边缘进行离线部署,帮助用户实现高效端侧智能,确保数据处理的安全性和可控性。紧接着,香橙
    的头像 发表于 02-19 16:14 442次阅读
    香橙派发布<b class='flag-5'>OrangePi</b> 5Plus本地<b class='flag-5'>部署</b>Deepseek-R1蒸馏<b class='flag-5'>模型</b>指南

    云轴科技ZStack智塔携手昇腾AI实现DeepSeek模型部署

    DeepSeek V3/R1/ Janus Pro三种模型的高效部署,并充分发挥DeepSeek开源模型和低成本高性能特点,为企业提供安全高效的AI
    的头像 发表于 02-18 09:59 193次阅读
    云轴科技ZStack智塔携手昇腾<b class='flag-5'>AI</b>实现DeepSeek<b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    C#集成OpenVINO™:简化AI模型部署

    什么是OpenVINO 工具套件? OpenVINO 工具套件是一个用于优化和部署人工智能(AI模型,提升AI推理性能的开源工具集合,不仅支持以卷积神经网
    的头像 发表于 02-17 10:03 1275次阅读
    C#集成OpenVINO™:简化<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    添越智创基于 RK3588 开发板部署测试 DeepSeek 模型全攻略

    DeepSeek 模型部署与测试,开启这场充满挑战与惊喜的技术探索之旅。 RK3588 开发板:AI 性能担当 RK3588 开发板基于先进的 8nm LP 制程工艺精心打造,其硬件配置堪称豪华,在
    发表于 02-14 17:42

    中兴通讯AiCube:破解AI模型部署难题

    AI领域,DeepSeek等国产模型凭借算法优化,成功将训练与推理的综合成本降低了40%以上,这一突破使得中小型企业也能轻松参与AI创新。然而,随着AI技术的广泛应用,
    的头像 发表于 02-13 09:11 287次阅读

    企业AI模型部署攻略

    当下,越来越多的企业开始探索和实施AI模型,以提升业务效率和竞争力。然而,AI模型部署并非易事,需要企业在多个层面进行细致的规划和准备。下
    的头像 发表于 12-23 10:31 289次阅读

    AI模型部署边缘设备的奇妙之旅:目标检测模型

    并非易事,它涉及到从选择合适的算法架构到针对特定硬件平台进行优化等一系列复杂的工作。 接下来,我们将详细介绍如何在资源受限的边缘设备上成功部署目标检测模型,探索其背后的原理和技术,并讨论解决该领域内常见
    发表于 12-19 14:33

    AI模型部署边缘设备的奇妙之旅:如何实现手写数字识别

    处理,而不必传输到外部服务器,这有助于更好地保护用户隐私和数据安全。 然而,边缘计算也带来了独特的挑战,特别是在资源受限的嵌入式系统中部署复杂的AI模型时。为了确保神经网络模型能够在边
    发表于 12-06 17:20

    AI模型部署和管理的关系

    AI模型部署与管理是AI项目成功的两大支柱,它们之间既相互独立又紧密相连,共同推动着AI技术从实验室走向实际应用。
    的头像 发表于 11-21 10:02 263次阅读

    如何在STM32f4系列开发板上部署STM32Cube.AI

    已下载STM32Cube.AI扩展包,但是无法使用,感觉像是没有部署AI模型,我是想要通过摄像头拍照,上传图像后,经过开发板处理器进行AI
    发表于 11-18 09:39

    企业AI模型部署怎么做

    AI模型部署作为这一转型过程中的关键环节,其成功实施对于企业的长远发展至关重要。在此,AI部落小编为您介绍企业
    的头像 发表于 11-04 10:15 275次阅读

    香橙派OrangePi 5 Pro性能全面测试!

    OrangePi5Pro显然是RaspberryPi5的替代产品。让我们看看它的价格、性能和可用性如何。OrangePi5Pro的硬件参数我就不具体介绍了,大家可以在香橙
    的头像 发表于 10-08 15:58 808次阅读
    香橙派<b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b>性能全面测试!

    树莓派5最大的竞争对手OrangePi 5 Pro ,新增4GB/8GB版本

    OrangePi5Pro被称为树莓派5最大的竞争对手。继OrangePi5Pro(16GB)版本发布一个月之后,香橙派近日再推出OrangePi5Pro4GB/8GB版本。除了在运行内存方面有所差异
    的头像 发表于 05-07 10:00 957次阅读
    树莓派5最大的竞争对手<b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b> ,新增4GB/8GB版本

    OrangePi 5 Pro正式开售,树莓派5真正的挑战者来了

    在刚刚举行不久的3.24香橙派开发者大会上,香橙派发布了一款重磅产品OrangePi5Pro,该产品在OrangePi5系列前代产品的基础上焕然升级,以其性能引领性、价格颠覆性再次改变全球开发板市场
    的头像 发表于 04-08 13:54 984次阅读
    <b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b>正式开售,树莓派5真正的挑战者来了

    使用CUBEAI部署tflite模型到STM32F0中,模型创建失败怎么解决?

    看到CUBE_AI已经支持到STM32F0系列芯片,就想拿来入门嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直无法创建成功。 查阅CUBE
    发表于 03-15 08:10