0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OrangePi KunPeng Pro部署AI模型介绍

嵌入式小生 来源:嵌入式小生 2024-11-16 11:03 次阅读

一、OrangePi Kunpeng Pro简介

OrangePi Kunpeng Pro是一款香橙派联合华为精心打造的高性能板卡,搭载了鲲鹏处理器,可提供8TOPS INT8计算能力,板卡设计很精致,板载资源也非常多:

•拥有以太网Wi-Fi+蓝牙功能,提供多种可选择的网络接入方式。

• 2个USB3.0 Host、1个支持USB3.0的Type-C接口:可接入鼠标、键盘、USB摄像头等设备,方便板卡操作。

• 2个HDMI接口、1 个 MIPI DSI 2 Lane接口,提供两种显示方案。

•引出了40 pin 扩展口,可扩展UARTI2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下图所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡扩展出的功能很多,能够满足很多应用场景和行业的开发需求,本文将描述使用OrangePi Kunpeng Pro来部署AI大模型,记录分析模型运行期间板卡的状态和模型运行效果。

二、环境搭建

(1)首先取出板卡,为板卡接入一个HDMI显示屏、一个无线蓝牙鼠标、一个有线键盘,接着接通电源,完成后如下图所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)随后板卡将自动启动运行openEuler操作系统,接着我们进入终端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存储容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

从上图可知目前可用容量很大,可满足小量级离线模型的存储。

板卡运行openEuler非常流畅,使用体验感非常好。

(4)选择网络接入方式,本文使用Wifi接入。

(5)更改CPU为AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

从上图中可知目前板卡有3个AI CPU和1个control CPU。

接着就进行模型运行环境搭建和模型部署了。

三、模型运行环境搭建

(1)下载Ollama用于启动并运行大型语言模型

由于在线下载Ollama速度较慢,故而使用手动方式安装Ollama,首先从下列地址下载Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后将其通过ssh方式传输到板卡。接着将其重名为ollama,便于命令操作,然后将ollama复制到/usr/bin目录中并赋予可执行权限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系统服务

使用以下命令创建ollama服务描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中编辑如下内容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)启动ollama服务

使用下述命令启动ollama服务:

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)启动ollama

使用下述命令启动ollama:

sudosystemctlstartollama

(5)查看ollama运行状态

使用如下命令查看ollama运行状态:

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

从上图可知目前ollama启动成功。

四、模型部署

通过上述第三小节的步骤后,Ollama模型运行环境就搭建完成,本小节将部署五个模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,测试OrangePi Kunpeng Pro运行模型的实际效果。模型细节如下表所示:

序号 模型 参数 描述
1 qwen 1.8b Qwen是阿里云开发的大型语言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind构建的一系列轻量级的开放模型,大小1.7GB
3 phi3 3.8b phi3是微软开发的开放AI模型系列,3.8b为Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云开发的大型语言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平台公司发行的基础语言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:运行1.8b的qwen模型,CPU负载没有占满,进行问答测试,回答速度较快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:运行2b的gemma模型和运行1.8b的qwen模型效果相似,CPU负载同样没有占满,进行问答测试,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:运行3.8b的phi3模型,进行问答测试,回答速度变慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:运行4b的qwen模型,进行问答测试,回答问题速度明显变慢:计算生成答案的速度变慢,打印文字的速度也变慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:运行7b的llama2模型,CPU满负载了,进行问答测试,回答问题速度也明显变得很慢:计算生成答案的速度变慢,打印文字的速度也变慢了。

五、实际效果

上述第四小节描述了运行五个模型的实际使用效果,本小节附上运行2b的gemma模型的效果,如下图所示:

(注:因gif图对视频有所处理,以实际运行效果为准!)

六、总结

OrangePi Kunpeng Pro板卡是一块拥有较高计算性能的板卡,本文使用该板卡部署了五个模型(以本文所描述模型为参考),对于1.8b和2b量级的模型来说运行效果还可以,体验较好;对于3.8b和4b量级的模型来说,体验感有所下降,一是计算生成答案的过程变长,二是文字输出存在断续;对于7b量级的模型,体验感更是降了一个层次,文字输出存在明显的断续了。

体验感是一个非理性的名词,因人而异,不同的场景和模型,不同的使用者都可能存在不同的体验,本文所有内容仅供参考和评测!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    29924

    浏览量

    268215
  • 板卡
    +关注

    关注

    3

    文章

    104

    浏览量

    16781
  • 模型
    +关注

    关注

    1

    文章

    3140

    浏览量

    48670

原文标题:玩玩OrangePi KunPeng Pro部署AI模型

文章出处:【微信号:嵌入式小生,微信公众号:嵌入式小生】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    在设备上利用AI Edge Torch生成式API部署自定义大语言模型

    ,从而无缝地将新的设备端生成式 AI 模型部署到边缘设备上。本文是 Google AI Edge 博客连载的第二篇。上一篇文章为大家介绍
    的头像 发表于 11-14 10:23 180次阅读
    在设备上利用<b class='flag-5'>AI</b> Edge Torch生成式API<b class='flag-5'>部署</b>自定义大语言<b class='flag-5'>模型</b>

    AI模型托管原理分析

    AI模型托管是指将训练好的AI模型部署在云端或边缘服务器上,由第三方平台提供模型运行、管理和优化
    的头像 发表于 11-07 09:33 86次阅读

    企业AI模型部署怎么做

    AI模型部署作为这一转型过程中的关键环节,其成功实施对于企业的长远发展至关重要。在此,AI部落小编为您介绍企业
    的头像 发表于 11-04 10:15 85次阅读

    香橙派OrangePi 5 Pro性能全面测试!

    OrangePi5Pro显然是RaspberryPi5的替代产品。让我们看看它的价格、性能和可用性如何。OrangePi5Pro的硬件参数我就不具体介绍了,大家可以在香橙
    的头像 发表于 10-08 15:58 293次阅读
    香橙派<b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b>性能全面测试!

    模型时代的算力需求

    现在AI已进入大模型时代,各企业都争相部署模型,但如何保证大模型的算力,以及相关的稳定性和性能,是一个极为重要的问题,带着这个极为重要的问
    发表于 08-20 09:04

    利用恩智浦云实验室部署AI模型

    如今,人工智能(AI)非常火爆,这个风口该如何把握?作为一个电子工程师,和AI最主要的交集应该就是边缘计算了,具体来讲,就是在一些性能、功耗以及价格相对较低的嵌入式平台上部署和运行AI
    的头像 发表于 08-02 11:46 2656次阅读
    利用恩智浦云实验室<b class='flag-5'>部署</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    英伟达推出Flextron AI框架:赋能灵活高效的AI模型部署

    在人工智能与机器学习领域,随着技术的不断演进,模型的高效部署与适应性成为研究的新热点。近日,英伟达与德克萨斯大学奥斯汀分校携手宣布了一项重大突破——推出了一种名为FLEXTRON的新型灵活模型架构及训练后优化框架,这一创新成果为
    的头像 发表于 07-18 15:22 2551次阅读

    PerfXCloud大模型开发与部署平台开放注册

    PerfXCloud 介绍 PerfXCloud是澎峰科技为开发者和企业量身打造的AI开发和部署平台。它专注于满足大模型的微调和推理需求,为用户提供极致便捷的一键
    的头像 发表于 07-02 10:27 344次阅读
    PerfXCloud大<b class='flag-5'>模型</b>开发与<b class='flag-5'>部署</b>平台开放注册

    树莓派5最大的竞争对手OrangePi 5 Pro ,新增4GB/8GB版本

    OrangePi5Pro被称为树莓派5最大的竞争对手。继OrangePi5Pro(16GB)版本发布一个月之后,香橙派近日再推出OrangePi5Pro4GB/8GB版本。除了在运行内存方面有所差异
    的头像 发表于 05-07 10:00 658次阅读
    树莓派5最大的竞争对手<b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b> ,新增4GB/8GB版本

    OrangePi 5 Pro正式开售,树莓派5真正的挑战者来了

    在刚刚举行不久的3.24香橙派开发者大会上,香橙派发布了一款重磅产品OrangePi5Pro,该产品在OrangePi5系列前代产品的基础上焕然升级,以其性能引领性、价格颠覆性再次改变全球开发板市场
    的头像 发表于 04-08 13:54 692次阅读
    <b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b>正式开售,树莓派5真正的挑战者来了

    使用CUBEAI部署tflite模型到STM32F0中,模型创建失败怎么解决?

    看到CUBE_AI已经支持到STM32F0系列芯片,就想拿来入门嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直无法创建成功。 查阅CUBE
    发表于 03-15 08:10

    AI模型怎么解决芯片过剩?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:42:05

    AI模型可以设计电路吗?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:09:29

    【爱芯派 Pro 开发板试用体验】人体姿态估计模型部署前期准备

    部署模型的整体架构。接下来就回到最开始定的主线上了——人体姿态估计。这篇文章就是记录对一些轻量化人体姿态估计模型的调研,和前期准备。 1、人体姿态估计任务介绍 下面对人体姿态估计任务做
    发表于 01-01 01:04

    【爱芯派 Pro 开发板试用体验】模型部署(以mobilenetV2为例)

    啊抱歉,上周得了一周的流感,人才活过来。。本来还想研究下sam它是怎么部署的,但是时间好像有点来不急,就讲个最简单的efficientNet吧。但是会仔细讲下使用模型部署,实际也就是推理引擎的全过程
    发表于 12-10 16:34