0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

实战案例 | 299元国产工业级AI核心板部署DeepSeek-R1

眺望电子 2025-03-06 08:30 次阅读

前言:

AIoT领域,搭载Ubuntu系统的眺望T527开发板,仅凭2GB内存便成功运行15亿参数的DeepSeek-R1轻量级大模型!在边缘端上演一场算力革命,这一突破性进展不仅刷新了边缘AI设备的性能天花板,更昭示着低成本、低功耗的AI普惠时代加速到来。


3d53b1be-fa22-11ef-9434-92fbcf53809c.jpg

一、DeepSeek-R1 x Ollama简介


1.1DeepSeek-R1模型

DeepSeek-R1 1.5B作为一款轻量级语言模型,拥有 15 亿参数。该模型不仅在文本生成、对话交互和代码补全领域表现优异,更通过精简参数规模实现了显著效率提升——其优化的推理速度、较低的计算需求以及灵活的部署特性,使得在资源受限的嵌入式设备上也能实现流畅运行,有效降低硬件门槛。该模型具备跨平台兼容性,全面支持 Linux/Windows/macOS 操作系统ARM 架构设备,使开发者无需依赖云端服务即可在本地环境中高效部署 AI 应用。

1.2Ollama开源框架

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。提供了一个简单的方式来加载和使用各种预训练的语言模型,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。不仅仅提供了现成的模型和工具集,还提供了方便的界面和 API,使得从文本生成、对话系统到语义分析等任务都能快速实现。

二、部署实战:Ollama环境下的三步极速部署

2.1Step1 环境搭建

#ollama安装推荐两种方式#官网提供Linux脚本安装curl -fsSL https://ollama.com/install.sh | sh
#手动安装https://github.com/ollama/ollama/releases

2.2Step2 模型加载

ollama run deepseek-r1:1.5b

2.3Step3 实时推理验证


3d932d4e-fa22-11ef-9434-92fbcf53809c.png

已知x²+y²=18,求x+y的最大值

3db1f918-fa22-11ef-9434-92fbcf53809c.png

3dcc6528-fa22-11ef-9434-92fbcf53809c.png

三、T527评估板测试效果

3.1环境说明

3de9df2c-fa22-11ef-9434-92fbcf53809c.jpg

使用眺望电子EVM-T527N开发套件,搭载2GB内存配置,板载运行Ubuntu20.04系统。通过SSH登入主板运行模型,Debug调试口用于监测运行器件资源消耗。


3.1资源监控

Ollama 是一个开源的大模型服务工具,调用的是CPU进行的运算,内存资源和CPU使用消耗较大,在无风扇环境下,温升约30℃。

3e14895c-fa22-11ef-9434-92fbcf53809c.png

3e34b1aa-fa22-11ef-9434-92fbcf53809c.png

3e545118-fa22-11ef-9434-92fbcf53809c.png

结语

当主流AI芯片还在比拼NPU算力时,全志T527用实际表现证明,真正的边缘智能不在于参数堆砌,而在于在严苛资源限制下实现可用、易用、好用的AI赋能。2GB内存跑通Ubuntu系统下15亿参数DeepSeek大模型验证了眺望电子对T527系列处理器的深度优化与强大可靠。这背后是眺望电子在低功耗、低成本AI解决方案领域的技术实力体现。如果您对部署过程感兴趣,欢迎随时与我们联系,我们可以为您提供专业的技术支持,期待与您合作!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    32590

    浏览量

    271905
  • 核心板
    +关注

    关注

    5

    文章

    1055

    浏览量

    30220
  • AIoT
    +关注

    关注

    8

    文章

    1439

    浏览量

    31371
  • DeepSeek
    +关注

    关注

    1

    文章

    641

    浏览量

    442
收藏 人收藏

    相关推荐

    了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择

    DeepSeek-V3 和 DeepSeek-R1 是深度求索公司(DeepSeek)推出的两个不同定位的大模型,其核心差异主要体现在目标场景、能力侧重和技术优化方向上。以下是二者的实
    发表于 02-14 02:08

    添越智创基于 RK3588 开发部署测试 DeepSeek 模型全攻略

    ,Gemma 和其他多种模型,在安装Ollama工具之后,使用以下命令即可一键部署15亿参数的deepseek-r1模型,运行之后如下图所示: ollama run deepseek-r1:1.5b
    发表于 02-14 17:42

    RK3588开发部署DeepSeek-R1大模型的完整指南

    DeepSeek作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,在全球人工智能领域引发广泛关注。DeepSeek-R1作为该系列最新迭代版本,实现了长文本处理效
    发表于 02-27 16:45

    国产工业RK3568核心板-AI人脸识别产品方案

    国产工业RK3568核心板-AI人脸识别产品方案
    的头像 发表于 05-06 14:51 1357次阅读
    <b class='flag-5'>国产</b><b class='flag-5'>工业</b><b class='flag-5'>级</b>RK3568<b class='flag-5'>核心板</b>-<b class='flag-5'>AI</b>人脸识别产品方案

    100%国产化FPGA核心板!骨折价——限时仅售299

    ALINX 推出100% 国产化FPGA核心板 P25G,基于紫光同创 FPGA Logos 芯片设计,满足工业用户 FPGA 国产化选型相关需求。为答谢用户,ALINX推出
    的头像 发表于 09-05 10:58 979次阅读
    100%<b class='flag-5'>国产</b>化FPGA<b class='flag-5'>核心板</b>!骨折价——限时仅售<b class='flag-5'>299</b><b class='flag-5'>元</b>!

    芯动力神速适配DeepSeek-R1大模型,AI芯片设计迈入“快车道”!

    近期,国产大模型 DeepSeek-R1横空出世,迅速成为AI领域的焦点。 芯动力在24小时内完成了与DeepSeek-R1大模型的适配。 Deep
    的头像 发表于 02-07 16:55 340次阅读
    芯动力神速适配<b class='flag-5'>DeepSeek-R1</b>大模型,<b class='flag-5'>AI</b>芯片设计迈入“快车道”!

    deepin UOS AI接入DeepSeek-R1模型

    DeepSeek-R1 模型自发布以来吸引了众多用户关注,为了让 deepin 用户更好地体验这一前沿技术,UOS AI 现已适配接入 DeepSeek-R1 端侧模型!无需忍受服务器崩溃,两步即可在本地独享
    的头像 发表于 02-08 09:52 534次阅读

    DeepSeek-R1本地部署指南,开启你的AI探索之旅

    的进一步使用。 论文链接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf 1|0一、什么是
    的头像 发表于 02-08 10:30 4294次阅读
    <b class='flag-5'>DeepSeek-R1</b>本地<b class='flag-5'>部署</b>指南,开启你的<b class='flag-5'>AI</b>探索之旅

    AIBOX 全系产品已适配 DeepSeek-R1

    国产AI大模型DeepSeek以出色的性价比和高效的模型技术,迅速成为全球AI关注的焦点。Firefly开源团队率先实现AIBOX系列产品对Deep
    的头像 发表于 02-08 17:30 303次阅读
    AIBOX 全系产品已适配 <b class='flag-5'>DeepSeek-R1</b>

    广和通支持DeepSeek-R1蒸馏模型

    近期,国产大模型DeepSeek凭借开放性、更低训练成本、端侧部署等优势,迅速成为增速最快的AI应用之一,推动AI普惠化。目前,广和通高算力
    的头像 发表于 02-11 09:41 324次阅读

    Deepseek R1大模型离线部署教程

    。作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,在全球人工智能领域引发广泛关注。 本文主要说明DeepSeek-R1如何离线运行在EASY-EAI-Orin-Nano(RK3576)硬件上, RK357
    的头像 发表于 02-12 09:37 1035次阅读
    <b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型离线<b class='flag-5'>部署</b>教程

    宇芯基于T527成功部署DeepSeek-R1

    近日,宇芯成功在全志T527 Linux系统上本地部署并运行了DeepSeek-R1 1.5B模型。
    的头像 发表于 02-15 09:06 549次阅读
    宇芯基于T527成功<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek-R1</b>

    Infinix AI接入DeepSeek-R1满血版

    传音控股旗下Infinix品牌正式宣布接入DeepSeek-R1满血版,2月26日起支持XOS 14.5及以上版本的Infinix机型可通过升级使用,3月份将发布的全新NOTE系列也将接入DeepSeek-R1,开启“Infinix A
    的头像 发表于 02-21 16:08 256次阅读

    行芯完成DeepSeek-R1大模型本地化部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地化部署,实现在多场景、多产品中应用。解锁“芯”玩法,开启“芯”未来!
    的头像 发表于 02-24 15:17 339次阅读

    在英特尔哪吒开发套件上部署DeepSeek-R1的实现方式

    随着人工智能技术的快速发展,企业对 AI 模型的部署方式有了更多选择。本地部署 DeepSeek-R1 模型具有以下显著优势,使其成为许多企业和开发者的首选。
    的头像 发表于 03-12 13:38 196次阅读
    在英特尔哪吒开发套件上<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek-R1</b>的实现方式