0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

能效比较GPGPU高一个数量级,国产AI芯片让端侧AI大模型高质量落地

吴生semi 来源:电子发烧友网 作者:吴子鹏 2024-07-10 16:28 次阅读
电子发烧友网报道(文/吴子鹏)2024年世界人工智能大会(以下简称:WAIC 2024)依然是一场“百模大战”,不过有一些很明显的变化是:新推出的AI大模型更加注重用户体验;边侧和端侧承载AI大模型的方案越来越多。也就是说,AI大模型不仅完成了从“能用”到“好用”的蜕变,也从高高在上的云端,走到更靠近应用场景的边侧和端侧,这给作为方案核心的推理芯片提出了非常高的要求。

在爱芯元智于WAIC 2024举办的“芯领未来丨智能芯片及多模态大模型论坛”上,爱芯元智创始人、董事长仇肖莘在主旨演讲中表示,大模型真正大规模落地需要云边端三级紧密结合,而边侧和端侧结合的关键在于高能效的边端AI芯片。
爱芯元智创始人、董事长仇肖莘
仇肖莘指出,目前基于爱芯元智AI芯片已经完成非常多款AI大模型的适配,能够支持的参数规模覆盖0.3B-7B。“搭载AI处理器的高效推理芯片将是大模型落地更合理的选择,这也是推进普惠AI的关键所在。”

爱芯智眸AI-ISP和爱芯通元NPU
在AI芯片的研发上,爱芯元智打造了广受业界认可的爱芯智眸AI-ISP和爱芯通元混合精度NPU两大自研核心技术。其中,爱芯智眸AI-ISP是将深度学习算法与传统的ISP处理单元相结合,利用像素级AI处理技术,在各种复杂应用场景中,全面提升成像效果,为后期智能处理提供高质量的图像、视频素材,作为万物智能的“眼睛”感知更多信息,特别是暗光全彩的刚需。

爱芯通元混合精度NPU是以算子为原子指令集的AI计算处理器,采用多线程异构多核设计,实现算子、网络微结构、数据流和内存访问优化,高效支持混合精度算法设计,原生支持Transformer网络结构,为大模型在边缘侧、端侧的应用提供良好的基础。

仇肖莘谈到,爱芯元智现阶段奉行以“AIoT+ADAS”为主的一体两翼战略路线,在AI大模型进入边侧和端侧的过程中,智慧城市和智能汽车都是非常具有代表性的应用场景。“目前端侧大模型落地依然在前期探索阶段,我认为智能汽车、AI手机和AIPC将会是第一批落地的场景,智能驾驶之所以需要端侧大模型原因在于汽车对实时性的要求更高。”

爱芯智眸AI-ISP作为AI芯片的子系统,为解决很多端侧场景图像问题提供了强力支持。比如在智能驾驶场景中,爱芯智眸AI-ISP提供AI星光全彩、AI HDR成像、AI多光谱融合、AI防抖、AI场景增强、AI多传感器融合六大技术亮点,能够帮助智能汽车在大雨、大雾、夜间和隧道等恶劣的驾驶环境中获取清晰的图像。

当然,AI技术的发展也在推动AI-ISP的创新。以爱芯智眸AI-ISP来说,目前AI算法已经取代了降噪模块、防抖模块。仇肖莘认为,后续AI-ISP发展一个值得探索的方向是,AI-ISP是不是也能够成为一个“黑盒式”的AI大模型,用AI算法取代更多ISP中的功能单元,使得AI-ISP能够利用CMOS图像传感器信号直接成像,让用户不必再去考虑ISP工作的中间环节。

在AI芯片的打造上,爱芯通元混合精度NPU的优点不只是原生支持Transformer网络结构,还包括通过可编程数据流DSA架构,能够覆盖目前用户需要的基本算子,成本、效能和运算效率都非常高。仇肖莘说,“AI算法发展至今已经非常成熟,进入一个较为稳定的状态,因此用户对于算子的需求不再有日新月异的变化,这是爱芯元智能够打造通用AI处理器的关键。”

根据爱芯元智联合创始人、副总裁刘建伟的介绍,此次论坛上正式发布的爱芯通元AI处理器在高中低三档算力中已完成布局,并在智慧城市和辅助驾驶两个领域实现了规模化量产,能效比较GPGPU芯片提升了一个数量级,而在以文搜图、通用检测、以图生文、AI Agent等通用大模型应用中,爱芯通元AI处理器也可以让AI开发者以更低的成本进行高效开发。
爱芯元智联合创始人、副总裁刘建伟
让端侧更好地承载AI大模型 根据《2024年中国AI大模型产业发展报告》,截至2024年3月,国内部署大模型的企业数量超243家,以通用大模型为主。不过,我们都知道AI大模型成功的关键在于行业大模型、端侧、端云结合等多种模式并行。 端侧大模型的部署所面临的挑战和云端是完全不同的,需要克服能耗的限制,还需要在足够小的参数下,做到大部分日常工作。在WAIC 2024上,爱芯元智在自己的展台上也展示了其AI芯片在部署端侧大模型方面的能力。

案例一是基于爱芯元智端侧小芯片AX630C部署语言大模型——阿里云通义千问Qwen2.0。AX630C提供3.2T的算力,通过运载通义千问Qwen2.0,可以流畅地实现人机对话,查询信息、日常交流等任务。AX630C运载通义千问Qwen2.0每秒能处理超过10个信息单元,但功耗只有1.5瓦。

案例二是爱芯元智端AX650N结合CLIP模型可以实现以文搜图的功能,只需要一个词、一句话或一段文字,系统就能迅速准确地从海量图片中找到匹配项。

案例三是基于爱芯元智端AX650N运转多模态多维感知大模型OWL-ViT大模型,精准完成对未知目标检测,实现图像自动标签化。

正如上文提到的,爱芯通元AI处理器提供完备的算子集合,因此对于市面上的大模型能够提供非常好的支持,并且适配的速度是非常快的。比如,今年4月份,Meta发布了Meta Llama 3系列语言模型(LLM),具体包括一个8B模型和一个70B模型。随后不久,爱芯元智就宣布,爱芯通元AI处理器完成Llama 3和Phi-3大模型适配。在Llama 3模型的适配上,爱芯元智AX650N芯片适配了Llama 3 8B Int8版本,若采用Int4量化,每秒token数还能再翻一倍,能满足正常的人机交流。仇肖莘强调,爱芯元智的AI芯片对INT2、INT4、INT8、INT16混合精度算力都可以支持。


结语
AI大模型的发展已经进入一个新阶段,行业大模型以及云边端结合的大模型是下一步发展重点。在端侧运转大模型有不一样的挑战,能耗和参数规模都会受到限制,但用户体验不能打折。爱芯通元AI处理器以及爱芯元智AX650N等AI芯片展示出了非常好的端侧大模型支持能力,在普惠AI的道路上迈出了坚实一步。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI芯片
    +关注

    关注

    17

    文章

    1858

    浏览量

    34899
  • GPGPU
    +关注

    关注

    0

    文章

    29

    浏览量

    4890
  • 爱芯元智
    +关注

    关注

    1

    文章

    75

    浏览量

    4818
  • AI大模型
    +关注

    关注

    0

    文章

    307

    浏览量

    287
收藏 人收藏

    评论

    相关推荐

    AI浪潮已来!炬芯科技发布新AI音频芯片比和AI算力大幅度提升

    AI音频芯片。   2028 年中小型模型
    的头像 发表于 11-06 09:11 2157次阅读
    <b class='flag-5'>端</b><b class='flag-5'>侧</b><b class='flag-5'>AI</b>浪潮已来!炬芯科技发布新<b class='flag-5'>一</b>代<b class='flag-5'>端</b><b class='flag-5'>侧</b><b class='flag-5'>AI</b>音频<b class='flag-5'>芯片</b>,<b class='flag-5'>能</b><b class='flag-5'>效</b>比和<b class='flag-5'>AI</b>算力大幅度提升

    【书籍评测活动NO.49】大模型启示录:AI应用百科全书

    IT团队、外部落地咨询公司、大模型公司起努力,甚至在家公司内部可能拆分出几十甚至上百场景进行落地
    发表于 10-28 15:34

    Meta推出革命性3D Gen AI模型:1分钟内生成高质量3D内容

    在科技日新月异的今天,Meta再次引领创新潮流,宣布了项令人瞩目的技术突破——3D Gen AI模型的诞生。这款先进的模型以其前所未有的高效性与卓越品质,重新定义了3D内容创作的边界
    的头像 发表于 07-04 18:12 978次阅读

    后摩智能引领AI芯片革命,推出边模型AI芯片M30

    在人工智能(AI)技术飞速发展的今天,AI模型的部署需求正迅速从云端向和边缘设备迁移。这
    的头像 发表于 06-28 15:13 629次阅读

    Opera浏览器引领潮流,全球首接AI模型

    昆仑万维旗下海外平台Opera宣布,其旗舰浏览器Opera One和游戏浏览器Opera GX将正式接入AI模型,成为全球首个实现这
    的头像 发表于 06-03 09:18 674次阅读

    存内计算WTM2101编译工具链 资料

    工艺条件下将AI计算效率提升2个数量级,充分满足快速发展的神经网络模型指数级增长的算力需求。 witin_mapper是知存科技自研的用于神经网络映射的编译软件栈,可以将量化后的神经网络模型
    发表于 05-16 16:33

    开发者手机 AI - 目标识别 demo

    Lite的API接口实现主要功能; Mindspore Lite为Openharmony AI推理框架,为上层应用提供统AI推理接口,可以完成在手机等
    发表于 04-11 16:14

    通义千问首次落地天玑9300移动平台!阿里云携手MediaTek探索AI智能体

    ,实现手机AI体验的大幅提升。这是通义大模型首次完成芯片级的软硬适配,仅依靠终端算力便能拥有极佳的推理性能及功耗表现,标志着Model-on-Chip的探索正式从验证走向商业化落地新阶
    发表于 03-28 10:51 232次阅读
    通义千问首次<b class='flag-5'>落地</b>天玑9300移动平台!阿里云携手MediaTek探索<b class='flag-5'>端</b><b class='flag-5'>侧</b><b class='flag-5'>AI</b>智能体

    防止AI模型被黑客病毒入侵控制(原创)聆思大模型AI开发套件评测4

    在训练只聪明的AI小动物解决实际问题,通过构建神经网络模型并进行推理,电脑也像人样根据输
    发表于 03-19 11:18

    荣耀引领AI新时代

    在今年的MWC盛会上,荣耀宣布与高通、Meta携手,将70亿参数大模型引入,这创新举措预示着
    的头像 发表于 03-01 10:28 581次阅读

    AI模型怎么解决芯片过剩?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:42:05

    AI模型加速落地已成必然趋势,芯片厂商提前布局!

    普遍认为,2024年AI模型在商业应用会有极大突破。   “AI模型的加速
    的头像 发表于 12-29 00:47 2159次阅读
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>在<b class='flag-5'>端</b><b class='flag-5'>侧</b>加速<b class='flag-5'>落地</b>已成必然趋势,<b class='flag-5'>芯片</b>厂商提前布局!

    清华电化学电容新突破,比容量高出电解电容两个数量级

    相对来说,电化学电容器的比容量要比电解电容器高三个数量级,是微型化、集成化滤波电容的良好选择,但受限于缓慢的离子迁移动力学,电化学电容器无法做到滤波需求的高频率响应能力,因此电化学电容器往往需要以牺牲比容量的方式
    的头像 发表于 12-06 15:39 771次阅读
    清华电化学电容新突破,比容量高出电解电容两<b class='flag-5'>个数量级</b>

    AI模型接入手机,行业迎来新轮竞赛

    选择侧部署,看上去最划算 当前,AI模型接入手机存在两种选择:云端部署和侧部署。 目前,大多数厂商选择在侧部署轻
    发表于 12-05 10:11 692次阅读
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>接入手机,行业迎来新<b class='flag-5'>一</b>轮竞赛

    智能手机+生成式AI,联发科天玑8300加速其普及

    的陆续发布直接成为了生成式AI落地的助推器。   天玑8300主打冰峰,超神进化。天
    的头像 发表于 11-22 16:07 1392次阅读
    智能手机+<b class='flag-5'>端</b><b class='flag-5'>侧</b>生成式<b class='flag-5'>AI</b>,联发科天玑8300加速其普及