0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

安霸发布N1系列生成式AI芯片支持前端设备运行本地LLM应用

Ambarella安霸半导体 来源:Ambarella安霸半导体 2024-01-09 15:19 次阅读

单颗 SoC 支持 1 至 340 亿参数的多模态大模型(Multi-Modal LLM)推理,实现前端低功耗生成式 AI

美国加利福尼亚州圣克拉拉市,2024年1月8日-

Ambarella (下称“安霸”,专注 AI 视觉感知的半导体公司,纳斯达克股票代码:AMBA)于当天宣布,在 2024 国际消费电子展(CES)期间,展出在其新款 N1 系列 SoC 上运行多模态大模型(Multi-Modal LLM),其每次推理的功耗显著低于当前市场的通用 GPU 解决方案。

生成式 AI 是为了处理大规模数据集而最早应用于服务器上的变革性技术,而安霸的目标是将生成式 AI 部署于终端设备和本地硬件上,从而将其广泛应用于视频安防分析、机器人以及众多工业领域。

安霸将在中高端 SoC 上提供已优化的生成式 AI 处理。这些 AI SoC 包含了功耗低于 5 瓦的 CV72 芯片,以及最新的可应用于服务器端,功耗低于 50 瓦的 N1 芯片。与 GPU 及其他 AI 加速器相比,安霸提供了完整的 SoC 解决方案,每生成一个 token 的能效比最高可提高 3 倍,并可快捷、低成本地部署在终端产品中。

生成式 AI 在我们的目标市场上实现了突破,之前无法想象的功能得以实现。使用我们的 N1 系列 SoC 来进行多模态大模型推理,将使所有的前端设备变得更智能,更低功耗,和更低成本。

市场研究公司 Omdia 高级计算首席分析师 Alexander Harrowell 表示:“在未来 18 个月内,几乎所有设备前端应用都将被生成式 AI 增强。把生成式 AI 的计算转移到设备前端的要点,就在于每瓦的 AI 性能,以及它与前端生态系统其余部分的集成,而不仅仅是原始数据的吞吐量。”

所有安霸的 AI SoC 均可搭配全新的 Cooper 开发平台。此外,为了缩短客户新产品上市的时间,安霸已预先移植和优化了 LIama-2 等流行的大语言模型。其在 N1 芯片上运行的大语言和视觉助手 LLava 模型,可对多达 32 个摄像头同时进行多模态视觉分析。这些经过预训练和调优的模型可从 Cooper Model Garden 下载

在现实世界的众多应用里,除了语言,视觉输入也是一种关键模式。安霸 SoC 的特有架构非常适合以超低功耗同时运行视频处理和 AI 计算。安霸的 AI SoC 并不是单一的 AI 加速器,它不仅能够高效处理多模态大模型,还能同时执行各种系统功能。

生成式 AI 将成为计算机视觉处理中跨越式的新技术,它可将上下文学习和场景理解应用于各种设备,从而涵盖安防设施、自主机器人以及众多工业应用。基于安霸 AI 芯片的设备端通过运行大语言模型和多模态处理可实现以下功能:安防视频的上下文智能搜索、通过自然语言命令控制的机器人、以及多才多艺的AI助手,比如代码、文本和图像的生成等。

这些依赖摄像头和自然语言理解的系统,大部分将受益于设备前端的生成式 AI 处理,其处理速度得以提高,隐私保护得到加强,并且总成本也会降低。安霸解决方案支持的本地处理也非常适合垂直领域大语言模型,这些大语言模型通常需要针对每个具体应用场景进行调整;而传统的集中式服务器方案则是使用更大、功耗更高的大语言模型来满足不同用例的要求。

基于安霸最初为自动驾驶开发的 CV3-HD 架构,N1 系列 SoC 对总算力资源进行了针对性的优化,从而以超极低功耗运行多模态大模型。例如,N1 SoC 在单流模式下以低于 50 瓦的功耗运行 Llama2-13B,每秒可推理 25 个 token。N1 解决方案自带移植好的大模型,使系统整合更容易,因此它可快速帮助 OEM 厂商部署生成式 AI,特别是要求低功耗的各种应用,比如自带本地应用的 AI 智能盒子、送货机器人等,不一而足。







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 加速器
    +关注

    关注

    2

    文章

    806

    浏览量

    38037
  • soc
    soc
    +关注

    关注

    38

    文章

    4199

    浏览量

    218885
  • 计算机视觉
    +关注

    关注

    8

    文章

    1700

    浏览量

    46087
  • AI芯片
    +关注

    关注

    17

    文章

    1904

    浏览量

    35179
  • LLM
    LLM
    +关注

    关注

    0

    文章

    298

    浏览量

    378

原文标题:安霸发布 N1 系列生成式 AI 芯片,支持前端设备运行本地 LLM 应用

文章出处:【微信号:AMBARELLA_AMBA,微信公众号:Ambarella安霸半导体】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    发布N1-655前端生成AI芯片

    Ambarella(下称“”,纳斯达克股票代码:AMBA,AI 视觉感知芯片公司)在 CES 上发布
    的头像 发表于 01-09 10:29 168次阅读

    基于Arm Neoverse平台的处理器革新生成AI体验

    Llama 是一个专为开发者、研究人员和企业打造的开源大语言模型 (LLM) 库,旨在推动生成 AI 的创新、实验及可靠地扩展。
    的头像 发表于 01-03 15:31 218次阅读
    基于Arm Neoverse平台的处理器革新<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>体验

    定制本地的ChatFile的AI问答系统

    会遇到这样的困扰?今天,我们将利用下面两个技术为自己定制一个本地的 ChatFile 的 AI 问答系统: 1. Google 最新开源的生成
    的头像 发表于 01-03 09:26 252次阅读
    定制<b class='flag-5'>本地</b>的ChatFile的<b class='flag-5'>AI</b>问答系统

    恩智浦如何在边缘设备上部署LLM

    近来,与AI相关的周期性热点几乎都围绕着大语言模型 (LLM) 和生成AI模型,这样的趋势反映出这些话题近年来日益增强的影响力和普及程度。
    的头像 发表于 11-29 09:39 461次阅读

    设备上利用AI Edge Torch生成API部署自定义大语言模型

    MediaPipe LLM Inference API 让开发者们能够将一些最受欢迎的 LLM 部署到设备上。现在,我们很高兴能进一步拓展对模型的支持范围,并让大家部署到
    的头像 发表于 11-14 10:23 525次阅读
    在<b class='flag-5'>设备</b>上利用<b class='flag-5'>AI</b> Edge Torch<b class='flag-5'>生成</b><b class='flag-5'>式</b>API部署自定义大语言模型

    三行代码完成生成AI部署

    OpenVINO2024.2版本跟之前版本最大的不同是OpenVINO2024.2分为两个安装包分别是基础包与生成AI支持包,新发布的Ge
    的头像 发表于 08-30 16:49 457次阅读
    三行代码完成<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>部署

    谋科技异构算力组合,破局生成AI算力挑战

    ,“此芯P1”不仅异构集成了Armv9 CPU核心与Arm Immortalis GPU,还搭载了谋科技(中国)有限公司(以下简称“谋科技”)“周易”NPU等自研业务产品。凭借高能效的异构算力资源、系统级的安全保障以及强大的
    的头像 发表于 08-13 09:12 617次阅读

    llm模型本地部署有用吗

    ,将这些模型部署到本地环境可能会带来一些挑战和优势。 1. LLM模型概述 大型语言模型(LLM)通常是基于深度学习的神经网络模型,它们能够处理和理解大量的自然语言数据。这些模型通常
    的头像 发表于 07-09 10:14 589次阅读

    生成AI芯片解决方案助力本地处理大型语言模型

    随着 AI 技术的不断进步,十年前还只能在书本和科幻电影中看到的功能,如今随处可见。然而,迄今为止,对性能有着高要求的最新生成 AI 技术应用通常只能
    的头像 发表于 06-26 11:32 782次阅读

    技嘉科技于 COMPUTEX 2024 发布 AI TOP 本地 AI 训练解决方案

    PC 后,AI TOP 将成为 GIGABYTE AI 策略蓝图的第二主线,共同为日益蓬勃发展的生成 AI 市场添砖加瓦。 技嘉科技于 
    的头像 发表于 06-07 10:54 314次阅读

    解锁LLM新高度—OpenVINO™ 2024.1赋能生成AI高效运行

    LLM 的发展仍保持着惊人的速度。尽管现有的 LLM 已经具备强大的功能,但通过 OpenVINO™ 的优化和推理加速,可以对这些复杂模型的执行进行精炼,实现更快、更高效的处理,减少计算开销并最大限度发挥硬件潜力,这将直接导致 LLM
    的头像 发表于 05-10 10:36 576次阅读

    Arm平台赋能移动端生成AI

    生成人工智能 (Generative AI) 涵盖了当下广为人知,且备受关注的大语言模型 (LLM),如今也已落地边缘侧的移动设备
    的头像 发表于 04-26 11:09 845次阅读

    生成 AI 进入模型驱动时代

    随着ChatGPT和大型语言模型(LLM)呈现爆炸增长,生成人工智能(GenerativeAI)成为近来的一大热词。由此引发了一场争论:哪种AI
    的头像 发表于 04-13 08:12 571次阅读
    <b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 进入模型驱动时代

    发布5nm制程的CV75S系列芯片,进一步拓宽AI SoC产品路线图

    防展(ISC West)期间发布 5nm 制程的 CV75S 系列芯片,进一步拓宽其 AI SoC 产品路线图。
    的头像 发表于 04-09 10:26 1843次阅读

    生成AI加速向终端侧演进,NPU、异构计算提供强大算力支持

    的400亿美元,增长至2032年的1.3万亿美元,年复合增速达到42%。   生成AI 向终端快速演进   当前大部分生成
    的头像 发表于 03-16 00:16 2925次阅读