0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

高通与智谱推动多模态生成式AI体验的终端侧部署

高通中国 来源:高通中国 2024-11-08 09:55 次阅读

要点

高通与智谱合作将GLM-4V端侧视觉大模型,面向骁龙8至尊版进行深度适配和推理优化,支持丰富的多模态交互方式。

• 利用骁龙8至尊版的强大终端侧AI性能和高通AI软件栈为模型带来的性能优化,GLM-4V端侧视觉大模型能够以超过70 tokens/秒的速度在终端侧高速运行。

• GLM-4V-Mini、GLM-4V-Nano端侧视觉大模型和GLM-4-9B模型即将在高通AI Hub上线,搭载骁龙8至尊版的商用手机均可支持。

此前,骁龙峰会首日,智谱与高通技术公司宣布合作将GLM-4V端侧视觉大模型,面向骁龙8至尊版进行深度适配和推理优化,支持丰富的多模态交互方式,进一步推动多模态生成式AI在终端侧的部署和推广,赋能更加情境化、个性化的终端侧智能体验。

骁龙8至尊版移动平台搭载全新第二代高通Oryon CPU和高通Hexagon NPU,终端侧AI能力再次实现突破,能够赋能规模更大且更加复杂的多模态生成式AI用例在终端侧高效运行。充分利用骁龙8至尊版的强大终端侧AI性能和高通AI软件栈为模型带来的性能优化,GLM-4V端侧视觉大模型能够实现令人惊叹的处理能力,以超过70 tokens/秒的速度在终端侧高速运行。

改善情境化和定制化一直是用户体验的长期需求。多模态生成式AI模型能够利用终端侧丰富的传感器数据,例如文本、图像、音频视频等,打造更加直观、无缝的智能交互体验。通过与骁龙8至尊版进行深度适配和推理优化,终端侧多模态应用ChatGLM能够支持三种终端侧交互方式:使用相机进行实时语音对话、上传照片进行对话、上传视频进行对话。丰富的多模态输入输出方式赋能智能助手ChatGLM实现了跨家庭、出行、工作和教育等多个场景的应用,例如通过手机摄像头获取穿搭建议,利用视觉信息实现智能导航,通过车内摄像头识别遗留物品,拍摄画作进行风格解析等。

高通技术公司高级副总裁兼技术规划和边缘解决方案业务总经理马德嘉表示:

高通与智谱共同致力于推动生成式AI在边缘终端上的应用和普及,并已经在手机、PC、汽车等领域展开了紧密合作。结合高通在终端侧AI领域的长期领导力,跨不同边缘终端的广泛市场布局,以及骁龙8至尊版的AI创新,我们在推动终端侧生成式AI发展方面独具优势。多模态是发挥终端生成式AI潜力的重要技术发展方向,我们期待携手智谱,探索多模态在终端侧AI应用上的更多可能。

智谱COO张帆表示:

骁龙8至尊版移动平台提供了卓越的AI算力,结合高通AI软件栈推理框架的性能优化,使得智谱的终端侧大模型可以在设备端实现高速推理。我们相信,终端侧算力平台的性能跃迁结合大模型能力的进步,会将生成式AI带入新的时代。终端侧运行的生成式AI,在为用户提供变革性体验的同时,能更好地保护用户隐私安全,真正让AI变革用户的日常生活。

GLM-4V-Mini、GLM-4V-Nano端侧视觉大模型和GLM-4-9B模型即将在高通AI Hub上线,搭载骁龙8至尊版的商用手机均可支持。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 高通
    +关注

    关注

    76

    文章

    7423

    浏览量

    190209
  • 骁龙
    +关注

    关注

    2

    文章

    993

    浏览量

    36667
  • 大模型
    +关注

    关注

    2

    文章

    2272

    浏览量

    2346

原文标题:高通与智谱基于骁龙8至尊版移动平台合作适配优化GLM-4V端侧视觉大模型,加速多模态生成式AI体验的终端侧部署

文章出处:【微信号:Qualcomm_China,微信公众号:高通中国】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    AI大模型的最新研究进展

    。例如,在医疗领域,生成AI可以帮助医生生成诊断报告、治疗方案等;在教育领域,AI大模型可以生成
    的头像 发表于 10-23 15:19 244次阅读

    三行代码完成生成AI部署

    OpenVINO2024.2版本跟之前版本最大的不同是OpenVINO2024.2分为两个安装包分别是基础包与生成AI支持包,新发布的GenAI开发包支持C++与Python语言接口调用,支持多种
    的头像 发表于 08-30 16:49 362次阅读
    三行代码完成<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    AI发布全新模态开源模型GLM-4-9B

    近日,智AI在人工智能领域取得重大突破,成功推出全新开源模型GLM-4-9B。这款模型以其卓越的模态能力,再次刷新了业界对于大型语言模型的认识。
    的头像 发表于 06-07 09:17 643次阅读

    大模型端侧部署加速,都有哪些芯片可支持?

    电子发烧友网报道(文/李弯弯)大模型在端侧部署是指将大型神经网络模型部署在移动终端设备上,使这些设备能够直接运行这些模型,从而执行各种人工智能任务,如图像识别、语音识别、自然语言处理等。随着大模型
    的头像 发表于 05-24 00:14 3890次阅读

    阿里云通义大模型助力“小爱同学”强化模态AI生成能力

    小米的人工智能助手“小爱同学”近期与阿里云通义大模型达成战略合作,共同提升其模态AI生成能力,特别是在图片生成与理解方面。这次合作不仅将强
    的头像 发表于 05-13 09:19 702次阅读

    李未可科技正式推出WAKE-AI模态AI大模型

    李未可科技模态 AI 大模型正式发布,积极推进 AI终端的场景应用   4月18日,2024中国
    发表于 04-18 17:01 549次阅读
    李未可科技正式推出WAKE-<b class='flag-5'>AI</b><b class='flag-5'>多</b><b class='flag-5'>模态</b><b class='flag-5'>AI</b>大模型

    NVIDIA数字人技术加速部署生成AI驱动的游戏角色

    NVIDIA 在 GDC 2024 大会上宣布,Inworld AI 等领先的 AI 应用程序开发者,正在使用 NVIDIA 数字人技术加速部署生成
    的头像 发表于 04-09 10:08 607次阅读
    NVIDIA数字人技术加速<b class='flag-5'>部署</b><b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>驱动的游戏角色

    NVIDIA Edify模态架构升级,引领视觉生成AI新纪元

    NVIDIA近日宣布,其用于视觉生成AI模态架构Edify迎来重大更新,为开发者和视觉内容提供商带来前所未有的新功能。其中,3D资产
    的头像 发表于 03-27 10:22 383次阅读

    NVIDIA Edify为视觉内容提供商带来3D生成AI和全新图像控件

    用于视觉生成 AI模态架构 NVIDIA Edify 正在迈入全新维度。
    的头像 发表于 03-26 09:49 638次阅读

    生成AI加速向终端侧演进,NPU、异构计算提供强大算力支持

    的400亿美元,增长至2032年的1.3万亿美元,年复合增速达到42%。   生成AI终端快速演进   当前大部分生成
    的头像 发表于 03-16 00:16 2793次阅读

    MWC2024:通推出全新AI Hub及前沿模态大模型

    2024年世界移动通信大会(MWC)上,通再次展现其技术领导力,通过发布全新的AI Hub和展示前沿的模态大模型技术,
    的头像 发表于 02-26 16:59 1171次阅读

    通持续推动终端生成AI变革,推出AI Hub赋能开发者

    通现赋能终端AI在下一代PC、智能手机、软件定义汽车、XR设备和物联网等领域规模化商用,让智能计算无处不在。
    的头像 发表于 02-26 16:46 576次阅读

    安霸发布全新N1系列生成AI芯片

    安霸在CES 2024上发布了全新的N1系列生成AI芯片,这是一款专门为前端设备设计的芯片,支持本地运行大型语言模型(LLM)应用。其单颗SoC能够支持1至340亿参数的
    的头像 发表于 01-09 15:32 1280次阅读

    安霸发布N1系列生成AI芯片支持前端设备运行本地LLM应用

    单颗 SoC 支持 1 至 340 亿参数的模态大模型(Multi-Modal LLM)推理,实现前端低功耗生成 AI
    的头像 发表于 01-09 15:19 891次阅读

    边缘侧部署大模型优势!模型量化解决边缘设备资源限制问题

    电子发烧友网报道(文/李弯弯)大模型的边缘部署是将大模型部署在边缘设备上,以实现更快速、更低延迟的计算和推理。边缘设备可以是各种终端设备,如智能手机、平板电脑、智能家居设备等。通过将大模型部署
    的头像 发表于 01-05 00:06 3266次阅读