联发科10月11日表示,将与oppo、coloros共同构建轻量化大型模型的末端配置方案,共同推进大型模型能力逐步体现到末端。
据介绍,联发科先进的ai处理器apu和ai开发平台neuropilot构建了完整的终端ai和生成式ai计算生态,加速了边缘ai计算的应用开发和着陆,强化了大规模语言模型和生成式ai应用性能。
在联发科和oppo的合作下,andesgpt使用4位量化技术,使大模型在精确度方面逐渐着陆,没有落差,提供更好的性能。
10月11日,oppo宣布基于andesgpt的大型模型的oppo小布1.0 beta上市。如果用户唤醒语音助手说出“更大的模型”,就可以加入beta 1.0 beta版本,通过beta 1.0,就可以在各种情况下体验新的beta体验。
oppo宣布,在11月16日举行的oppo开发者会议上,将推出与联发科合作的全新小布1.0 beta语音助手。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
联发科
+关注
关注
56文章
2674浏览量
254691 -
语言模型
+关注
关注
0文章
520浏览量
10268 -
AI处理器
+关注
关注
0文章
92浏览量
9489
发布评论请先 登录
相关推荐
中海达推出轻量化监测简易感知解决方案
近期,针对汛期桥梁结构和公路边坡受自然灾害影响出现滑坡、坍塌等事故,交通运输部和应急管理部密集发布相关政策文件,明确各地需加强桥梁结构和公路边坡检测监测工作,多地积极响应政策号召,提出通过轻量化监测简易感知方案来保障公路安全。顺应市场需求,中海达推出中小桥和公路边坡
联发科与英伟达合作AI PC 3nm CPU即将流片
据业内消息人士透露,联发科与英伟达联手打造的AI PC 3nm CPU即将于本月进入流片阶段,预计将于明年下半年正式量产。这一合作标志着联
大模型端侧部署加速,都有哪些芯片可支持?
电子发烧友网报道(文/李弯弯)大模型在端侧部署是指将大型神经网络模型部署在移动终端设备上,使这些设备能够直接运行这些
联发科天玑9300等旗舰芯片搭载通义千问大模型,成功实现
通义千问大模型可在离线环境下轻松应对多轮AI对话。此外,阿里云也承诺与联发科进行深度合作,为全球手机制造商提供
联发科旗舰芯片部署阿里云大模型
全球智能手机芯片出货量领先的半导体公司联发科近日宣布,已成功在天玑9300等旗舰芯片上集成阿里云通义千问大模型,实现了大
OPPO发布1+N 智能体生态战略,联发科携手OPPO打造AI手机生态
合作,共同推动“AI手机(AI Smartphone)”的发展,为用户带来更加智能便捷、高效自在的下一代 AI 体验。 在OPPO与联发科
边缘侧部署大模型优势多!模型量化解决边缘设备资源限制问题
设备上,可以减少数据传输的延迟和带宽需求,提高模型的实时性和响应速度。 边缘端部署大模型的优势 边缘侧部署大
评论