0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

灵汐KA200芯片完成DeepSeek-R1系列模型适配

北京灵汐科技有限公司 来源:北京灵汐科技有限公司 2025-02-06 15:40 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

重要消息

节后开工第一天,灵汐科技团队联合类脑技术社区(“脑启社区“)的开发者,仅用半天时间就完成了DeepSeek-R1系列模型在灵汐KA200芯片及相关智算卡的适配,助力国产大模型与类脑智能硬件系统的深度融合。据“脑启社区“的开发者反馈,在DeepSeek-R1-Distill-Qwen的1.5B、7B等系列模型测试中,模型在4K上下文情形下体验顺畅,具备交付客户使用的能力。后续,灵汐科技也将联合产业生态伙伴及脑启社区,适时发布云上服务。

灵汐科技的类脑芯片领启KA200(-S) 基于全新的存算一体、众核并行、异构融合架构,能高效支持深度学习神经网络、生物神经网络和大规模脑仿真。单芯片集成 25 万神经元和 2500 万突触(稠密模式),可扩展支持 200 万神经元和 20 亿突触的集成计算(稀疏模式),支持混合精度计算(48TOPS@INT8 和 24TFLOPS@FP16)。不仅有强大的视频图像处理和算法支持能力,也具有对各类LLM语言大模型及多模态模型的支撑能力。基于灵汐科技KA200的产品系列,已经具备了“云、边、端“全覆盖的大模型部署和高性能、低功耗的推理部署能力。灵汐的相关产品已在电力能源、交通、城市治理、低空智能装备等领域形成了规模化商用。

近期DeepSeek大模型引发了业界的广泛讨论,有相关评论方认为DeepSeek的大模型技术路线创新有较大影响,而未来国产化、支撑大模型的新型架构芯片则会对产业形成更具颠覆性的效应。2024年初开始,类似存算一体架构芯片及其对大模型推理的提升效果,也引发了众多研究讨论。灵汐科技“存算一体、众核并行、 异构融合”的芯片架构及其应用不断迭代,将为业内带来新的潜在突破。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    463

    文章

    54411

    浏览量

    469151
  • 神经网络
    +关注

    关注

    42

    文章

    4842

    浏览量

    108150
  • 大模型
    +关注

    关注

    2

    文章

    3764

    浏览量

    5269
  • DeepSeek
    +关注

    关注

    2

    文章

    837

    浏览量

    3396

原文标题:灵汐芯片快速实现DeepSeek 适配,助力国产大模型与类脑智能硬件融合

文章出处:【微信号:北京灵汐科技有限公司,微信公众号:北京灵汐科技有限公司】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    百度腾讯抢滩布局!DeepSeek-R1升级和开源背后,国产AI的逆袭之路

    电子发烧友网报道(文/李弯弯)日前,DeepSeek官方宣布DeepSeek-R1模型完成小版本试升级,当前版本为DeepSeek-R1-
    的头像 发表于 06-03 06:34 6371次阅读

    杭州电信类脑智算集群正式发布

    2025年12月11日,杭州电信类脑智算集群在杭州正式发布。该集群由杭州类脑科技有限公司牵头,杭州电信、中国电子科技南湖研究院以及脑启社区作为合作方参与。该集群部署在中国电信杭
    的头像 发表于 12-23 16:19 632次阅读

    DeepSeek R1 MTP在TensorRT-LLM中的实现与优化

    。我们在之前的博客[1] 中介绍了 DeepSeek-R1 模型实现超低推理延迟的关键优化措施。本文将深入探讨 TensorRT-LLM 中的 MTP 实现与优化。
    的头像 发表于 08-30 15:47 4671次阅读
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的实现与优化

    杭州类脑智算集群实现大模型快速推理

    据悉,“杭州类脑智算集群”已于7月底实现了大模型快速推理API的企业服务试运行。该集群由杭州类脑科技有限公司牵头搭建运营,中国电信、
    的头像 发表于 08-18 16:06 1106次阅读

    速看!EASY-EAI教你离线部署Deepseek R1模型

    1.Deepseek简介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型DeepSeek-R1采用
    的头像 发表于 07-25 15:22 1572次阅读
    速看!EASY-EAI教你离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技术揭秘」阅读体验】+混合专家

    感谢电子发烧友提供学习Deepseek核心技术这本书的机会。 读完《Deepseek核心技术揭秘》,我深受触动,对人工智能领域有了全新的认识。了解Deepseek-R1Deepseek
    发表于 07-22 22:14

    【「DeepSeek 核心技术揭秘」阅读体验】--全书概览

    讲解Deepseek的使用方法 第三章 深入剖析Deepseek-V3的模型架构、训练框架、推理阶段优化、后训练优化等关键技术 第四章关于DeepSeek-R1的技术剖析 第五章 从
    发表于 07-21 00:04

    【「DeepSeek 核心技术揭秘」阅读体验】书籍介绍+第一章读后心得

    相对策略优化**(GRPO)算法、奖励模型**等关键技术的深入剖析,可以帮助读者了解 DeepSeek 在强化学习领域的创新性探索。对DeepSeek-R1 的训练过程和推理能力的蒸馏等内容的详细阐述
    发表于 07-17 11:59

    Arm Neoverse N2平台实现DeepSeek-R1满血版部署

    颇具优势。Arm 携手合作伙伴,在 Arm Neoverse N2 平台上使用开源推理框架 llama.cpp 实现 DeepSeek-R1 满血版的部署,目前已可提供线上服务。
    的头像 发表于 07-03 14:37 1420次阅读
    Arm Neoverse N2平台实现<b class='flag-5'>DeepSeek-R1</b>满血版部署

    NVIDIA Blackwell GPU优化DeepSeek-R1性能 打破DeepSeek-R1在最小延迟场景中的性能纪录

    本文将探讨 NVIDIA TensorRT-LLM 如何基于 8 个 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延迟场景中的性能纪录:在 GTC 2025
    的头像 发表于 07-02 19:31 3557次阅读
    NVIDIA Blackwell GPU优化<b class='flag-5'>DeepSeek-R1</b>性能 打破<b class='flag-5'>DeepSeek-R1</b>在最小延迟场景中的性能纪录

    【书籍评测活动NO.62】一本书读懂 DeepSeek 全家桶核心技术:DeepSeek 核心技术揭秘

    DeepSeek-V3 的发布几乎没有预热和炒作,仅凭借其出色的效果和超低的成本迅速走红。 DeepSeek-R1 则是在 DeepSeek-V3 的基础上构建的推理模型,它在后训练
    发表于 06-09 14:38

    DeepSeek开源新版R1 媲美OpenAI o3

    ;还有一些网友的实测评价都显示, DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性价比的平替。 此外,关于DeepSeek
    的头像 发表于 05-29 11:23 1480次阅读

    使用瑞萨MPU芯片RZ/V2H部署DeepSeek-R1模型

    DeepSeek大语言模型(LLM)可用于理解人类语言的交互方式,思考,并给出合适的回应。
    的头像 发表于 05-15 14:40 1139次阅读
    使用瑞萨MPU<b class='flag-5'>芯片</b>RZ/V2H部署<b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>模型</b>

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型
    的头像 发表于 05-13 17:07 1858次阅读
    瑞萨RZ/V2H平台支持部署离线版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大语言<b class='flag-5'>模型</b>

    摩尔线程MTT S4000完成DeepSeek R1-671B大模型适配验证

    我国人工智能技术产业近来取得显著进步,多款新发布的大模型已达到国际先进水平。我国AI芯片企业也在积极行动,和各国产大模型开展适配,共同构建智能计算产业生态。作为国家权威技术验证平台,中
    的头像 发表于 05-10 09:49 1471次阅读