0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

昆仑芯AI加速器组R480-X8满足大型模型训练和推理的需求

昆仑芯科技 来源:昆仑芯科技 2023-06-30 14:56 次阅读

7月6日至8日,第六届世界人工智能大会(WAIC2023)展览将于上海隆重举办,规模达5万平米,参展企业总数预计突破400家,创历年新高。

作为AI芯片领域的领军企业,昆仑芯再度牵手WAIC,倾力打造特装展区。届时,昆仑芯将携多层级产品矩阵亮相,生动展示公司十余年发展历程、产品优势性能、端到端解决方案及生态共创成果。现场更有工作人员进行互动讲解,欢迎莅临参观。

7月6日 1000

7月7日-8日 900

上海世博展览馆H2馆B601

展区亮点

昆仑芯系列产品展示

自2011年起,昆仑芯团队便基于真实AI场景需求研究AI计算加速,并于2017年正式提出自研XPU架构。基于该架构,昆仑芯先后打造两代云端AI芯片,并相继推出多款AI加速卡及AI加速器组产品。

昆仑芯1代AI芯片

昆仑芯1代AI芯片搭载昆仑芯自研XPU架构,采用14nm工艺,16GB HBM先进内存和2.5D封装技术,提供高达512 GB/s的内存带宽,256 TOPS的算力,是国内为数不多经历过互联网大规模核心算法考验的云端AI芯片。

昆仑芯AI加速卡K100

昆仑芯AI加速卡K100是专为边缘推理打造的AI加速卡,搭载昆仑芯1代AI芯片,支持128 TOPS@INT8算力,功耗低至75W,体积小巧,适用于各类智能边缘计算场景。

昆仑芯AI加速卡K200

昆仑芯AI加速卡K200搭载昆仑芯1代AI芯片,提供高达256 TOPS@INT8算力,HBM 16GB内存和512 GB/s访存带宽,支持计算机视觉、自然语言处理、语音等深度学习及传统机器学习任务,适用于云数据中心或其他高计算密度的训练和推理场景。

昆仑芯2代AI芯片

昆仑芯2代AI芯片搭载昆仑芯自研的新一代XPU-R架构,是国内首款采用GDDR6显存的通用AI芯片。采用7nm制程工艺,相比1代性能提升2-3倍,算力强大,整数精度算力达到256 TOPS,半精度为128 TFLOPS。

昆仑芯AI加速卡R100

昆仑芯AI加速卡R100是一款基于昆仑芯2代芯片,半高半长形态的AI加速卡,可提供高达128 TOPS@INT8 和最高170 TOPS@INT8 两种算力模式,为多样的边缘AI应用场景提供最优的性能及功耗比。

昆仑芯AI加速卡RG800

昆仑芯AI加速卡RG800基于昆仑芯自研的XPU-R架构,是一款定位于数据中心应用场景的AI加速卡,既可用于常规模型的训练,也可用于多业务并发的高性能AI推理应用,助力各行业实现降本增效,推进产业智能化升级。

昆仑芯AI加速卡R200

昆仑芯AI加速卡R200采用昆仑芯2代AI芯片,为数据中心高性能推理提供256 TOPS@INT8的强大算力,全面支持自然语言处理、计算机视觉、语音以及传统机器学习等各类人工智能任务。

昆仑芯AI加速器组R480-X8

昆仑芯AI加速器组R480-X8采用昆仑芯2代AI芯片,搭载8颗昆仑芯AI加速模块R300。R480-X8可实现芯片间互联,提供200 GB/s片间互联双向聚合带宽、高达1 PetaFLOPS@FP16的算力,多机可构建多节点大规模并行计算集群,满足大型模型训练和推理的需求。

左右滑动,了解昆仑芯两代芯片产品

昆仑芯第二代系列产品矩阵首次亮相

针对不同参数级别的昆仑芯第二代系列产品矩阵首次亮相,展现强大产品实力,为千行百业智能化升级注入“芯”动力。

昆仑芯AI加速卡R100

昆仑芯AI加速卡RG800

昆仑芯AI加速卡R200-8F

昆仑芯大模型端到端解决方案(继正式发布后首次参展)

昆仑芯赋能“智慧+”场景案例展示

昆仑芯始终坚持开拓创新,用更快、更强、更省的算力赋能AI应用场景,树立“智慧+”场景新标杆。昆仑芯结合互联网、金融、工业、交通、物流与园区等多场景的实际情况,采用先进AI技术成果打造端到端解决方案,提升管理水平与工作效率,降低人力成本与资金损耗。进入昆仑芯官网(www.kunlunxin.com)「解决方案」栏目,可了解更多昆仑芯行业解决方案详细信息

继XceedCon2023昆仑芯首届生态大会后,本次展览,昆仑芯再次联合众多知名生态伙伴,集中展示搭载昆仑芯AI芯片及AI加速卡产品的板卡设计参考、服务器、加速模组、工控机、软硬一体机等硬件产品,覆盖互联网、大模型、智慧金融、智慧物流、智慧工业、智慧交通、智能制造等领域,全面展示昆仑芯技术实力及生态布局。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30084

    浏览量

    268347
  • 模型训练
    +关注

    关注

    0

    文章

    18

    浏览量

    1330
  • 昆仑芯片
    +关注

    关注

    0

    文章

    13

    浏览量

    2265

原文标题:WAIC 2023 | 昆仑芯携生态伙伴重磅亮相世博展览馆,共筑AI算力芯基建

文章出处:【微信号:昆仑芯科技,微信公众号:昆仑芯科技】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    FP8数据格式在大型模型训练中的应用

    本文主要介绍了 FP8 数据格式在大型模型训练中的应用、挑战及最佳实践,展示了 FP8 在提升训练速度和效率方面的潜力和实际效果。
    的头像 发表于 11-19 14:54 137次阅读
    FP<b class='flag-5'>8</b>数据格式在<b class='flag-5'>大型模型</b><b class='flag-5'>训练</b>中的应用

    IBM与AMD携手将在IBM云上部署AMD Instinct MI300X加速器

    近日,全球领先的科技企业IBM与AMD共同宣布了一项重要合作。双方计划在IBM云上部署AMD的Instinct MI300X加速器服务,以满足企业客户对于高性能和高效能AI
    的头像 发表于 11-19 11:03 260次阅读

    FPGA和ASIC在大模型推理加速中的应用

    随着现在AI的快速发展,使用FPGA和ASIC进行推理加速的研究也越来越多,从目前的市场来说,有些公司已经有了专门做推理的ASIC,像Groq的LPU,专门针对大语言
    的头像 发表于 10-29 14:12 202次阅读
    FPGA和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的应用

    NVIDIA助力丽蟾科技打造AI训练推理加速解决方案

    丽蟾科技通过 Leaper 资源管理平台集成 NVIDIA AI Enterprise,为企业和科研机构提供了一套高效、灵活的 AI 训练推理加速
    的头像 发表于 10-27 10:03 160次阅读
    NVIDIA助力丽蟾科技打造<b class='flag-5'>AI</b><b class='flag-5'>训练</b>与<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解决方案

    如何训练自己的AI模型

    训练自己的AI模型是一个复杂且耗时的过程,涉及多个关键步骤。以下是一个详细的训练流程: 一、明确需求和目标 首先,需要明确自己的
    的头像 发表于 10-23 15:07 546次阅读

    AMD助力HyperAccel开发全新AI推理服务

    提高成本效率。HyperAccel 针对新兴的生成式 AI 应用提供超级加速的芯片 IP/解决方案。HyperAccel 已经打造出一个快速、高效且低成本的推理系统,加速了基于转换
    的头像 发表于 09-18 09:37 328次阅读
    AMD助力HyperAccel开发全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服务<b class='flag-5'>器</b>

    LLM大模型推理加速的关键技术

    LLM(大型语言模型)大模型推理加速是当前人工智能领域的一个研究热点,旨在提高模型在处理复杂任务
    的头像 发表于 07-24 11:38 763次阅读

    基于CPU的大型语言模型推理实验

    随着计算和数据处理变得越来越分散和复杂,AI 的重点正在从初始训练转向更高效的AI 推理。Meta 的 Llama3 是功能强大的公开可用的大型
    的头像 发表于 07-18 14:28 475次阅读
    基于CPU的<b class='flag-5'>大型</b>语言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>实验

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    芯片的扩展,以满足大规模AI模型训练推理需求。 DGX SuperPOD配备智能控制平面,能
    发表于 05-13 17:16

    FCom富士晶体振荡AI PC和大型模型的关键支持者

    在今天这个数字时代,人工智能(AI)已成为科技领域的重要推动力。AI PC和大型模型是实现这一技术飞跃的核心,而晶体振荡则是这些计算机系统中不可或缺的一部分。本文将深入探讨
    的头像 发表于 05-08 17:39 584次阅读
    FCom富士晶体振荡<b class='flag-5'>器</b>:<b class='flag-5'>AI</b> PC和<b class='flag-5'>大型模型</b>的关键支持者

    Arm推动生成式AI落地边缘!全新Ethos-U85 AI加速器支持Transformer 架构,性能提升四倍

    电子发烧友网报道(文/黄晶晶)在嵌入式领域,边缘与端侧AI推理需求不断增长,Arm既有Helium 技术使 CPU 能够执行更多计算密集型的 AI
    的头像 发表于 04-16 09:10 4514次阅读
    Arm推动生成式<b class='flag-5'>AI</b>落地边缘!全新Ethos-U85 <b class='flag-5'>AI</b><b class='flag-5'>加速器</b>支持Transformer 架构,性能提升四倍

    Hitek Systems开发基于PCIe的高性能加速器满足行业需求

    Hitek Systems 使用开放式 FPGA 堆栈 (OFS) 和 Agilex 7 FPGA,以开发基于最新 PCIe 的高性能加速器 (HiPrAcc),旨在满足网络、计算和高容量存储应用的需求
    的头像 发表于 03-22 14:02 570次阅读
    Hitek Systems开发基于PCIe的高性能<b class='flag-5'>加速器</b>以<b class='flag-5'>满足</b>行业<b class='flag-5'>需求</b>

    家居智能化,推动AI加速器的发展

    提高了系统的运算能力和数据处理能力,还为用户带来了更加智能化、个性化的生活体验。   AI 加速器的发展   在人工智能和机器学习任务变得日益复杂和密集之前,传统的CPU和GPU已经足以处理这些任务。然而,随着深度学习模型的出现
    的头像 发表于 02-23 00:18 4533次阅读

    英特尔发布第五代至强可扩展处理:性能和能效大幅提升,AI 加速

    此外,至强可扩展处理被誉为行业首屈一指的内置AI加速器数据中心处理,全新第五代产品更能优化参数量高达200亿的大型语言
    的头像 发表于 12-15 11:02 809次阅读

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
    发表于 12-14 11:41