0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

摩尔线程携手智源研究院完成基于Triton的大模型算子库适配

摩尔线程 来源:摩尔线程 2024-08-02 11:06 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近日,摩尔线程与北京智源人工智能研究院(简称:智源研究院)已顺利完成基于Triton语言的高性能算子库FlagGems的适配工作。得益于摩尔线程自研统一系统计算架构MUSA,双方在短短一周多的时间里,即成功完成了近60个算子的功能验证,精度符合交付标准,并实现对Bert-large模型的全面支持。FlagGems算子库在摩尔线程MUSA架构上展现出了接近手写算子的计算性能,且性能还在持续调优,极大加速了开源大模型在摩尔线程全功能GPU上的部署速度。

智源研究院在今年的智源大会上推出了FlagGems算子库,这是一个使用Triton编程语言实现的高性能通用算子库,旨在为大语言模型提供一系列可应用于PyTorch框架的算子,加速模型的推理与训练,降低新算法的开发门槛,促进芯片架构的创新。FlagGems算子库以Triton编程语言的易用性和编译器的标准接口为基础,为多元芯片提供了一套易适配、高性能的算子解决方案,推动基于Triton的统一、开源的软硬件生态建设。

在适配过程中,摩尔线程与智源研究院团队紧密合作,共同克服了一系列技术挑战,确保FlagGems算子库在摩尔线程全功能GPU上的高效稳定运行。摩尔线程研发团队经过充分调研论证,还形成了Triton编译器在MUSA架构上适配的完整方案,力求实现开发者在基于摩尔线程全功能GPU进行Triton开发算子过程中,也能获得与原来一致的体验,做到CUDA框架和MUSA框架的无缝迁移。

此次合作不仅充分展示了摩尔线程全功能GPU强大的兼容性、灵活性与扩展性,也为开发者和用户带来了更广泛的选择和更高效的开发体验。摩尔线程和智源研究院将继续深化合作,共同促进AI技术的发展和应用,为中国大模型的发展贡献力量。

关于智源研究院

北京智源人工智能研究院(简称:智源研究院)是北京市于2018年11月推动成立的新型研发机构。智源研究院的核心目标是聚焦人工智能原始创新和核心技术,推动人工智能理论、方法、工具、系统和应用取得变革性、颠覆性突破,支撑北京建设成为全球人工智能学术思想、基础理论、顶尖人才、企业创新和发展政策的源头。

关于摩尔线程

摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。

我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源
    +关注

    关注

    3

    文章

    4348

    浏览量

    46445
  • 摩尔线程
    +关注

    关注

    2

    文章

    286

    浏览量

    6663
  • 大模型
    +关注

    关注

    2

    文章

    3773

    浏览量

    5273

原文标题:摩尔线程 × 智源研究院|完成基于Triton的大模型算子库适配

文章出处:【微信号:moorethreads,微信公众号:摩尔线程】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    摩尔线程S5000 + 智FlagOS:基于原生FP8引擎,Day-0适配DeepSeek-V4

    4月24日,摩尔线程携手众智FlagOS社区,在旗舰级AI训推一体全功能GPU MTT S5000上,率先实现对新一代大模型DeepSe
    发表于 04-24 16:30 965次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>S5000 + 智<b class='flag-5'>源</b>FlagOS:基于原生FP8引擎,Day-0<b class='flag-5'>适配</b>DeepSeek-V4

    MiniMax M2.7全球开源,摩尔线程、沐曦等完成Day0适配

    厂商、推理平台已完成Day0适配,即在开源首日已经完成模型接入与推理适配工作。   MiniMax介绍,三周前MiniMax M2.7率先上
    的头像 发表于 04-14 11:05 1737次阅读

    Day-0支持|摩尔线程率先完成MiniMax M2.7大模型适配

    4月12日,摩尔线程旗舰级AI训推一体全功能GPU MTT S5000已完成对新一代大模型MiniMax M2.7的Day-0极速适配,再次
    发表于 04-13 07:57 1367次阅读
    Day-0支持|<b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>率先<b class='flag-5'>完成</b>MiniMax M2.7大<b class='flag-5'>模型</b><b class='flag-5'>适配</b>

    Day-0支持|摩尔线程完成智谱GLM-5.1极速适配,高效支撑长程任务与代码生成

      今日,摩尔线程在其旗舰级AI训推一体全功能GPU MTT S5000上,成功实现了对智谱新一代旗舰模型GLM-5.1的Day-0极速适配,提供推理部署和训练复现全流程支持。   依
    的头像 发表于 04-08 14:47 1067次阅读
    Day-0支持|<b class='flag-5'>摩尔</b><b class='flag-5'>线程</b><b class='flag-5'>完成</b>智谱GLM-5.1极速<b class='flag-5'>适配</b>,高效支撑长程任务与代码生成

    摩尔线程S5000通过智FlagOS训练验证,精度高出国际主流1.65个百分点

    近日,北京智人工智能研究院(简称:智研究院)正式发布重磅验证成果:六款AI芯片、三大模型、同构+异构千卡——众智FlagOS以统一技术栈
    发表于 03-27 20:11 907次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>S5000通过智<b class='flag-5'>源</b>FlagOS训练验证,精度高出国际主流1.65个百分点

    摩尔线程与中国移动研究院等,联合发布128卡高密超节点参考设计,定义超大规模智算底座新标准

    ,依托OISA协同创新平台,摩尔线程、中国移动研究院、之江实验室等产业伙伴正式发布《OISA高密超节点参考设计技术规范》。该规范针对当前智算中心面临的互联瓶颈、供电压力及散热极限,提出了全栈式解决方案,为构建自主可控、
    发表于 03-17 08:40 856次阅读

    摩尔线程MTT S5000全面适配Qwen3.5三款新模型

    第一时间做出极速响应,宣布已在旗舰级AI训推一体全功能GPU MTT S5000上,完成对这三款全新模型的全方位适配。   此次高效支持充分展示了摩尔
    的头像 发表于 02-26 16:23 773次阅读

    摩尔线程快速完成对Qwen3.5模型全面适配

    MUSA C编程语言及Triton-MUSA工具链高效完成模型部署与优化。 在Qwen3.5的适配过程中,摩尔
    发表于 02-18 08:32 1120次阅读

    Day-0支持|摩尔线程完成MiniMax M2.5模型极速适配

    2月14日,摩尔线程在其旗舰级AI训推一体全功能GPU MTT S5000上,成功实现了对MiniMax新一代大模型MiniMax M2.5的Day-0极速适配。 在此次
    发表于 02-15 08:01 1587次阅读

    摩尔线程MTT S5000率先完成对GLM-5的适配

    2月11日,智谱正式发布新一代大模型GLM-5。摩尔线程基于SGLang推理框架,在旗舰级AI训推一体全功能GPU MTT S5000上,Day-0完成了全流程
    的头像 发表于 02-12 10:34 979次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>MTT S5000率先<b class='flag-5'>完成</b>对GLM-5的<b class='flag-5'>适配</b>

    Day-0支持|摩尔线程MTT S5000率先完成对GLM-5的适配

    2月11日,智谱正式发布新一代大模型GLM-5。摩尔线程基于SGLang推理框架,在旗舰级AI训推一体全功能GPU MTT S5000上,Day-0完成了全流程
    发表于 02-12 09:15 1618次阅读
    Day-0支持|<b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>MTT S5000率先<b class='flag-5'>完成</b>对GLM-5的<b class='flag-5'>适配</b>

    国产算力首证具身大脑模型训练实力:摩尔线程联合智研究院完成RoboBrain 2.5全流程训练

    随着具身智能成为人工智能的下一个战略高地,底层算力底座的自主可控显得尤为关键。近日,摩尔线程联合北京智人工智能研究院(以下简称:智)基于
    的头像 发表于 01-14 09:05 767次阅读
    国产算力首证具身大脑<b class='flag-5'>模型</b>训练实力:<b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>联合智<b class='flag-5'>源</b><b class='flag-5'>研究院</b><b class='flag-5'>完成</b>RoboBrain 2.5全流程训练

    广电计量携手南山研究院打造大健康产业新生态

    10月19日, “南山研究院南海四周年系列活动”在广东省南山医药创新研究院(简称“南山研究院”)成功举办。期间,南山研究院与广电计量等多家单位联合共建的华南医学健康功效循证评价中心正式
    的头像 发表于 10-23 17:42 1300次阅读

    进迭时空同构融合RISC-V AI CPU的Triton算子编译器实践

    Pytorch已能做到100%替换CUDA,国内也有智研究院主导的FlagGems通用算子试图构建起不依赖CUDA的AI计算生态,截至今日,FlagGems已进入Pyto
    的头像 发表于 07-15 09:04 2204次阅读
    进迭时空同构融合RISC-V AI CPU的<b class='flag-5'>Triton</b><b class='flag-5'>算子</b>编译器实践

    摩尔线程MTT S4000完成DeepSeek R1-671B大模型适配验证

    研究院(简称:中国信通)依托“人工智能芯片测试评估公共服务平台”,构建了AI芯片与大模型协同适配的标准化体系,为产业链上下游深度合作提供关键支撑,并开展AI芯片与大
    的头像 发表于 05-10 09:49 1485次阅读