0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

PerfXCloud顺利接入MOE大模型DeepSeek-V2

perfxlab 来源:perfxlab 2024-07-27 10:08 次阅读

今日,在 PerfXCloud 重磅更新支持 llama 3.1 之后,其平台再度实现重大升级!目前,已顺利接入被誉为全球最强的 MOE 大模型DeepSeek-V2,已在 PerfXCloud(澎峰云)官网的体验中心对平台用户免费开放体验。

DeepSeek-V2

DeepSeek-V2是强大的专家混合(MOE)语言模型,在目前大模型主流榜单中,DeepSeek-V2 综合能力表现出色:

中文综合能力(AlignBench)开源模型中最强,与GPT-4-Turbo,文心4.0等闭源模型在评测中处于同一梯队

英文综合能力(MT-Bench)与最强的开源模型LLaMA3-70B同处第一梯队,超过最强MOE开源模型Mixtral 8x22B

知识、数学、推理、编程等榜单结果也位居前列

支持128K上下文窗口

wKgZomakVtiAA-GLAAGKlzEyOjY270.png

PerfXCloud

PerfXCloud是澎峰科技开发者和企业量身打造的AI开发和部署平台。它专注于满足大模型的微调和推理需求,为用户提供极致便捷的一键部署体验。

PerfXCloud为算力中心提供大模型AI科学与工程计算的整体运营解决方案,助力算力中心升级成为“AI超级工厂”

wKgaomakVtiAMNCmAAKqFAnrxaY517.png

PerfXCloud模型广场

PerfXCloud介绍 目前,PerfXCloud(澎峰云)已面向基石用户免费开放DeepSeek-V2236B的API调用接口。赶快注册申请成为基石用户来体验吧!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源
    +关注

    关注

    3

    文章

    3115

    浏览量

    42028
  • 语言模型
    +关注

    关注

    0

    文章

    487

    浏览量

    10195
  • 大模型
    +关注

    关注

    2

    文章

    2095

    浏览量

    1894

原文标题:PerfXCloud 再度升级,免费开放体验全球顶尖 MOE 大模型 DeepSeek-V2 236B!

文章出处:【微信号:perfxlab,微信公众号:perfxlab】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    零一万物正式开源Yi-Coder系列模型 PerfXCloud火速支持等你体验!

    今日,零一万物宣告正式开源Yi-Coder系列模型:Yi-Coder 1.5B和Yi-Coder 9B,PerfXCloud(澎峰云)大模型开发与服务平台第一时间支持并在平台完成上线,赶快来体验吧
    的头像 发表于 09-05 16:07 62次阅读
    零一万物正式开源Yi-Coder系列<b class='flag-5'>模型</b> <b class='flag-5'>PerfXCloud</b>火速支持等你体验!

    PerfXCloud 重大更新 端侧多模态模型 MiniCPM-Llama3-V 2.5 闪亮上架

    近日,PerfXCloud完成重大更新,上架了面壁小钢炮 MiniCPM 系列的端侧多模态模型 MiniCPM-Llama3-V 2.5,现已对平台用户免费开放体验!
    的头像 发表于 08-27 18:20 350次阅读
    <b class='flag-5'>PerfXCloud</b> 重大更新  端侧多模态<b class='flag-5'>模型</b> MiniCPM-Llama3-<b class='flag-5'>V</b> 2.5 闪亮上架

    【附实操视频】聆思CSK6大模型开发板接入国内主流大模型(星火大模型、文心一言、豆包、kimi、智谱glm、通义千问)

    本帖最后由 jf_40317719 于 2024-8-22 10:15 编辑 多模态交互离不开硬件载体,近期有不少开发者在研究聆思CSK6大模型开发板除了使用出厂示例自带的星火大模型,能不能接入
    发表于 08-22 10:12

    PerfXCloud平台成功接入Meta Llama3.1

    近日,Meta对外宣布推出迄今为止最强大的开源模型——Llama3.1 405B,同时还发布了全新优化升级的70B和8B版本,技术革新的浪潮再次汹涌来袭!在此,我们满怀欣喜地向您宣告,PerfXCloud平台现已成功接入Llam
    的头像 发表于 07-25 10:26 436次阅读

    PerfXCloud模型人工智能生态技术大会圆满落幕

    ——PerfXCloud模型人工智能生态技术大会。本次会议汇聚了政府领导、行业专家及企业代表,共同探讨人工智能的未来趋势,见证PerfXCloud平台的创新技术。与会的重要机构和企业包括国家超算长沙中心、国家超算
    的头像 发表于 07-18 16:47 772次阅读

    在Dify中使用PerfXCloud模型推理服务

    近日,Dify全面接入了Perf XCloud,借助Perf XCloud提供的大模型调用服务,用户可在Dify中构建出更加经济、高效的LLM应用。
    的头像 发表于 07-15 09:28 423次阅读
    在Dify中使用<b class='flag-5'>PerfXCloud</b>大<b class='flag-5'>模型</b>推理服务

    PerfXCloud模型开发与部署平台开放注册

    PerfXCloud 介绍 PerfXCloud是澎峰科技为开发者和企业量身打造的AI开发和部署平台。它专注于满足大模型的微调和推理需求,为用户提供极致便捷的一键部署体验。 PerfXClou
    的头像 发表于 07-02 10:27 221次阅读
    <b class='flag-5'>PerfXCloud</b>大<b class='flag-5'>模型</b>开发与部署平台开放注册

    PerfXCloud-AI大模型夏日狂欢来袭,向基石用户赠送 ∞ 亿Token!

    PerfXCloud致力于为用户提供极致便捷的一键部署体验,以及全面保护客户私有模型权益和数据安全。
    的头像 发表于 06-25 16:54 242次阅读
    <b class='flag-5'>PerfXCloud</b>-AI大<b class='flag-5'>模型</b>夏日狂欢来袭,向基石用户赠送 ∞ 亿Token!

    昆仑万维开源2千亿稀疏大模型Skywork-MoE

    近日,昆仑万维公司宣布开源一款名为Skywork-MoE的稀疏大模型,该模型拥有高达2千亿参数,不仅性能强劲,而且推理成本更低,为人工智能领域带来了新的突破。
    的头像 发表于 06-04 14:44 472次阅读

    MOE与MOT:提升LLM效能的关键策略比较

    MoE 与 MoT:在专家混合中(左),每个令牌都被路由到不同的专家前馈层。在令牌混合(右)中,每组内的令牌被混合,并且混合令牌由专家前馈层处理。
    的头像 发表于 04-15 09:53 518次阅读
    <b class='flag-5'>MOE</b>与MOT:提升LLM效能的关键策略比较

    基于NVIDIA Megatron Core的MOE LLM实现和训练优化

    本文将分享阿里云人工智能平台 PAI 团队与 NVIDIA Megatron-Core 团队在 MoE (Mixture of Experts) 大语言模型(LLM)实现与训练优化上的创新工作。
    的头像 发表于 03-22 09:50 543次阅读
    基于NVIDIA Megatron Core的<b class='flag-5'>MOE</b> LLM实现和训练优化

    汤姆猫正在推进申请接入OpenAI的Sora模型

    汤姆猫在互动平台上透露,公司正在积极推进申请接入OpenAI的Sora模型,并计划进行相关素材制作的测试。目前,汤姆猫尚未正式接入Sora模型
    的头像 发表于 03-05 10:20 720次阅读

    昆仑万维发布新版MoE大语言模型天工2.0

    昆仑万维科技今日震撼发布全新升级的「天工2.0」MoE大语言模型以及配套的新版「天工AI智能助手」APP。此次更新标志着国内首个搭载MoE架构的千亿级参数大语言模型AI应用正式面向广大
    的头像 发表于 02-06 16:19 1115次阅读

    幻方量化发布了国内首个开源MoE模型—DeepSeekMoE

    幻方量化旗下组织深度求索发布了国内首个开源 MoE模型 —— DeepSeekMoE,全新架构,免费商用。
    的头像 发表于 01-23 11:28 1255次阅读
    幻方量化发布了国内首个开源<b class='flag-5'>MoE</b>大<b class='flag-5'>模型</b>—DeepSeekMoE

    对标OpenAI GPT-4,MiniMax国内首个MoE大语言模型全量上线

    MoE 架构全称专家混合(Mixture-of-Experts),是一种集成方法,其中整个问题被分为多个子任务,并将针对每个子任务训练一组专家。MoE 模型将覆盖不同学习者(专家)的不同输入数据。
    的头像 发表于 01-16 15:34 701次阅读
    对标OpenAI GPT-4,MiniMax国内首个<b class='flag-5'>MoE</b>大语言<b class='flag-5'>模型</b>全量上线