0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenAI断供API,国产大模型替代方案低成本迁移

Carol Li 来源:电子发烧友 作者:李弯弯 2024-06-27 09:04 次阅读

电子发烧友网报道(文/李弯弯)日前,不少国内API开发者收到了来自OpenAI的邮件。邮件称,从7月9日起采取额外措施,阻止来自非支持国家和地区列表中的地区的API流量。根据OpenAI官网,支持访问API服务的国家和地区列表中总计188个国家和地区,不包括中国内地与中国香港。

这意味着,OpenAI宣布终止对中国开发者提供API服务。OpenAI终止对中国提供API服务,对一些通过接入OpenAI API做大模型或应用的企业会有影响,不过这对国产大模型的长远发展却也有积极意义,它反而促进国产大模型的自主研发,并带来更多应用机会。

国产大模型纷纷推出替代方案

随着OpenAI停止对中国提供API服务,国内大模型公司纷纷行动,上线“迁移计划”。如智谱,该公司第一时间在官微宣布,面向OpenAI API用户提供特别搬家计划,帮助用户切换至国产大模型,其 GLM 大模型号称全面对标 OpenAI 产品体系,且全链路技术自研、安全可控。

具体来看,智谱为开发者提供1.5亿Token(5000万 GLM-4 + 1亿 GLM-4-Air),从OpenAI 到 GLM 的系列迁移培训。对于高用量客户,智谱提供与OpenAI使用规模对等的Token赠送计划(不设上限),以及与 OpenAI 对等的并发规模,匹配高等级会员政策,专属搬家顾问及5人天技术专家支持,备案培训和辅助。

百度智能云千帆推出大模型普惠计划,称让用户0成本切换至国内调用量第一的大模型平台,场景更丰富、模型更全面、工具链更完整易用、更安全可靠。

具体来看,即日起为新注册企业用户提供0元调用服务:文心旗舰模型首次免费,赠送ERNIE3.5旗舰模型5000万Tokens包,主力模型ERNIE Speed/ERNIE Lite和轻量模型ERNIE Tiny持续免费 ;针对OpenAI迁移用户额外赠送与OpenAI使用规模对等的ERNIE3.5旗舰模型Tokens包。

同时,该计划还支持0元训练、0元迁移、0元服务。0 元训练:免费模型精调训练服务 0 元迁移:零成本 SDK 迁移工具;0 元服务:专家服务(迁移 & 使用指导)。

腾讯云宣布,即日起至2024年7月31日24时,将为新迁移企业用户免费赠送1亿腾讯混元大模型tokens(标记),并提供免费专属迁移工具和服务。目前,腾讯云提供混元Pro、Standard、Lite等多个不同版本和尺寸的模型,用户可任意选择。

阿里云百炼宣布,将为OpenAI API用户提供最具性价比的中国大模型替代方案,并为中国开发者提供2200万免费tokens和专属迁移服务。根据斯坦福最新公布的大模型测评榜单HELM MMLU,Qwen2-72B得分为0.824,与GPT-4并列全球第四。通义千问GPT4级主力模型Qwen-plus在阿里云百炼上的调用价格为0.004元/千tokens,仅为GPT-4的50分之一。

由李开复创立的AI大模型独角兽公司零一万物也发起“Yi API二折平替计划”,面向OpenAI用户推出平滑迁移至Yi系列大模型的服务。据介绍,目前注册使用Yi API的新客户,零一万物立即赠送100元额度,帮助用户完成平稳过渡;平台充值还将赠送50%到账额度,上不封顶。此外,零一万物API还将提供Prompt兼容调优服务支持。

百川智能宣布特别推出OpenAI 零成本迁移计划,将为参与用户免费赠送1 千万 token,同时宣布Assitants API 免费使用。据介绍,目前百川智能开放平台接口已完全兼容OpenAI API,支持零成本迁移,功能更丰富。借助百川技术专家随时答疑,开发者五分钟即可完成Api迁移。

少不了算力芯片的支持

国产大模型纷纷推出替代方案,这背后少不了需要算力芯片的支持。目前国内大模型训练基本使用英伟达GPU,英伟达的GPU因其强大的并行处理能力和高效的计算性能,被广泛应用于深度学习机器学习等需要大量计算资源的领域。

如阿里通义千问大模型,它包含多个不同规模的版本,Qwen-1.8B、Qwen-7B、Qwen-14B和Qwen-72B等,据了解,阿里通义千问大模型主要使用英伟达Tesla A100、Tesla A800、Tesla H100等GPU芯片,这些GPU具有较大的显存和强大的计算能力,能够满足大模型训练的需求。

百度文心一言主要基于英伟达的A100 GPU完成其高效的深度学习计算任务。A100 GPU采用了NVIDIA最新的Ampere架构,被广泛应用在各种AI模型和高性能计算场景中。A100 GPU在文心一言的构建和运行过程中,执行大规模并行处理任务,特别是在语义理解、语境关联及文本生成等领域内。

除此之外,百度也兼容其他公司的GPU,在英伟达A100、H100等训练AI用GPU遭遇进口管制的情况下,百度采用了将来自不同供应商的GPU集成到统一的计算集群中的策略,以训练大语言模型。

字节跳动大模型在训练过程中也是主要使用英伟达的GPU。据悉,字节跳动在2023年向英伟达订购了超过10亿美元的GPU产品,目前已经采购了10万块A100与H800加速卡,这两款GPU均属于英伟达的高性能计算产品线,非常适合用于深度学习、大模型训练等任务。

另外,像智谱、百川智能等也主要使用英伟达的GPU。智谱AI通过与优刻得等公司的合作,利用英伟达GPU构建超千卡规模的推理集群,以满足其大模型在文本、图片、视频等多场景下的大规模实时推理需求。

百川智能与鸿博股份的全资子公司英博数科合作,后者向百川智能提供的智算服务器,其单台所提供的算力规模和性能不低于英伟达H系列8卡智算服务器所有的同等算力。这意味着百川智能大模型的训练过程中,将直接使用到英伟达高性能的GPU资源。

除了使用英伟达GPU之外,一些国产大模型的训练和运行也使用国内的算力芯片,如华为、科大讯飞、月之暗面等。同时,海光信息、天数智芯、摩尔线程、沐曦、景嘉微等都已经推出和搭建可以支持大模型训练和推理的芯片、系统和智算集群。

写在最后

总的来说,OpenAI停止对中国开发者提供API服务,对于目前一些调用通过接入OpenAI API做大模型和AI应用的企业来说有所影响,不过,国内不少大模型厂商已经纷纷推出替代方案,虽然目前国产大模型较OpenAI有一定差距,不过随着更多的被使用,长远来看国产大模型将会逐步实现突破。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • API
    API
    +关注

    关注

    2

    文章

    1437

    浏览量

    61233
  • OpenAI
    +关注

    关注

    9

    文章

    917

    浏览量

    6066
  • 大模型
    +关注

    关注

    2

    文章

    1867

    浏览量

    1488
收藏 人收藏

    评论

    相关推荐

    openAlAPI服务 多家国产模型迁移计划

    行业芯事行业资讯
    电子发烧友网官方
    发布于 :2024年06月26日 11:30:50

    OpenAI发出警告信:多国开发者面临API封锁 OpenAI API解决方案

    事件背景 2024年7月9日,OpenAI宣布将封锁对不支持国家的API访问,许多开发者因此收到了警告信。这一决定引起了广泛的关注和讨论,尤其是在那些受影响的国家和地区。 警告信的内容 OpenAI
    的头像 发表于 06-26 11:29 298次阅读
    <b class='flag-5'>OpenAI</b>发出警告信:多国开发者面临<b class='flag-5'>API</b>封锁 <b class='flag-5'>OpenAI</b> <b class='flag-5'>API</b>解决<b class='flag-5'>方案</b>

    OpenAI API Key获取:开发人员申请GPT-4 API Key教程

      OpenAI的GPT-4模型因其卓越的自然语言理解和生成能力,成为了许多开发者的首选工具。获取GPT-4 API Key并将其应用于项目,如开发一个ChatGPT聊天应用,不仅是实践人工智能技术
    的头像 发表于 06-24 17:40 352次阅读
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>API</b> Key获取:开发人员申请GPT-4 <b class='flag-5'>API</b> Key教程

    高性能、低成本的无线模块完美替代SX1278

    定的纯国产化模块方案——GC433-TC037。为什么选择GC433-TC037?GC433-TC037模组是一款专为LPWAN物联网应用而研制的远距离、低功耗和更低成本
    的头像 发表于 06-13 14:17 116次阅读
    高性能、<b class='flag-5'>低成本</b>的无线模块完美<b class='flag-5'>替代</b>SX1278

    ChatGPT-4 API 密钥:官方申请指南及国内直连使用攻略

    API Key: 访问 OpenAI 官方网站。 寻找 API 部分并选择 「获取 API Key 」 选项。 二、配置 ChatGPT 4.0
    的头像 发表于 05-29 17:08 1983次阅读
    ChatGPT-4 <b class='flag-5'>API</b> 密钥:官方申请指南及国内直连使用攻略

    OpenAI 深夜抛出王炸 “ChatGPT- 4o”, “她” 来了

    当地时间5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前迈出的一大步。在GPT-4turbo的强大基础上,这种迭代拥有显著的改进。在发布会的演示中,OpenAI展示该模型的高级
    发表于 05-27 15:43

    智谱AI正在研发国产文生视频模型,对标OpenAI Sora

    国内AI领域的独角兽企业智谱AI正全力研发一款与OpenAI的Sora相媲美的国产文生视频模型。据悉,该模型的技术研发已取得显著进展,预计最快将于今年内正式对外发布。
    的头像 发表于 05-13 11:14 411次阅读

    OpenAI API Key获取与充值教程:助开发者解锁GPT-4.0 API

    在人工智能的浪潮中,OpenAI 的 GPT-4.0 模型以其卓越的语言理解和生成能力引领了技术的新高潮。为开发者提供了强大的工具来创建更智能、更互动的应用。本文将详细介绍如何获取并充值
    的头像 发表于 04-28 16:35 3721次阅读
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>API</b> Key获取与充值教程:助开发者解锁GPT-4.0 <b class='flag-5'>API</b>

    OpenAI发布文生视频大模型Sora、英伟达市值超谷歌

    OpenAI加入文生视频大模型的战局,AI大模型进入视频生成的阶段,这将进一步刺激AI芯片的需求。 OpenAI发布文生视频大模型Sora,
    的头像 发表于 03-28 18:13 629次阅读

    OpenAI首届开发者日举办,新模型实现六大升级

     openai最初提供32k的上下文长度,而gpt-4 turbo则提供128k,相当于300页文档。openai还为开发者提供了更好的api、函数调用、一次调用多个函数并将响应整合到消息输出中的控制功能。
    的头像 发表于 11-08 09:59 369次阅读

    ChatGPT重磅更新 OpenAI发布GPT-4 Turbo模型价格大降2/3

    发布GPT-4 Turbo模型 北京时间11月7日凌晨两点,OpenAI首届开发者大会在洛杉矶正式开幕。 Sam Altman分享了ChatGPT取得的成就。“有大约200万开发人员,在我们的API
    的头像 发表于 11-07 18:20 2334次阅读
    ChatGPT重磅更新 <b class='flag-5'>OpenAI</b>发布GPT-4 Turbo<b class='flag-5'>模型</b>价格大降2/3

    40亿美元!亚马逊投资OpenAI最强竞品

    亚马逊与 Anthropic 的联手,和微软与 OpenAI 的合作相类似,未来 Anthropic 将利用 AWS 的高性能、低成本机器学习加速器,在 AWS Trainium 和 Inferentia 芯片上训练和部署其未来基础模型
    的头像 发表于 09-26 15:58 476次阅读

    CS5366AN低成本2Lane 4K60 typec转hdmi+pd+u3扩展方案替代GSV2201

    CS5366AN国产typec转hdmi方案芯片,低成本替代GSV2201 2Lane 4K60 typec转hdmi+pd+u3扩展方案
    发表于 08-29 18:37

    三合一低成本筋膜枪主板方案介绍与分享

    三合一低成本筋膜枪主板方案驱动控制板分享与功能介绍
    的头像 发表于 07-23 14:17 1380次阅读
    三合一<b class='flag-5'>低成本</b>筋膜枪主板<b class='flag-5'>方案</b>介绍与分享

    OpenAI宣布GPT-4 API全面开放使用!

    OpenAI 在博客文章中写道:“自 3 月份以来,数百万开发者请求访问 GPT-4 API,并且利用 GPT-4 的创新产品范围每天都在增长。” “我们设想基于对话的模型未来可以支持任何用例。”
    的头像 发表于 07-12 14:55 997次阅读