在中国,面对美国实施的芯片限制以及相较于西方企业更为有限的预算,人工智能(AI)公司正积极寻求降低成本的方法,以开发出具有市场竞争力的模型。初创公司如01.ai(零一万物)和DeepSeek(深度求索)等,通过聚焦小数据集进行AI模型训练,并聘请价格适中但技术熟练的计算机工程师,成功降低了成本。
与此同时,阿里巴巴、百度和字节跳动等大型科技集团也加入了价格战,大幅降低“推理”成本,即调用大型语言模型生成响应的价格。这些大模型的价格已经下降了90%以上,远低于美国同行的水平。
总部位于北京的01.ai,由前谷歌中国区总裁李开复领导,通过构建以较少数据量进行训练、需要较少计算能力的模型,并优化硬件,成功降低了推理成本。李开复表示,中国的优势在于制造出价格实惠的推理引擎,并广泛推广其应用。
在加州大学伯克利分校SkyLab和LMSYS研究人员发布的排名中,01.ai的Yi-Lightning模型与马斯克名下公司x.AI的Grok-2在大型语言模型(LLM)公司中并列第三,仅次于OpenAI和谷歌。其他中国公司如字节跳动、阿里巴巴和DeepSeek也在大模型排名榜上名列前茅。
Yi-Lightning的推理成本为每百万token 14美分,远低于OpenAI的GPT-4等模型。李开复表示,其目标不是拥有最佳模型,而是开发出一个具有竞争力的模型,开发人员使用它来构建应用程序的成本要低5到10倍。
为了降低成本,许多中国AI企业采用了所谓的“混合专家模型(MoE)”方法,这一策略最初由美国研究人员提出。该方法结合了多个针对行业特定数据进行训练的神经网络,而不是在庞大的数据库上一次性训练一个“密集模型”。研究人员认为,这是实现与密集模型相同智能水平但计算能力较低的关键方法。
然而,混合专家模型方法更容易失败,因为工程师必须协调多个“专家”的训练过程。因此,中国AI企业在过去一年中一直在竞相开发最高质量的数据集,以训练这些“专家”,从而在竞争中脱颖而出。
李开复强调,中国的优势不在于进行前所未有的突破性研究,而在于建设得好、快、可靠且便宜。这一理念正引领着中国AI企业在降低成本、提高模型竞争力的道路上不断前行。
-
AI
+关注
关注
87文章
30728浏览量
268886 -
人工智能
+关注
关注
1791文章
47183浏览量
238253 -
LLM
+关注
关注
0文章
286浏览量
327
发布评论请先 登录
相关推荐
评论