chatgpt爆炸后,ai大型模型不断开发,多种ai大型模型也陆续上市,在国内已经爆发了激烈的100大模型战争。
作为革命性的数据模型,chatgpt带来的惊喜不仅仅是内容生产方式的变化,也给业界带来了对普通人工智能的希望,推动了ai大规模模型和新应用的不断出现。部分专家认为,未来人工智能研究的80%至90%将转换为大型模型,我们正在走向大型模型时代。
计算能力、数据和算法是传统ai的三个要素,共同实现了人工智能的广泛应用。但是,随着普通人工智能时代(agi)的到来,大容量数据需要大量训练和优化,以达到更高的预测准确性和一般化能力,计算能力的需求已经无法与同期相比。
在大型模型蓬勃发展的时候,计算力量的供给和需求之间存在的巨大“差距”仍在扩大,如何解决对计算力量的“不安”成为产业界新的目标。
基于Transformer结构的大型模型需要越来越多的参数“投喂”来持续优化,随着训练参数的大小增加,计算需求的大小也随之增加,计算集群越来越大。
在chatgpt中,openai构建了一个庞大的计算集群,由约3万张英伟达v100显卡来训练chatgpt。反正密度fp16约有4000 p的功率。
gpt-4达到了100兆韩元的规模,生产需求与前年相比大幅增加。根据数据,大模型的参数数会随着计算力的平方而增加。
投入ai建模的公司如雨后春笋般出现,再加上围绕建模的人工智能生态界和由此引发的推理计算能力的需求,预计未来的计算能力差距将会进一步拉大。
生产能力是否充足将决定各公司大型模型产品的成败。日铁芯片产品线的老板zou表示,head企业的早期gpt mega模型需要约10,000张nvidia gpu,而重复的mega模型至少需要数千张最新gpu。在这一领域出现了很多追随者,从追随企业的角度看,一定不能落后于领头企业,甚至要进行更多的运算基础设施投资才能赶上。
壁仞科技系统架构副总裁丁云帆在人工智能行业盛会——北京智源大会发表《基于高性能通用GPU打造国产大模型训练系统》的演讲时指出,讲话中chatgpt的成功要素是项目和算法的协同创新,数据是燃料,也是基础,特别是高品质的数据。”计算方法起引擎的作用。计算是一个加速器,不仅是超大型gpu集群,内存和网络集群也非常重要。
受禁令影响,国内市场的主要需求是英伟达a800和h800。随着需求的不断增加,英伟达a800的价格涨幅令人震惊,交货周期也变长,甚至有部分新订单表示:“可能要到12月份才能交货。”
值得庆幸的是,国内企业率先在通用gpu领域进行布局,芯片量产、生态系统构建、应用扩张领域也在逐渐推进,随着aigc产业的划时代抬头,打开了新的市场。
-
算法
+关注
关注
23文章
4622浏览量
93060 -
人工智能
+关注
关注
1792文章
47440浏览量
238989 -
大模型
+关注
关注
2文章
2491浏览量
2867
发布评论请先 登录
相关推荐
评论