电子发烧友网报道(文/李弯弯)最近,在ChatGPT火了之后,国内互联网科技圈不时传出计划或者正在研究类ChatGPT大模型的消息。
然而在相关技术真正面世之前,近日,OpenAI又放出新消息,该公司正式开放了ChatGPT的API接口,开发人员可以将ChatGPT模型集成到他们的应用程序和产品中。这意味着ChatGPT将会以更快的速度占领市场,因此国内企业在大模型的研究中更要加快进度。
在大模型发展中,国内具备了怎样的条件
在类ChatGPT及其他大模型的发展中,国内是否具备相应的条件呢?登临科技联合创始人王平日前在接受电子发烧友采访的时候谈到了几点:
他认为,国内在这方面是具备一定条件的,首先是数据,这是大模型技术中非常重要的一个生产要素,国内在数据上是有一定积累的;其次是人才,在这方面国内有不少优秀的算法人才,在大模型方面具备一定的知识基础与经验;此外,目前国内也有比较不错的AI框架平台以及具备核心技术完全自主研发能力的GPGPU厂商。整体来说整套的生产要素上都有一定的基础,只不过在成熟度上跟OpenAI相比还存在一定差距。
具体来看,在AI框架方面,OpenAI能够推出能力如此强大的ChatGPT,它应该有自己专门的框架。现在各种商用的框架,包括国产的飞桨paddlepaddle,以及Tensorflow或者Pytorch,其实更多是用于常规模型,而不是大模型的调度。因此在发展ChatGPT类大模型方面,还存在一些挑战,需要去持续创新。
在人才方面,虽然目前国内具备一些算法相关的人才,然而整体而言是处于较为紧缺的状态。另外大模型的训练,也需要算法工程师具备丰富的经验积累,因为模型太大,中间涉及很多技术,这并不是短时间砸钱就能达到的。
在硬件层面,国内的GPGPU具有自身的特色,甚至在一些领域比NVIDIA更具优势,在ChatGPT或者相关大模型上,也有它的优势。不过整体来看,还是存在差距,需要不断进行创新和迭代,要不停的向前走。
大模型发展对GPGPU提出了怎样的要求
ChatGPT火热之后,可以明显看到国内在AI大模型方面的发展将会加速,这对国内GPGPU来说意味着什么呢?大模型的发展,必然少不了GPGPU,GPGPU对于大模型就相当于是发动机之于汽车。王平认为,近十几年AI的再度兴起,到现在ChatGPT的爆火,以及未来AI产业的发展再上一个台阶,如果没有GPGPU,这些都不大可能会实现。
因为每个大模型训练和部署的背后,都有几万个GPGPU在支持。可想而知,未来随着这方面的研发和应用的普及,GPGPU市场需求将会再度迎来爆发式增长。
以电力为例,就可以很清楚的看到这个市场未来可能发生的变化。几十年前,电力只是用在一些小用量的场景,随着电力的供给越来越多,电器也越来越多的时候,最后电力就成了一个基本设施。可以说,算力也是朝着基础设施的方向在发展。在王平看来,现在GPGPU还远没有到爆炸式需求的阶段。
当然在ChatGPT或者其他大模型训练和部署,对GPGPU或者说算力也会有更高的要求。王平谈到了几个方面:
首先从单卡层面来看,先来看一组数据,1月份的时候ChatGPT的用户数突破1亿,日访问量有几千万,在这种情况下,它的运营成本会相当高,每天的电费在几十万人民币量级。这时候计算效率很重要,如果计算架构相比于传统的GPGPU更有优势的话,比如,登临科技一些计算密度更大的产品,在计算效率上就更有优势。
其次是单卡之外,卡片间的互联也很重要。因为在用户侧工作的实际上是一个超级计算机系统,在训练的时候,带宽、片间、服务器间的信息传递很重要,这就需要针对大模型的训练框架,在整个服务器集群的调度和协同工作中进行升级优化。
再者就是软件方面,一般来说在软硬件协同的系统里,软件的重要作用不可忽视,因为一些软件栈的原因,或者软件协同调度的问题,硬件往往不能完全发挥出能力。所以我们经常可以看到,在一些场景下,软件稍微进行优化,整体应用性能就会有百分之几十,甚至百分之百的提升。
从硬件公司的角度来看,GPGPU是一个通用平台,行业整体有产品异构化的走向,总体来说,GPGPU存在一些性能瓶颈。登临科技是一家专注于高性能通用计算平台的芯片研发与技术创新的公司,登临自主研发的GPU+架构正式采用了软件定义的片内异构体系,目前首款基于GPU+的系列产品—Goldwasser已在云至边缘的各个应用场景实现规模化落地。据王平介绍:登临科技希望通过异构,从由点及面在一些足够大的市场领域,把产品做到比英伟达同系列产品更具性价比优势,甚至超过英伟达。
带着这样的出发点,在大型语言模型方面,登临科技会更关心如何更好的提升产品的能效比。简单来说,在同样功耗下,登临科技可以提供英伟达1.5到2倍的算力,在算力一致的情况下下,做到单位功耗更低这样从计算的整体性能上实现英伟达同类产品的能效比3倍的优势。如此一来,上面提到的电费、运维成本都将会有很大的节省。
小结
不难看出,以ChatGPT为代表的大语言模型发展和应用,对人们生产生活意义重大。随着它的技术和应用逐步成熟,其对GPGPU等算力硬件的需求将会持续增加,就如同文中提到的电力的发展路径一样。当然大模型对GPGPU及算力集群系统的也有更高的要求,比如计算效率更高,能够节省电费和运维成本等,可想而知,对于硬件公司来说,谁能够在这方面更具优势,谁就更能在未来大模型处处落地的时候,更占据优势。
然而在相关技术真正面世之前,近日,OpenAI又放出新消息,该公司正式开放了ChatGPT的API接口,开发人员可以将ChatGPT模型集成到他们的应用程序和产品中。这意味着ChatGPT将会以更快的速度占领市场,因此国内企业在大模型的研究中更要加快进度。
在大模型发展中,国内具备了怎样的条件
在类ChatGPT及其他大模型的发展中,国内是否具备相应的条件呢?登临科技联合创始人王平日前在接受电子发烧友采访的时候谈到了几点:
他认为,国内在这方面是具备一定条件的,首先是数据,这是大模型技术中非常重要的一个生产要素,国内在数据上是有一定积累的;其次是人才,在这方面国内有不少优秀的算法人才,在大模型方面具备一定的知识基础与经验;此外,目前国内也有比较不错的AI框架平台以及具备核心技术完全自主研发能力的GPGPU厂商。整体来说整套的生产要素上都有一定的基础,只不过在成熟度上跟OpenAI相比还存在一定差距。
具体来看,在AI框架方面,OpenAI能够推出能力如此强大的ChatGPT,它应该有自己专门的框架。现在各种商用的框架,包括国产的飞桨paddlepaddle,以及Tensorflow或者Pytorch,其实更多是用于常规模型,而不是大模型的调度。因此在发展ChatGPT类大模型方面,还存在一些挑战,需要去持续创新。
在人才方面,虽然目前国内具备一些算法相关的人才,然而整体而言是处于较为紧缺的状态。另外大模型的训练,也需要算法工程师具备丰富的经验积累,因为模型太大,中间涉及很多技术,这并不是短时间砸钱就能达到的。
在硬件层面,国内的GPGPU具有自身的特色,甚至在一些领域比NVIDIA更具优势,在ChatGPT或者相关大模型上,也有它的优势。不过整体来看,还是存在差距,需要不断进行创新和迭代,要不停的向前走。
大模型发展对GPGPU提出了怎样的要求
ChatGPT火热之后,可以明显看到国内在AI大模型方面的发展将会加速,这对国内GPGPU来说意味着什么呢?大模型的发展,必然少不了GPGPU,GPGPU对于大模型就相当于是发动机之于汽车。王平认为,近十几年AI的再度兴起,到现在ChatGPT的爆火,以及未来AI产业的发展再上一个台阶,如果没有GPGPU,这些都不大可能会实现。
因为每个大模型训练和部署的背后,都有几万个GPGPU在支持。可想而知,未来随着这方面的研发和应用的普及,GPGPU市场需求将会再度迎来爆发式增长。
以电力为例,就可以很清楚的看到这个市场未来可能发生的变化。几十年前,电力只是用在一些小用量的场景,随着电力的供给越来越多,电器也越来越多的时候,最后电力就成了一个基本设施。可以说,算力也是朝着基础设施的方向在发展。在王平看来,现在GPGPU还远没有到爆炸式需求的阶段。
当然在ChatGPT或者其他大模型训练和部署,对GPGPU或者说算力也会有更高的要求。王平谈到了几个方面:
首先从单卡层面来看,先来看一组数据,1月份的时候ChatGPT的用户数突破1亿,日访问量有几千万,在这种情况下,它的运营成本会相当高,每天的电费在几十万人民币量级。这时候计算效率很重要,如果计算架构相比于传统的GPGPU更有优势的话,比如,登临科技一些计算密度更大的产品,在计算效率上就更有优势。
其次是单卡之外,卡片间的互联也很重要。因为在用户侧工作的实际上是一个超级计算机系统,在训练的时候,带宽、片间、服务器间的信息传递很重要,这就需要针对大模型的训练框架,在整个服务器集群的调度和协同工作中进行升级优化。
再者就是软件方面,一般来说在软硬件协同的系统里,软件的重要作用不可忽视,因为一些软件栈的原因,或者软件协同调度的问题,硬件往往不能完全发挥出能力。所以我们经常可以看到,在一些场景下,软件稍微进行优化,整体应用性能就会有百分之几十,甚至百分之百的提升。
从硬件公司的角度来看,GPGPU是一个通用平台,行业整体有产品异构化的走向,总体来说,GPGPU存在一些性能瓶颈。登临科技是一家专注于高性能通用计算平台的芯片研发与技术创新的公司,登临自主研发的GPU+架构正式采用了软件定义的片内异构体系,目前首款基于GPU+的系列产品—Goldwasser已在云至边缘的各个应用场景实现规模化落地。据王平介绍:登临科技希望通过异构,从由点及面在一些足够大的市场领域,把产品做到比英伟达同系列产品更具性价比优势,甚至超过英伟达。
带着这样的出发点,在大型语言模型方面,登临科技会更关心如何更好的提升产品的能效比。简单来说,在同样功耗下,登临科技可以提供英伟达1.5到2倍的算力,在算力一致的情况下下,做到单位功耗更低这样从计算的整体性能上实现英伟达同类产品的能效比3倍的优势。如此一来,上面提到的电费、运维成本都将会有很大的节省。
小结
不难看出,以ChatGPT为代表的大语言模型发展和应用,对人们生产生活意义重大。随着它的技术和应用逐步成熟,其对GPGPU等算力硬件的需求将会持续增加,就如同文中提到的电力的发展路径一样。当然大模型对GPGPU及算力集群系统的也有更高的要求,比如计算效率更高,能够节省电费和运维成本等,可想而知,对于硬件公司来说,谁能够在这方面更具优势,谁就更能在未来大模型处处落地的时候,更占据优势。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
ChatGPT
+关注
关注
29文章
1560浏览量
7618 -
大模型
+关注
关注
2文章
2437浏览量
2668
发布评论请先 登录
相关推荐
ChatGPT:怎样打造智能客服体验的重要工具?
ChatGPT作为智能对话生成模型,可以帮助打造智能客服体验的重要工具。以下是一些方法和步骤:1.数据收集和准备:收集和整理与客服相关的数据,包括常见问题、回答示例、客户对话记录等。这将用于训练
如何提升 ChatGPT 的响应速度
同时进行,从而减少总体响应时间。 模型压缩 :通过模型压缩技术,如量化、剪枝等,可以减少模型的大小,从而加快模型的加载和推理速度。 知识蒸馏
ChatGPT 与人工智能的未来发展
ChatGPT是人工智能领域的一个重要里程碑,它代表了自然语言处理(NLP)技术的最新进展。ChatGPT是由人工智能研究实验室OpenAI开发的一种深度学习模型,它能够理解和生成自然语言文本。这种
怎样搭建基于 ChatGPT 的聊天系统
搭建一个基于ChatGPT的聊天系统是一个涉及多个步骤的过程,包括理解ChatGPT的API、设计用户界面、处理数据和集成ChatGPT模型。以下是一个简化的指南,用于创建一个基本的聊
如何使用 ChatGPT 进行内容创作
到ChatGPT平台。 选择模型 : ChatGPT目前支持GPT3.5和GPT4两个模型。根据创作需求,选择合适的模型。一般来说,GPT4
大模型LLM与ChatGPT的技术原理
在人工智能领域,大模型(Large Language Model, LLM)和ChatGPT等自然语言处理技术(Natural Language Processing, NLP)正逐步改变着人类
llm模型和chatGPT的区别
,有许多不同的LLM模型,如BERT、GPT、T5等。 ChatGPT是一种基于GPT(Generative Pre-trained Transformer)
名单公布!【书籍评测活动NO.34】大语言模型应用指南:以ChatGPT为起点,从入门到精通的AI实践教程
了备受瞩目的ChatGPT。在接下来的不到一年的时间里,大语言模型的生态系统迅速壮大并蓬勃发展。
大语言模型的生态系统可以分为 模型层、框架
发表于 06-03 11:39
OpenAI 深夜抛出王炸 “ChatGPT- 4o”, “她” 来了
当地时间5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前迈出的一大步。在GPT-4turbo的强大基础上,这种迭代拥有显著的改进。在发布会的演示中,OpenAI展示该模型的高级
发表于 05-27 15:43
ChatGPT、Gemini、通义千问等一众大语言模型,哪家更适合您?
随着人工智能技术的飞速发展,大语言模型(Large Language Models, LLMs)在各行各业的应用日益广泛,尤其是在软件开发、数据分析、客户服务等领域。蘑菇云创客空间[445期开放夜
大语言模型:原理与工程实践+初识2
前言
深度学习是机器学习的分支,而大语言模型是深度学习的分支。机器学习的核心是让计算机系统通过对数据的学习提高性能,深度学习则是通过创建人工神经网络处理数据。近年人工神经网络高速发展,引发深度学习
发表于 05-13 00:09
苹果拟推出自研大语言模型Ajax,以优化iOS 18,但排除ChatGPT等选项
早在2023年7月,Ajax模型就曾引发关注。该模型采用Google的Jax机器学习框架,运行在谷歌Cloud平台上,被部分工程师称为“Apple GPT”,与OpenAI的ChatGPT、微软的Bing以及谷歌的Bard
名单公布!【书籍评测活动NO.30】大规模语言模型:从理论到实践
评测资格!
2022年11月,ChatGPT的问世展示了大模型的强大潜能,对人工智能领域有重大意义,并对自然语言处理研究产生了深远影响,引发了大模型研究的热潮。
距
发表于 03-11 15:16
【国产FPGA+OMAPL138开发板体验】(原创)6.FPGA连接ChatGPT 4
方面。而且,由于ChatGPT 4是一个大型的语言模型。通常,FPGA会用于处理一些底层的数据流或执行特定的硬件加速任务,而ChatGPT 4这样的模型则会在云端或高
发表于 02-14 21:58
评论