电子发烧友网报道(文/李弯弯)大模型,又称为预训练模型、基础模型等,大模型通常是在大规模无标注数据上进行训练,学习出一种特征和规则。近期火爆的ChatGPT,便是基于GPT大模型的一个自然语言处理工具。
从参数规模上看,AI大模型先后经历了预训练模型、大规模预训练模型、超大规模预训练模型三个阶段,参数量实现了从亿级到百万亿级的突破。从模态支持上看,AI大模型从支持图片、图像、文本、语音单一模态下的单一任务,逐渐发展为支持多种模态下的多种任务。
AI大模型的发展历程
AI大模型的发展,还要从2017年Vaswani等提出Transformer架构说起,Transformer架构的提出奠定了当前大模型领域主流的算法架构基础。
2018年,谷歌提出了大规模预训练语言模型BERT,该模型是基于Transformer的双向深层预训练模型,其参数首次超过3亿规模;同年,OpenAI提出了生成式预训练Transformer模型GPT,大大地推动了自然语言处理领域的发展。此后,基于BERT的改进模型、ELNet、RoBERTa、T5等大量新式预训练语言模型不断涌现,预训练技术在自然语言处理领域蓬勃发展。
2019年,OpenAI继续推出15亿参数的GPT-2,能够生成连贯的文本段落,做到初步的阅读理解、机器翻译等。紧接着,英伟达推出了83亿参数的Megatron-LM,谷歌推出了110亿参数的T5,微软推出了170亿参数的图灵Turing-NLG。
2020年,OpenAI推出了超大规模语言训练模型GPT-3,参数达到1750亿,在两年左右的时间实现了模型规模从亿级到上千亿级的突破,并能够实现作诗、聊天、生成代码等功能。此后,微软和英伟达在2020年10月联手发布了5300亿参数的MegatronTuring自然语言生成模型(MT-NLG)。
2021年1月,谷歌推出的Switch Transformer模型以高达1.6万亿的参数量成为史上首个万亿级语言模型;到2022年一大批大模型涌现,比如Stability AI发布的文字到图像的创新模型Diffusion,以及OpenAI推出的ChatGPT。
在国内,大模型研究发展迅速。2021年,商汤发布了书生(INTERN)大模型,拥有100亿的参数量;2021年4月,华为云联合循环智能发布盘古NLP超大规模预训练语言模型,参数规模达1000亿,联合北京大学发布盘古α超大规模预训练模型,参数规模达2000亿。
同年4月,阿里达摩院发布270亿参数的中文预训练语言模型PLUG,联合清华大学发布参数规模达到 1000亿的中文多模态预训练模型M6;7月,百度推出ERNIE 3.0知识增强大模型,参数规模达到百亿;10月,浪潮信息发布约2500亿的超大规模预训练模型“源 1.0”;12月,百度推出ERNIE 3.0 Titan模型,参数规模达2600亿。
2022 年,基于清华大学、阿里达摩院等研究成果以及超算基础实现的“脑级人工智能模型”八卦炉(BAGUALU)完成建立,其模型参数规模突破了174万亿个。可以看到,目前大模型参数规模最高已经达到百万亿级别。
大模型研究的重要意义
当前人工智能正处在可以用到好用的落地阶段,但目前仍处于商业落地早期,主要面临着场景需求碎片化、人力研发和应用计算成本高、长尾场景数据较少导致模型训练精度不够、模型算法从实验室场景到真实场景效果差距大等行业痛点。
大模型具备大规模和预训练的特点,一方面有良好的通用性、泛化性,能够解决传统AI应用中门槛高、部署难的问题,另一方面可以作为技术底座,支撑智能化产品及应用落地。
过去很多年,虽然各大科技公司不断推出较大规模的模型,然而直到去年生成式AI逐渐走向商业化,以及去年底今年初OpenAI推出的ChatGPT爆火,AI大模型才真正迎来发展的转折点。美国国家工程院外籍院士、北京智源人工智能研究院理事张宏江此前表示,ChatGPT和AIGC,技术爆火背后,代表着人工智能(AI)大模型进入一个新的技术范式,也是第三波AI浪潮经过十几年发展之后一个非常重要的拐点。
张宏江认为,它其实代表着从以前各自研发专用小模型到研发超大规模通用智能模型的一个范式转变。这个转变的重要意义在于:通过这种比较先进的算法架构,尽可能多的数据,汇集大量算力,集约化的训练达模式,从而供大量用户使用。
大模型的发展很可能会改变信息产业的格局,改变以前作坊式AI开发模式,把AI应用带入基于互联网、云计算的大规模智能云阶段。
小结
虽然过去十几年人工智能技术发展迅速,然而在近几年却遇到了一些技术瓶颈和商业化难题。而大模型的发展和普及,尤其是通过大模型+微调的新技术开发范式,人工智能将能够更好的在各种场景中实现应用,当然大模型的训练和推理对算力等也提出了很高的要求,因此大模型的研究最终能够如何推进人工智能产业的发展,还需要产业链各环节的共同努力。
从参数规模上看,AI大模型先后经历了预训练模型、大规模预训练模型、超大规模预训练模型三个阶段,参数量实现了从亿级到百万亿级的突破。从模态支持上看,AI大模型从支持图片、图像、文本、语音单一模态下的单一任务,逐渐发展为支持多种模态下的多种任务。
AI大模型的发展历程
AI大模型的发展,还要从2017年Vaswani等提出Transformer架构说起,Transformer架构的提出奠定了当前大模型领域主流的算法架构基础。
2018年,谷歌提出了大规模预训练语言模型BERT,该模型是基于Transformer的双向深层预训练模型,其参数首次超过3亿规模;同年,OpenAI提出了生成式预训练Transformer模型GPT,大大地推动了自然语言处理领域的发展。此后,基于BERT的改进模型、ELNet、RoBERTa、T5等大量新式预训练语言模型不断涌现,预训练技术在自然语言处理领域蓬勃发展。
2019年,OpenAI继续推出15亿参数的GPT-2,能够生成连贯的文本段落,做到初步的阅读理解、机器翻译等。紧接着,英伟达推出了83亿参数的Megatron-LM,谷歌推出了110亿参数的T5,微软推出了170亿参数的图灵Turing-NLG。
2020年,OpenAI推出了超大规模语言训练模型GPT-3,参数达到1750亿,在两年左右的时间实现了模型规模从亿级到上千亿级的突破,并能够实现作诗、聊天、生成代码等功能。此后,微软和英伟达在2020年10月联手发布了5300亿参数的MegatronTuring自然语言生成模型(MT-NLG)。
2021年1月,谷歌推出的Switch Transformer模型以高达1.6万亿的参数量成为史上首个万亿级语言模型;到2022年一大批大模型涌现,比如Stability AI发布的文字到图像的创新模型Diffusion,以及OpenAI推出的ChatGPT。
在国内,大模型研究发展迅速。2021年,商汤发布了书生(INTERN)大模型,拥有100亿的参数量;2021年4月,华为云联合循环智能发布盘古NLP超大规模预训练语言模型,参数规模达1000亿,联合北京大学发布盘古α超大规模预训练模型,参数规模达2000亿。
同年4月,阿里达摩院发布270亿参数的中文预训练语言模型PLUG,联合清华大学发布参数规模达到 1000亿的中文多模态预训练模型M6;7月,百度推出ERNIE 3.0知识增强大模型,参数规模达到百亿;10月,浪潮信息发布约2500亿的超大规模预训练模型“源 1.0”;12月,百度推出ERNIE 3.0 Titan模型,参数规模达2600亿。
2022 年,基于清华大学、阿里达摩院等研究成果以及超算基础实现的“脑级人工智能模型”八卦炉(BAGUALU)完成建立,其模型参数规模突破了174万亿个。可以看到,目前大模型参数规模最高已经达到百万亿级别。
大模型研究的重要意义
当前人工智能正处在可以用到好用的落地阶段,但目前仍处于商业落地早期,主要面临着场景需求碎片化、人力研发和应用计算成本高、长尾场景数据较少导致模型训练精度不够、模型算法从实验室场景到真实场景效果差距大等行业痛点。
大模型具备大规模和预训练的特点,一方面有良好的通用性、泛化性,能够解决传统AI应用中门槛高、部署难的问题,另一方面可以作为技术底座,支撑智能化产品及应用落地。
过去很多年,虽然各大科技公司不断推出较大规模的模型,然而直到去年生成式AI逐渐走向商业化,以及去年底今年初OpenAI推出的ChatGPT爆火,AI大模型才真正迎来发展的转折点。美国国家工程院外籍院士、北京智源人工智能研究院理事张宏江此前表示,ChatGPT和AIGC,技术爆火背后,代表着人工智能(AI)大模型进入一个新的技术范式,也是第三波AI浪潮经过十几年发展之后一个非常重要的拐点。
张宏江认为,它其实代表着从以前各自研发专用小模型到研发超大规模通用智能模型的一个范式转变。这个转变的重要意义在于:通过这种比较先进的算法架构,尽可能多的数据,汇集大量算力,集约化的训练达模式,从而供大量用户使用。
大模型的发展很可能会改变信息产业的格局,改变以前作坊式AI开发模式,把AI应用带入基于互联网、云计算的大规模智能云阶段。
小结
虽然过去十几年人工智能技术发展迅速,然而在近几年却遇到了一些技术瓶颈和商业化难题。而大模型的发展和普及,尤其是通过大模型+微调的新技术开发范式,人工智能将能够更好的在各种场景中实现应用,当然大模型的训练和推理对算力等也提出了很高的要求,因此大模型的研究最终能够如何推进人工智能产业的发展,还需要产业链各环节的共同努力。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
AI
+关注
关注
87文章
30728浏览量
268873 -
ChatGPT
+关注
关注
29文章
1558浏览量
7592
发布评论请先 登录
相关推荐
AI大模型与传统机器学习的区别
多个神经网络层组成,每个层都包含大量的神经元和权重参数。 传统机器学习 :模型规模相对较小,参数数量通常只有几千到几百万个,模型结构相对简单
英伟达Blackwell可支持10万亿参数模型AI训练,实时大语言模型推理
、NVLink交换机、Spectrum以太网交换机和Quantum InfiniBand交换机。 英伟达称,Blackwell拥有6项革命性技术,可支持多达10万亿参数的模型进行
英伟达震撼发布:全新AI模型参数规模跃升至80亿量级
8月23日,英伟达宣布,其全新AI模型面世,该模型参数规模高达80亿,具有精度高、计算效益大等优势,适用于GPU
小鹏汇天获1.5亿美元B1轮融资,加速飞行汽车商业化进程
小鹏汇天近日宣布成功完成1.5亿美元的B1轮融资,并同步启动B2轮融资计划,标志着公司在飞行汽车领域的研发与商业化进程迈入新阶段。此次融资不仅为小鹏汇天提供了坚实的资金保障,更将助力其加速推进飞行汽车的研发、规模量产及市场布局。
萝卜快跑爆火的背后,美格智能如何助力无人车商业化?
无人车商业化进程已经迈入加速赛,美格智能将继续坚持研发投入,与产业伙伴共同构建面向智能汽车产业的新质生产力,助力无人车商业化加速发展!
如祺出行香港成功上市,加速自动驾驶商业化进程
近日,广汽集团旗下智慧出行平台如祺出行在香港联合交易所(联交所)隆重举行上市仪式,标志着其正式踏入资本市场的新征程,股票代码定为09680.HK。这一里程碑事件不仅彰显了如祺出行在出行服务领域的深厚积累与强劲实力,更为其未来在自动驾驶技术商业化道路上的加速奔跑注入了强大动
进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片
计算工作负载、释放百亿亿次计算能力和万亿参数人工智能模型的全部潜力提供关键基础。
NVLink释放数万亿参数
发表于 05-13 17:16
软银追加1500亿日元,加速AI大模型开发进程
据了解,软银目前已经在生成式AI算力基础设施方面投资了200亿日元(约合9.36亿元人民币),预计将进一步加大投入,力求在本年度内打造出参数达到390B的最新模型,同时在来年制定万亿
纤纳光电与浙能电力举行战略签约仪式 钙钛矿商业化进程加速!
4月11日,杭州纤纳光电科技股份有限公司(“纤纳光电”)与浙能镇海发电公司下属宁波发电工程有限公司在浙江浙能电力股份有限公司(“浙能电力”)见证下举行战略签约仪式,共同擘画共同建设加速赋能钙钛矿商业化进程,以创新实践履行社会责任
文远知行与联想车计算战略合作,推进自动驾驶商业化落地
文远知行与联想车计算达成战略合作,共同推进L4级别自动驾驶解决方案的商业化落地,这一举措无疑为自动驾驶领域注入了新的活力。这次合作不仅彰显了双方在自动驾驶技术方面的深厚积累,也预示着自动驾驶技术商业化落地的新篇章。
微软携手法国AI初创企业Mistral推动AI模型商业化
微软近日与法国人工智能初创企业Mistral达成合作协议,旨在推动AI模型的商业化应用。据悉,微软将提供全方位支持,帮助这家成立仅10个月的公司将其先进的AI
评论