0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

2023年AI技术科普:算法、算力、数据及应用

架构师技术联盟 来源:架构师技术联盟 2023-04-16 10:35 次阅读

大模型是AI开发的新范式,是人工智能迈向通用智能的里程碑:大模型指通过在大规模宽泛的数据上进行训练后能适应一系列下游任务的模型,本质依旧是基于统计学的语言模型,只不过“突现能力”赋予其强大的推理能力。大模型的训练和推理都会用到AI芯片的算力支持,在数据和算法相同情况下,算力是大模型发展的关键,是人工智能时代的“石油”。

1.算法:大模型——人工智能迈向通用智能的里程碑

大模型就是Foundation Model(基础模型),指通过在大规模宽泛的数据上进行训练后能适应一系列下游任务的模型。大模型兼具“大规模”和“预训练”两种属性,面向实际任务建模前需在海量通用数据上进行预先训练,能大幅提升人工智能的泛化性、通用性、实用性,是人工智能迈向通用智能的里程碑技术。

a1e4226c-dbfc-11ed-bfe3-dac502259ad0.png

大模型的本质依旧是基于统计学的语言模型,“突现能力”赋予其强大的推理能力。当前几乎所有参数规模超过千亿的大语言模型都采取GPT模式。近些年来,大型语言模型研究的发展主要有三条技术路线:Bert模式、GPT模式以及混合模式。Bert模式适用于理解类、做理解类、某个场景的具体任务,专而轻,2019年后基本上就没有什么标志性的新模型出现;混合模式大部分则是由国内采用;多数主流大语言模型走的还是GPT模式,2022年底在GPT-3.5的基础上产生了ChatGPT,GPT技术路线愈发趋于繁荣。

a1ec964a-dbfc-11ed-bfe3-dac502259ad0.png

GPT4作为人工智能领域最先进的语言模型,在如下四个方面有较大的改进。

1)多模态:GPT4可以接受文本和图像形式的prompt,在人类给定由散布的文本和图像组成的输入的情况下生成相应的文本输出(自然语言、代码等);

2)多语言:在测试的26种语言的24种中,GPT-4优于GPT-3.5和其他大语言模型(Chinchilla,PaLM)的英语语言性能;

3)“记忆力”:GPT-4的最大token数为32,768,即2^15,相当于大约64,000个单词或50页的文字,远超GPT-3.5和旧版ChatGPT的4,096个token;

4)个性化:GPT-4比GPT-3.5更原生地集成了可控性,用户将能够将“具有固定冗长、语气和风格的经典ChatGPT个性”更改为更适合他们需要的东西。

2.算力:AI训练的基础设施

大模型算力成本主要分为初始训练成本和后续运营成本。

初始训练:根据openAI官网数据,每个token(token是服务端生成的一串字符串,以作客户端进行请求的一个令牌)的训练成本通常约为6N FLOPS(FLOPS指每秒浮点运算次数,理解为计算速度,可以用来衡量硬件的性能),其中N是LLM(大型语言模型)的参数数量。1750亿参数模型的GPT-3是在3000亿token上进行训练的。根据openAI官网数据,在训练过程中,模型的FLOPS利用率为46.2%。我们假设训练时间为1个月,采用英伟达A100进行训练计算(峰值计算能力为312 TFLOPS FP16/FP32),则测算结果为需要843颗英伟达A100芯片。

a1f5b16c-dbfc-11ed-bfe3-dac502259ad0.png

运营(推理)成本:运营阶段所需算力量与使用者数量紧密相关。根据openAI官网数据,每个token的推理成本通常约为2N FLOPS,其中N是LLM的参数数量。根据openAI官网数据,在训练过程中,模型的FLOPS利用率为21.3%。同样采用英伟达A100进行推理计算(峰值计算能力为312 TFLOPS FP16/FP32)。我们假设GPT-3每日5000万活跃用户,每个用户提10个问题,每个问题回答400字,则测算结果为需要16255颗英伟达A100芯片。

a1fc639a-dbfc-11ed-bfe3-dac502259ad0.png

GPT-4为多模态大模型,对算力要求相比GPT-3会提升10倍。GPT-4的收费是8kcontext为$0.03/1k token,是GPT-3.5-turbo收费的15倍($0.002 / 1K tokens),因此我们推断GPT-4的参数量是GPT-3的10倍以上,预计GPT-4的算力需求是GPT-3的10倍以上。

国产大模型有望带动国内新增A100出货量超200万颗,使得中国算力市场空间增加2倍以上。我们假设国内百度,华为,阿里,腾讯,字节等前10位头部大厂都会发布自己的大模型。

加速卡国产化率较低,美国制裁加速。根据IDC数据,2021年,中国加速卡市场中Nvidia占据超过80%市场份额。

a205b4c2-dbfc-11ed-bfe3-dac502259ad0.png

英伟达推出中国特供版A800,算力与A100基本一致。2022年11月8日,英伟达推出A800 GPU,将是面向中国客户的A100 GPU的替代产品。A800符合美国政府关于减少出口管制的明确测试,并且不能通过编程来超过它。A800 GPU在算力上与A100保持一致,但增加了40GB显存的PCIe版本,但在NVLink互联速度上,A800相较于A100下降了200GB/s的速度。同时,A800 80GB SXM版本目前已经不支持16块GPU的成套系统,上限被限制在8块。总的来看,A800能够满足国内市场需求,是A100的平替版本。

3.数据:AI发展的驱动力

数据资源是AI产业发展的重要驱动力之一。数据集作为数据资源的核心组成部分,是指经过专业化设计、采集、清洗、标注和管理,生产出来的专供人工智能算法模型训练的数据。

大模型的训练数据主要来自于维基百科、书籍、期刊、Reddit社交新闻站点、Common Crawl和其他数据集。OpenAI虽没有直接公开ChatGPT的相关训练数据来源和细节,但可以从近些年业界公布过的其他大模型的训练数据推测出ChatGPT的训练数据来源,近几年大模型训练采用的数据来源基本类似。国内大模型的数据来源和自身优势业务有较强相关性,如百度文心一言大模型的来源主要基于互联网公开数据,包括网页、搜索、图片、语音日均调用数据,以及知识图谱等。

a20e6090-dbfc-11ed-bfe3-dac502259ad0.png

GPT4依靠大量多模态数据训练。GPT4是一个大规模的多模态模型,相比于此前的语言生成模型,数据方面最大的改进之一就是突破纯文字的模态,增加了图像模态的输入,具有强大的图像理解能力,即在预练习阶段输入任意顺序的文本和图画,图画经过Vision Encoder向量化、文本经过普通transformer向量化,两者组成多模的句向量,练习目标仍为next-word generation。根据腾讯云开发者推测,GPT4训练数据中还额外增加了包含正误数学问题、强弱推理、矛盾一致陈述及各种意识形态的数据,数据量可能是GPT3.5(45TB数据)的190倍。

4.应用:AI的星辰大海

AI时代已经来临,最大的市场将是被AI赋能的下游应用市场。如果说AI是第四次工业革命,那么正如前三次工业革命,最大的市场将是被AI赋能的下游应用市场。本轮革命性的产品ChatGPT将极大地提升内容生产力,率先落地于AIGC领域,打开其产业的想象边界。文本生成、代码生成、图像生成以及智能客服将是能直接赋予给下游行业的能力,打开其产业想象的边界。

最直接的应用在内容创作领域。ChatGPT的功能核心是基于文本的理解和分析,与内容创作行业趋同。ChatGPT可用于创建新闻文章、博客文章甚至小说等内容,它可以生成原创且连贯的内容,为内容创作者节省时间和资源。整体生成式AI已用于创建图像,视频,3D对象,Skyboxes等。这大大节省了创作时间,同时带来了多样的创作风格。

ChatGPT解决了机器人的痛点。ChatGPT开启了一种新的机器人范式,允许潜在的非技术型用户参与到回路之中,ChatGPT可以为机器人场景生成代码。在没有任何微调的情况下,利用LLM的知识来控制不同的机器人动作,以完成各种任务。ChatGPT大大改善了机器人对指令的理解,并且不同于以前单一、明确的任务,机器人可以执行复合型的任务。

ChatGPT在芯片设计领域的应用。传统的芯片设计强烈依赖模板而忽视了大量可以复用的优秀数据,同时数据量大导致ChatGPT泛化性更好。此外芯片硬件模块相对单一,有一些成熟范式,芯片设计代码复杂但人工不足,这些都与ChatGPT有很好的互补。AI使得芯片开发成本降低、周期缩短,具备足够多训练数据和AI能力的芯片设计公司竞争优势可能会扩大。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4607

    浏览量

    92826
  • 人工智能
    +关注

    关注

    1791

    文章

    47183

    浏览量

    238212
  • ai技术
    +关注

    关注

    1

    文章

    1266

    浏览量

    24284

原文标题:2023年AI技术科普:算法、算力、数据及应用

文章出处:【微信号:架构师技术联盟,微信公众号:架构师技术联盟】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    企业AI租赁是什么

    企业AI租赁是指企业通过互联网向专业的提供商租用所需的计算资源,以满足其AI应用的需求。
    的头像 发表于 11-14 09:30 470次阅读

    技术科普 | 芯片设计中的LEF文件浅析

    技术科普 | 芯片设计中的LEF文件浅析
    的头像 发表于 11-13 01:03 229次阅读
    <b class='flag-5'>技术科普</b> | 芯片设计中的LEF文件浅析

    GPU开发平台是什么

    随着AI技术的广泛应用,需求呈现出爆发式增长。AI
    的头像 发表于 10-31 10:31 164次阅读

    名单公布!【书籍评测活动NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架构分析

    ,在全球范围内,对于推动科技进步、经济发展及社会整体的运作具有至关重要的作用。随着信息技术的高速发展,高性能计算(HPC)和人工智能(AI)等技术在多个领域的应用变得日益广泛,芯片
    发表于 09-02 10:09

    大模型时代的需求

    现在AI已进入大模型时代,各企业都争相部署大模型,但如何保证大模型的,以及相关的稳定性和性能,是一个极为重要的问题,带着这个极为重要的问题,我需要在此书中找到答案。
    发表于 08-20 09:04

    AI真·炼丹:整整14天,无需人类参与

    为了科普CPU在AI推理新时代的玩法,量子位开设了《最“in”AI》专栏,将从技术科普、行业案例、实战优化等多个角度全面解读。我们希望通过这个专栏,让更多的人了解英特尔® 架构CPU在
    的头像 发表于 07-02 14:15 278次阅读
    <b class='flag-5'>AI</b>真·炼丹:整整14天,无需人类参与

    DPU技术赋能下一代AI基础设施

    4月19日,在以“重构世界 奔赴未来”为主题的2024中国生成式AI大会上,中科驭数作为DPU新型基础设施代表,受邀出席了中国智中心创新论坛,发表了题为《以网络为中心的
    的头像 发表于 04-20 11:31 837次阅读

    一图看懂星河AI数据中心网络,全面释放AI时代

    华为中国合作伙伴大会 | 一图看懂星河AI数据中心网络,以网强,全面释放AI时代
    的头像 发表于 03-22 10:28 751次阅读
    一图看懂星河<b class='flag-5'>AI</b><b class='flag-5'>数据</b>中心网络,全面释放<b class='flag-5'>AI</b>时代<b class='flag-5'>算</b><b class='flag-5'>力</b>

    数据语料库、算法框架和芯片在AI大模型中的作用和影响

    数据语料库、算法框架和芯片的确是影响AI大模型发展的三大重要因素。
    的头像 发表于 03-01 09:42 1074次阅读

    智能规模超通用,大模型对智能提出高要求

    的缩写,即每秒所能够进行的浮点运算数目(每秒浮点运算量)。   可以分为通用、智能
    的头像 发表于 02-06 00:08 6308次阅读

    立足,聚焦AI!顺网科技全面走进AI时代

    “立足,聚焦AI”,顺网科技进军AI时代的号角已被吹响。 1月18日,顺网科技(300113.SZ)以“跃迁·向未来”为主题的战略升
    的头像 发表于 01-19 10:57 457次阅读
    立足<b class='flag-5'>算</b><b class='flag-5'>力</b>,聚焦<b class='flag-5'>AI</b>!顺网科技全面走进<b class='flag-5'>AI</b>智<b class='flag-5'>算</b>时代

    AI服务器总体架构和关键技术

    本文来自“AI服务器白皮书(2023)”,人工智能行业是对算法
    的头像 发表于 01-11 11:28 5612次阅读
    <b class='flag-5'>AI</b>服务器总体架构和关键<b class='flag-5'>技术</b>

    卫星通信序幕拉开,AI浪潮澎湃

    AI浪潮催生要求,基础设施需求持续提升。AIGC带来的超大需求拉动通信基础设施建设及扩容,光模块作为
    发表于 01-03 10:22 385次阅读
    卫星通信序幕拉开,<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>浪潮澎湃

    AI应用中的光模块产品

    预测 光模块是数据中心内部互连和数据中心相互连接的核心部件。100G和400G是主流产品,800G过去主要用在超等领域。据LightCounting预计,2023
    的头像 发表于 01-02 15:32 536次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>应用中的光模块产品

    大升级 英特尔至强可扩展处理器持续技术创新

    过去半年中,随着大模型产品的爆发,AI带来的变革已经逐渐凸显。承载着AI的研究和应用,其格局变化尤为明显。 2023
    的头像 发表于 12-29 14:32 395次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>大升级 英特尔至强可扩展处理器持续<b class='flag-5'>技术</b>创新