0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

1个AI模型=5辆汽车终身碳排量,AI为何如此耗能?

电子设计 来源:电子设计 作者:电子设计 2021-01-21 03:27 次阅读

整理 | 弯月 责编 | 郑丽媛
出品 | CSDN(ID:CSDNnews)

根据最新的研究结果,训练一个普通的 AI 模型消耗的能源相当于五辆汽车一生排放的碳总量,而 BERT 模型的碳排放量约为 1400 磅二氧化碳,这相当于一个人来回坐飞机横穿美国。为何 AI 模型会如此费电,它们与传统的数据中心计算有何不同?

训练效率低下

传统数据中心负责处理的工作包括视频流,电子邮件和社交媒体。AI 所需的计算量则更多,因为它需要读取大量的数据、持续学习,直到完成训练。

与人类的学习方式相比,AI 的训练效率非常低下。现代 AI 使用人工神经网络,这是模拟人脑神经元的数学计算。每两个相邻神经元的连接强度都是神经网络上的一个参数,名叫权重。神经网络的训练则需要从随机权重开始,一遍遍地运行和调整参数,直到输出与正确答案一致为止。

常见的一种训练语言神经网络的方法是,从维基百科和新闻媒体网站下载大量文本,然后把一些词语遮挡起来,并要求 AI 猜测被遮挡起来的词语。刚开始的时候,AI 会全部搞错,但是,经过不断地调整后,AI 会逐渐学习数据中的模式,最终整个神经网络都会变得非常准确。

相信你听说过 BERT 模型,基于变换器的双向编码器表示技术(Bidirectional Encoder Representations from Transformers,简称 BERT),这是一项由 Google 提出的自然语言处理(NLP)的预训练技术。该模型使用了来自维基百科和其他文章的 33 亿个单词,而且在整个训练期间,BERT 读取了该数据集 40 次。相比之下,一个 5 岁的孩子学说话只需要听到 4500 万个单词,比 BERT 少3000倍。

寻找最佳结构

语言模型构建成本如此之高的原因之一在于,在开发模型期间,上述训练过程需要反复多次。因为研究人员需要将神经网络调整到最优,即确定神经元的个数、神经元之间的连接数以及各个权重。他们需要反复尝试很多组合,才能提高神经网络的准确度。相比之下,人类的大脑不需要寻找最佳结构,经过几亿年的进化,人类大脑已具备这种结构。

随着各大公司和学术界在 AI 领域的竞争愈演愈烈,不断提高技术水平的压力也越来越大。在自动翻译等难度巨大的任务中,如果能将准确度提高 1%,也将被视为重大的进步,可以作为宣传产品的筹码。然而,为了获得这 1% 的提升,研究人员需要尝试成千上万的结构来训练模型,直到找到最佳模型。

随着模型不断发展,模型的复杂度逐年攀高。另一款与 BERT 类似的最新语言模型 GPT-2,其神经网络包含 15 亿个权重。而 GPT-3 由于其高精度,引起了业界的轰动,但其权重高达 1750 亿个。

此外,AI 模型的训练需要在专用硬件(例如图形处理器)上进行,这些硬件的功耗普遍高于传统 CPU。如果你的笔记本电脑加载了优质的显卡,可以玩很多高端游戏,那么你肯定会注意到这台机器产生的热量也比普通电脑高很多。

所有这些都表明,开发先进的 AI 模型需要大量的碳排放量。除非我们能够利用百分百可再生能源,否则真的怀疑 AI 的进步与减少温室气体排放以及减缓气候变化,孰重孰轻?是否真的可以功过相抵?

最后,开发 AI 的耗资如此巨大,能够承担得起各项费用的公司与机构实在少之又少,最终究竟应该开发哪种模型的决定权无疑也落到了这群人的手中。

AI 模型训练应该适可而止

本文并不是要否定人工智能研究的未来,只不过在训练 AI 模型的时候,我们需要采用更高效的方法,而且应该做到适可而止。

随着 AI 模型训练方法的效率提升,相信训练的成本也会下降。同时,我们需要在训练模型的成本和使用模型的成本之间权衡取舍。例如,在 AI 模型准确度到达一定高度后,每提升 1% 都需要付出巨大的精力,而实际得到的收益却很少。不追求极致,更多地使用“适可而止”的模型,不仅可以降低碳排放量,而且也能为我们带来更大获益。

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4771

    浏览量

    100719
  • AI
    AI
    +关注

    关注

    87

    文章

    30736

    浏览量

    268896
收藏 人收藏

    评论

    相关推荐

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    for Science的技术支撑”的学习心得,可以从以下几个方面进行归纳和总结: 1. 技术基础的深入理解 在阅读第二章的过程中,我对于AI for Science所需的技术基础有了更加深入的理解。这一章详细阐述了
    发表于 10-14 09:16

    ai模型ai框架的关系是什么

    AI模型AI框架是人工智能领域中两重要的概念,它们之间的关系密切且复杂。 AI模型的定义
    的头像 发表于 07-16 10:07 4w次阅读

    ai模型和传统ai的区别在哪?

    的BERT模型使用了33亿参数,而传统AI模型通常只有几千到几百万参数。 模型复杂度
    的头像 发表于 07-16 10:06 1325次阅读

    STM CUBE AI错误导入onnx模型报错的原因?

    使用cube-AI分析模型时报错,该模型是pytorch的cnn转化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    发表于 05-27 07:15

    为什么Cubeai导入模型的时候报错[AI:persondetection] ModuleNotFoundError: No module named \'_socket\'?

    在使用CubeIde导入ai模型进行模型分析的时候报错[AI:persondetection] ModuleNotFoundError: No module named \'_sock
    发表于 05-21 06:44

    什么是边缘计算?它为何如此重要?

    ,什么是边缘计算?它为何如此重要?本文将对其进行详细的解析。 边缘计算,简而言之,是指在靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台,就近提供最近端服务。它的核心思想是将计算任
    的头像 发表于 04-22 15:25 447次阅读

    防止AI模型被黑客病毒入侵控制(原创)聆思大模型AI开发套件评测4

    在训练一只聪明的AI小动物解决实际问题,通过构建神经网络模型并进行推理,让电脑也能像人一样根据输入信息做出决策。 在上述示例中,我创建了一简单的深度学习模型,该
    发表于 03-19 11:18

    cubemx ai导入onnx模型后压缩失败了怎么解决?

    cubemx ai导入onnx模型后压缩失败。请问我怎么解决
    发表于 03-19 07:58

    AI模型远程控制启动车辆(原创)

    AI模型
    还没吃饭
    发布于 :2024年03月18日 15:18:29

    使用cube-AI分析模型时报错的原因有哪些?

    使用cube-AI分析模型时报错,该模型是pytorch的cnn转化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    发表于 03-14 07:09

    NanoEdge AI的技术原理、应用场景及优势

    能耗并提高数据安全性。本文将对 NanoEdge AI 的技术原理、应用场景以及优势进行综述。 1、技术原理 NanoEdge AI 的核心技术包括边缘计算、神经网络压缩和低功耗硬件设计。边缘计算
    发表于 03-12 08:09

    AI模型可以取代大学教育吗?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 16:27:52

    AI模型怎么解决芯片过剩?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:42:05

    AI模型会不会取代电子工程师?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:11:43

    AI模型可以设计电路吗?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:09:29