0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

MIT研发“神经架构搜索”算法,将AI优化的AI设计过程加速240倍或更多

IEEE电气电子工程师 来源:YXQ 2019-04-15 16:49 次阅读

自2017年以来,AI研究人员一直在使用AI神经网络来帮助设计更好、更快的AI神经网络。迄今为止,应用AI来实现更好的AI很多程度上是一种学术追求——主要是因为这种方法需要数万个GPU小时。

然而,下个月,麻省理工学院(MIT)的一个研究小组将展示一种所谓的“神经架构搜索”算法,该算法可以将AI优化的AI设计过程加速240倍或更多。这将使AI更快、更准确,在实际应用中达到可应用于图像识别算法和其他相关应用的程度。

MIT电子工程和计算机科学助理教授Song Han表示:“在模型大小、推理延迟、准确性和模型容量之间存在各种各样的权衡。”他补充说:“(这些)加起来就是一个巨大的设计空间。以前,人们设计了基于启发法的神经网络。神经架构搜索试图将这种劳动密集型的、基于启发法的探索转变为基于学习的、基于AI的设计空间探索。就像AI可以学习下围棋一样,AI也可以学习如何设计一个神经网络。”

就像在围棋和国际象棋中获胜的AI程序已经向这些游戏的大师们教授新策略一样,AI优化的AI设计结果为AI神经网络设计提供了新的方法。

MIT的新算法加速了其开发的AI神经网络的类型为卷积神经网络(CNN)。CNN通常是用于图像识别程序的首选神经网络。除了图像和视频领域的应用外,CNN在自然语言处理和药物发现等领域也有所应用。

MIT的Han指出,一旦他们的算法建立起最优的CNN,所得到的系统很可能将图像分类的速度提高到其他神经架构搜索构建的AI的1.8倍。

Han说,其团队能够以如此惊人的速度精确定位最优的CNN设计,得益于三个重要的想法。

首先,他们减少了运行神经架构搜索的GPU的内存负载。一个标准的神经结构搜索可以同时检查网络中神经层之间所有可能的连接。相反,Han的团队每次只在GPU的内存中保存一条路径。这个技巧可以在仅使用十分之一内存空间的情况下对参数空间进行完整的搜索,从而使他们的搜索覆盖更多的网络配置,而不会耗尽芯片上的空间。

他们的第二个锦囊妙计是从已被丢弃的神经网络搜索中删除整个路径,这显著加快了神经网络搜索的速度。(通常,神经结构搜索只丢弃单个“神经元”,删除掉所有次优的神经网络连接。)

第三个创新之处涉及使神经网络搜索意识到AI系统可能正在运行的每种类型硬件的延迟时间——无论是直接的CPU还是用于移动平台的GPU加速系统。

Han说,令人惊讶的是,关于一些类型的图像识别神经网络的传统观点是错误的。从某种意义上说,AI网络设计师在设计主要运行在GPU系统上的网络时,他们的想法仍然停留在CPU时代。

CNN在其图像识别算法中使用过滤器,这些过滤器是由3×3、5×5或7×7像素组成的正方形网格。传统上,很少使用7×7大小的过滤器,因为人们认为运行多层3×3过滤器比运行单个7×7过滤器更快。

然而,Han说,AI优化的AI使用了相当数量的7×7过滤器——Han认为,这是当今大多数AI计算中GPU占主导地位的一个原因。

“我们发现,在GPU上运行多层7×7过滤器更容易,因为GPU具有很大的并行性,”Han说。“而且调用一个大型内核调用比调用几个小型内核调用更有效。”

在谈到他们团队的算法时,Han说:“它为人类工程师设计未来的神经网络提供了良好的反馈。”然而,这并不意味着AI能够构建其自身的更强大版本。(那些担心会发生AI大灾难的人,可能无法从目前的研究中找到对其观点有利的证据。)

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    29014

    浏览量

    266475
  • MIT
    MIT
    +关注

    关注

    3

    文章

    253

    浏览量

    23313

原文标题:MIT研发出一种“神经架构搜索”算法  使用AI来实现更好的AI

文章出处:【微信号:IEEE_China,微信公众号:IEEE电气电子工程师】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    月访问量超2亿,增速113%!360AI搜索成为全球增速最快的AI搜索引擎

    与传统搜索引擎不同,作为AI原生搜索引擎的360AI搜索基于公开网络、知识库、大模型三大支柱。借助首创的 CoE 技术
    的头像 发表于 09-09 13:44 198次阅读
    月访问量超2亿,增速113%!360<b class='flag-5'>AI</b><b class='flag-5'>搜索</b>成为全球增速最快的<b class='flag-5'>AI</b><b class='flag-5'>搜索</b>引擎

    平衡创新与伦理:AI时代的隐私保护和算法公平

    ,如果医生和患者都能了解AI推荐治疗方案的原因,大大增加对技术的接受度和信任。 算法公平性的保障同样不可或缺。AI系统在设计时就需要考虑到多样性和包容性,避免因为训练数据的偏差而
    发表于 07-16 15:07

    微软被曝AI研发外包给OpenAI

    网络安全公司Okta的首席执行官托德·麦金农(Todd McKinnon)在CNBC的专访中分享了关于当前科技巨头在人工智能(AI)领域的战略布局的见解。他特别指出,谷歌在捍卫其搜索引擎霸主地位的同时,正努力保持AI
    的头像 发表于 06-12 15:57 300次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    2024年3月19日,[英伟达]CEO[黄仁勋]在GTC大会上公布了新一代AI芯片架构BLACKWELL,并推出基于该架构的超级芯片GB200,助推数据处理、工程模拟、电子设计自动化
    发表于 05-13 17:16

    OpenAI否认推出搜索产品GPT-5

    此消息对致力于ChatGPT嵌入必应搜索引擎的微软或许有所积极影响。早期已有报导披露,该AI企业有意研发竞品以抗衡谷歌搜索引擎。
    的头像 发表于 05-13 15:14 307次阅读

    risc-v多核芯片在AI方面的应用

    得RISC-V多核芯片能够更好地适应AI算法的不同需求,包括深度学习、神经网络等,从而提高芯片的性能和效率,降低成本,使AI边缘计算晶片更具竞争力。 再者,RISC-V的多核设计可以进
    发表于 04-28 09:20

    Arm推动生成式AI落地边缘!全新Ethos-U85 AI加速器支持Transformer 架构,性能提升四

    电子发烧友网报道(文/黄晶晶)在嵌入式领域,边缘与端侧AI推理需求不断增长,Arm既有Helium 技术使 CPU 能够执行更多计算密集型的 AI 推理算法,也有Ethos 系列
    的头像 发表于 04-16 09:10 4324次阅读
    Arm推动生成式<b class='flag-5'>AI</b>落地边缘!全新Ethos-U85 <b class='flag-5'>AI</b><b class='flag-5'>加速</b>器支持Transformer <b class='flag-5'>架构</b>,性能提升四<b class='flag-5'>倍</b>

    开发者手机 AI - 目标识别 demo

    Network Runtime 神经网络运行时,作为中间桥梁连通上层AI推理框架和底层加速芯片,实现AI模型的跨芯片推理计算。提供统一AI
    发表于 04-11 16:14

    FPGA在深度学习应用中取代GPU

    系统等其他行业也面临着类似的挑战。 FPGA 和深度学习 FPGA 是可定制的硬件设备,可对其组件进行调节,因此可以针对特定类型的架构 (如 卷积神经网络) 进行优化。其可定制性特征降低了对电力的需求
    发表于 03-21 15:19

    ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h报错的原因?

    当准备使用神经网络的relocatable方式,ai_reloc_network.h头文件加入程序编译后,ai_datatypes_format.h在cubeIDE和Keilc里分别
    发表于 03-14 06:23

    NanoEdge AI的技术原理、应用场景及优势

    ,可以减少数据在传输过程中被窃取篡改的风险,提高数据安全性。 - 低能耗:通过优化神经网络模型和硬件设计,NanoEdge AI 可以在有
    发表于 03-12 08:09

    国科微:持续优化边缘AI战略布局

    国科微近日在接受调研时透露,公司正积极推进搭载自研NPU架构的芯片研发,主要聚焦在边缘侧应用。公司表示,持续优化边缘AI战略布局,加快
    的头像 发表于 02-23 11:23 712次阅读

    优美科携手微软打造AI平台,加速电动汽车电池材料研发

    优美科,一家在电动汽车电池材料领域处于领先地位的公司,近日与全球科技巨头微软正式签署合作协议。双方共同开发一个基于人工智能(AI)的电池材料研发平台,旨在通过AI技术
    的头像 发表于 02-18 17:29 604次阅读

    【国产FPGA+OMAPL138开发板体验】(原创)5.FPGA的AI加速源代码

    OMAP-L138(定点/浮点DSP C674x+ARM9)+ FPGA处理器的开发板。 编写一个用于AI加速的FPGA程序是一个相当复杂的过程,涉及硬件描述语言(如VHDLVer
    发表于 02-12 16:18

    【KV260视觉入门套件试用体验】Vitis AI 构建开发环境,并使用inspector检查模型

    、低成本的 AI 解决方案。 Vitis AI 可以做什么? Vitis AI 可以做很多事情,例如: 优化和编译深度学习模型,使其适应赛灵思硬件平台的
    发表于 10-14 15:34