0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

研究人员提出一种基于哈希的二值网络训练方法 比当前方法的精度提高了3%

DPVg_AI_era 2018-02-08 15:38 次阅读

程健研究员团队最近提出了一种基于哈希的二值网络训练方法,揭示了保持内积哈希和二值权重网络之间的紧密关系,表明了网络参数二值化本质上可以转化为哈希问题,在ResNet-18上,该方法比当前最好方法的精度提高了3%。

近年来,深度卷积神经网络已经深入了计算机视觉的各个任务中,并在图像识别、目标跟踪、语义分割等领域中取得了重大突破。在一些场景下,当前深度卷积网络性能已经足以部署到实际应用中,这也鼓舞着人们将深度学习落地到更多的应用中。

然而,深度卷积网络在实际部署时面临着参数量和时间复杂度等两方面的问题,一方面是深度网络巨大的参数量会占用大量的硬盘存储和运行内存,这些硬件资源在一些移动和嵌入式设备中往往是很有限的;另外一方面就是深度网络的计算复杂度较高,这会使得网络推理速度很慢,同时会增加移动设备的电量消耗。

为了解决此类问题,人们提出了很多网络加速和压缩方法,其中网络参数二值化是一种将网络参数表示为二值参数的方法。由于二值网络中参数只有+1和-1两种值,乘法运算就可以被加法运算替代。由于乘法运算比加法运算需要更多的硬件资源和计算周期,使用加法运算替代乘法运算能够实现网络加速的目的。

另一方面,原始网络参数的存储格式是32位浮点数,二值参数网络只使用1位来表示+1或者-1,达到了32倍的压缩目的。但是将参数从32位量化到1位会导致较大的量化损失,当前的二值网络训练方法往往会导致较大的网络精度下降,如何学习二值的网络参数同时又不带来较大的精度下降是一个问题。

图自网络

自动化所程健研究员团队的胡庆浩等人最近提出了一种基于哈希的二值网络训练方法,揭示了保持内积哈希(Innerproduct Preserving Hashing)和二值权重网络之间的紧密关系,表明了网络参数二值化本质上可以转化为哈希问题。

给定训练好的全精度浮点32位网络参数,二值权重网络(BWN)的目的是学习二值网络参数并维持原始网络精度。学习二值参数的最朴素的方式就是最小化与二值参数之间的量化误差,但是这种量化误差和网络精度之间存在着一定的差距,最小化量化误差并不会直接提高网络精度,因为每一层的量化误差会逐层积累,而且量化误差会受到输入数据的增幅。

一种更好的学习二值参数的方式是最小化内积相似性之差。假设网络某一层输入为是原始的内积相似性,则是量化之后的内积相似性,最小化之间的误差可以学习到更好的二值参数。从哈希的角度来讲,代表着数据在原始空间中的相似性或者近邻关系,则代表着数据投影到汉明空间之后的内积相似性。而哈希的作用就是将数据投影到汉明空间,且在汉明空间中保持数据在原始空间中的近邻关系。至此,学习二值参数的问题就转化成了一个在内积相似性下的哈希问题,该哈希主要是将数据投影到汉明空间并保持其在原始空间中的内积相似性。

团队首先在VGG9小网络上对方法进行验证,并且在AlexNet和ResNet-18上超过当前的二值权重网络。特别的,在ResNet-18上,该方法比当前最好方法的精度提高了3个百分点。获得了较好的实验结果。

表1:不同方法在VGG9上的分类错误率

表2:不同方法在AlexNet的分类精度

表3:不同方法在ResNet-18的分类精度

Dasgupta等人[2]在2017年11月份的《Science》上撰文揭示了果蝇嗅觉神经回路其实是一种特殊的哈希,其哈希投影是稀疏的二值连接。对比二值权重网络(BWN),我们可以发现二者之间有着密切的关系,首先,二者的网络都是二值连接,这意味着二值权重在生物神经回路中有存在的生物基础,这也为二值权重网络的潜在机理提供了启发;其次,二者都是为了保持近邻关系,并且可以描述为哈希问题,这种现象表明神经网络的某些连接是为了保持近邻关系。最后,果蝇嗅觉回路中的稀疏连接和卷积层的参数共享机制有着异曲同工之处,都是对输入的部分区域进行连接。

相关工作已经被AAAI2018接收[1],并将在大会上作口头报告。

参考资料

[1] Qinghao Hu, Peisong Wang, Jian Cheng. From Hashing to CNNs: Training Binary Weight Networks via Hashing. AAAI 2018

[2]Dasgupta S, Stevens C F, Navlakha S. A neural algorithm for a fundamental computing problem. Science, 2017, 358(6364): 793-796.

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4760

    浏览量

    100496
  • 深度学习
    +关注

    关注

    73

    文章

    5489

    浏览量

    120942
  • 二值化
    +关注

    关注

    0

    文章

    13

    浏览量

    4227

原文标题:【中科院自动化所AAAI Oral】从哈希到卷积神经网络:高精度 & 低功耗

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    dc模块电源的控制方法

    。在各种数字控制的方法中,PID控制是一种比较成熟/应用广泛的控制方法。PID控制优点:1.比例环节可以减少系统的稳态误差,提高控制精度。2
    发表于 07-28 14:15

    新型谐波分析方法提高了精度减少了智能仪表的计算开销

    新型谐波分析方法提高了精度,减少了智能仪表的计算开销
    发表于 07-15 14:06

    求大佬分享一种基于毫米波雷达和机器视觉的前方车辆检测方法

    研究夜间追尾事故中本车智能防撞预警方法,本文提出一种基于毫米波雷达和机器视觉的前方车辆检测方法
    发表于 06-10 10:23

    隐藏技术: 一种基于前沿神经网络理论的新型人工智能处理器

    隐藏技术: 一种基于前沿神经网络理论的新型人工智能处理器 Copy东京理工大学的研究人员开发了一种名为“ Hiddenite”的新型加速器芯片,该芯片可以在计算稀疏“隐藏神经
    发表于 03-17 19:15

    优化神经网络训练方法有哪些?

    优化神经网络训练方法有哪些?
    发表于 09-06 09:52

    探索一种降低ViT模型训练成本的方法

    无法获得此类资源的研究人员排除在这研究领域之外。通过仅使用1个GPU作为基准,显著降低了ViT的训练成本,这使得更多的研究人员能够推动这
    发表于 11-24 14:56

    基于粒子群优化的条件概率神经网络训练方法

    条件概率神经网络在进行模式分类时具有独特的优势,然而如何对其进行有效的训练,从而找到最优参数却是个困难的问题。在考虑条件概率神经网络的结构特点之后,本文
    发表于 01-08 16:35 0次下载

    微软在ICML 2019上提出个全新的通用预训练方法MASS

    专门针对序列到序列的自然语言生成任务,微软亚洲研究提出了新的预训练方法:屏蔽序列到序列预训练(MASS: Masked Sequence to Sequence Pre-traini
    的头像 发表于 05-11 09:19 3461次阅读
    微软在ICML 2019上<b class='flag-5'>提出</b>了<b class='flag-5'>一</b>个全新的通用预<b class='flag-5'>训练方法</b>MASS

    新的预训练方法——MASS!MASS预训练几大优势!

    专门针对序列到序列的自然语言生成任务,微软亚洲研究提出了新的预训练方法:屏蔽序列到序列预训练(MASS: Masked Sequence to Sequence Pre-traini
    的头像 发表于 05-11 09:34 7059次阅读
    新的预<b class='flag-5'>训练方法</b>——MASS!MASS预<b class='flag-5'>训练</b>几大优势!

    普渡大学的研究人员正在开发一种综合医疗传感平台

    普渡大学的研究人员正在开发一种综合生物传感平台,旨在现有方法更快,更便宜地检测和监测蚊媒疾病,以帮助预防病毒爆发及其破坏性影响。
    发表于 10-25 09:19 880次阅读

    研究人员发现一种可在水中产生纳米气泡的新方法

    都柏林大学(UCD)的研究人员发现了一种新的节能方法,该方法可以在水中产生和释放大量亚稳的纳米级气泡,超过自然溶解度水平。
    的头像 发表于 04-09 17:13 7058次阅读

    基于异构哈希网络的跨模态人脸检索方法探究分析

    该文提出一种基于异构哈希网络的跨模态人脸检索方法。异构哈希
    发表于 03-31 09:29 18次下载
    基于异构<b class='flag-5'>哈希</b><b class='flag-5'>网络</b>的跨模态人脸检索<b class='flag-5'>方法</b>探究分析

    一种基于异构哈希网络的跨模态人脸检索方法

    该文提出一种基于异构哈希网络的跨模态人脸检索方法。异枃哈希
    发表于 04-28 16:24 5次下载
    <b class='flag-5'>一种</b>基于异构<b class='flag-5'>哈希</b><b class='flag-5'>网络</b>的跨模态人脸检索<b class='flag-5'>方法</b>

    时识科技提出新脉冲神经网络训练方法 助推类脑智能产业落地

    近日,SynSense时识科技技术团队发表题为“EXODUS: Stable and Efficient Training of Spiking Neural Networks”的文章,在文章中提出了新的脉冲神经网络训练方法EX
    的头像 发表于 06-20 14:21 1371次阅读

    ai大模型训练方法有哪些?

    AI大模型训练方法个复杂且不断发展的领域。以下是ai大模型训练方法: 数据预处理和增强 数据清洗:去除噪声和不完整的数据。 数据标准化:将数据缩放到统的范围。 数据增强:通过旋转
    的头像 发表于 07-16 10:11 1328次阅读