0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌开源张量网络库TensorNetwork,GPU处理提升100倍!

WpOh_rgznai100 来源:yxw 2019-06-06 13:56 次阅读

世界上许多最严峻的科学挑战,如开发高温超导体和理解时空的本质,都涉及处理量子系统的复杂性。然而,这些系统中量子态的数量程指数级增长,使得暴力计算并不可行。为了解决该问题,数据结构采用了张量网络的方式。张量网络让人们关注与现实世界问题最相关的量子态,如低能态。张量网络已经越来越多地在机器学习中得到应用。

然而,目前仍存在相当多的一些挑战阻碍了其在机器学习社区中的广泛使用:1)用于加速硬件的生产级张量网络库还不能用于大规模运行张量网络算法;2)大多数张量网络文献是面向物理应用的,并产生了一种错误的印象,即需要量子力学方面的专业知识来理解算法。

为了解决这一问题,谷歌 X 实验室与加拿大Perimeter理论物理研究所(Perimeter Institute for Theoretical Physics )的研究人员合作开发了张量网络 TensorNetwork,以 TensorFlow 作为后端,针对 GPU 处理进行了优化。与在 CPU 上计算工作相比,可以实现高达 100 倍的加速。这是一个全新的开源库,旨在提高张量计算的效率。

据悉,研究人员已经发布了一些列论文对张量网络的概念、特性以及应用特例等方面进行了详细阐释。

工作原理

张量是一种多维数组,按照顺序进行分类。例如,一个普通数零阶张量,也称为标量,一个向量是一阶张量,一个矩阵是二阶张量。虽然低阶张量可以很容易地用数字数组或像 Tijnklm 这样的数学符号来表示,但一旦开始讨论高阶张量,这个符号就变得非常麻烦。

这一点上,使用图解记数法是非常有用的,在这种记数法中,人们只需画一个有许多条线或” 腿 “的圆(或其他形状)。在这个符号中,标量只是一个圆,向量只有一条腿,矩阵有两条腿等。张量的每条腿也有大小,也就是腿的长度。

张量的图解符号

以这种方式表示张量的好处是简洁地编码数学运算,例如,将一个矩阵乘以一个向量得到另一个向量,或者两个向量相乘得到标量。这个过程被称为张量收缩。

张量收缩的图解表示法

向量和矩阵乘法以及矩阵迹线(即矩阵对角元素的总和)。

除了这些案例之外,还有以张量收缩模式进行编码以形成一个新张量的图形方式。每个组成张量都有一个由自己的腿数决定的顺序。连接的腿在图中形成一条边,代表收缩,而剩余悬空腿的数量决定了合成张量的顺序。

左:四个矩阵乘积的表示,即 tr(ABCD),它是一个标量。右:三个三阶张量收缩,三条腿悬空,产生一个新的三阶张量。

虽然这些例子非常简单,但张量网络通常代表以各种方式收缩的数百个张量。用传统的符号来描述这样一件事情是非常模糊的,这也是 Roger Penrose 在 1971 年发明图解符号(diagrammatic notation)的原因。

实践过程

以一些黑白图像为例,每个图像可以被看做是 N 个像素值的列表。单个图像中的单个像素可以被独热编码( one-hot-encoding)成二维向量,并且通过这些像素编码组合在一起,我们可以得到 2N 个维独热编码的结果。我们可以将高维向量转化为 N 阶张量,然后将图像集合中所有张量相加,得到量 Ti1,i2,...,iN 的集合。

这听起来像是一件非常浪费时间的事情。因为以这种方式对约 50 像素的图像进行编码已经占用了数千兆字节的内存。这正是张量网络的作用所在。研究人员没有直接存储或操纵张量 T,而是将张量 T 作为张量网络内的多个小的张量组合。结果证明这非常有效。例如,流行的矩阵乘积态(matrix product state,MPS)网络可以将 T 表示为 N 个较小的张量,从而总参数量为 N 的线性级,而不是指数级。

高阶张量 T 用矩阵乘积态张量网络中的许多低阶张量来表示。

但在有效构建或操纵大型张量网络的同时又能始终避免使用大量内容的需求,是不太明显的。但事实证明,这在许多情况下是可能的,这也是张量网络广泛用于量子物理和机器学习领域的原因。Stoudenmire 和 Schwab 使用这种编码来构建图像分类模型,展示了张量网络的新用途。而 TensorNetwork 库旨在推进这类工作,研究人员在 TensorNetwork 相关论文中介绍了该库如何应用于张量网络的操作。

在物理场景中的应用性能

TensorNetwork 是一个针对张量网络算法的通用库,因此它适用于物理学场景。逼近量子态是张量网络在物理学中的一个典型用例,可说明张量网络库的能力。在另一篇论文《TensorNetwork on TensorFlow: A Spin Chain Application Using Tree Tensor Networks》中,研究人员提出了一种近似树张量网络(tree tensor network,TTN),并使用张量网络库实现了该算法。此外,研究人员还对比了 CPU 和 GPU 的情况,发现在使用 GPU 和张量网络库时,计算速度显著提高了近 100 倍。

计算时间作为连接维度的函数 X。连接维度( bond dimension )决定了张量网络中张量的大小。连接维度越大意味着张量网络约强大,但这个过程也需要更多的计算资源。

总结及未来工作

本文是讲述 TensorNetwork 实际应用案例的第一篇文章,后续的论文中,研究人员将使用 TensorNetwork 在 MNIST 和 Fashion-MNIST 上执行图像分类,后面还将包括时序分析、量子电路仿真等。研究人员希望 TensorNetwork 能成为物理学家和机器学习从业者的宝贵工具。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19093

    浏览量

    228781
  • 谷歌
    +关注

    关注

    27

    文章

    6128

    浏览量

    104929
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4673

    浏览量

    128555

原文标题:谷歌开源张量网络库TensorNetwork,GPU处理提升100倍!

文章出处:【微信号:rgznai100,微信公众号:rgznai100】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】--全书概览

    GPU 中的应用历史 第9章 张量处理器设计 9.1 张量的定义 9.2 脉动阵列计算单元 9.3 Volta 架构引入张量核心 9.
    发表于 10-15 22:08

    4G5G手机信号放大器:100%提升你的网络体验

    深圳特信屏蔽器|4G5G手机信号放大器:100%提升你的网络体验
    的头像 发表于 05-28 08:54 785次阅读

    谷歌发布第六代数据中心AI芯片Tensor处理器单元Trilliu 

    谷歌CEO桑达尔·皮查伊表示,“谷歌自创立以来,始终引领GPU技术发展。”他进一步指出,新款TPU的计算性能较第五代提升4.7,主要得益于
    的头像 发表于 05-15 10:22 443次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    技术的整合支持多达 576 个图形处理器,提供 3.6 千万亿次网络内计算,在网络结构中直接减少和组合张量,优化计算任务并增强图形处理器集
    发表于 05-13 17:16

    谷歌自主研发:Google Axion处理器亮相

    谷歌 Axion 处理器不仅是谷歌对定制芯片投资的最新成果,也是众多定制芯片中的一环。自2015年以来,谷歌已经陆续推出了五代张量
    发表于 04-20 09:52 385次阅读

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热 Embedding 全置于 GPU 上进行加速,吞吐相比 CPU 推理服务
    的头像 发表于 04-20 09:39 609次阅读

    搭载英伟达GPU,全球领先的向量数据公司Zilliz发布Milvus2.4向量数据

    基于GPU的向量索引和搜索加速能力,性能可提升 50 。 Milvus 2.4 的 GPU 加速性能提升效果令人惊叹。基准测试显示,与目前
    的头像 发表于 04-01 14:33 429次阅读
    搭载英伟达<b class='flag-5'>GPU</b>,全球领先的向量数据<b class='flag-5'>库</b>公司Zilliz发布Milvus2.4向量数据<b class='flag-5'>库</b>

    国产GPU搭配国产处理器平台主机

    处理gpu
    GITSTAR 集特工控
    发布于 :2024年03月27日 14:11:32

    FPGA在深度学习应用中或将取代GPU

    的根本原因,它与 深度神经网络 有一个共同之处:都需要进行大量矩阵运算。 显卡可以并行执行矩阵运算,极大地加快计算速度。图形处理器可以把训练神经网络的时间从几天、几周缩短到几小时、几分钟。 随着图形
    发表于 03-21 15:19

    谷歌大型模型终于开放源代码,迟到但重要的开源战略

    在人工智能领域,谷歌可以算是开源的鼻祖。今天几乎所有的大语言模型,都基于谷歌在 2017 年发布的 Transformer 论文;谷歌的发布的 BERT、T5,都是最早的一批
    发表于 02-22 18:14 401次阅读
    <b class='flag-5'>谷歌</b>大型模型终于开放源代码,迟到但重要的<b class='flag-5'>开源</b>战略

    人工智能引擎助力谷歌地图提升旅行探索体验

    为了提升旅行者的个人定制化体验,谷歌地图此次采用了先进的人工智能技术。这一技术的原理在于对全球2.5亿余处地理位置的深入理解以及谷歌地图拥有的超过3亿用户的知识的整合应用。
    的头像 发表于 02-02 10:28 556次阅读

    OpenHarmony开源GPUMesa3D适配说明

    ,对下使用Gallium框架,屏蔽驱动差异。在RK3568中,panfrost对ARM GPU提供了非常好的开源驱动支持。 二、适配方法 在RK3568 GPU 开源
    发表于 12-25 11:38

    英伟达发布最新AI芯片H200:性能提升2,成本下降50%

    很明显,如果能在相同的功率范围之内实现 2 的性能提升,就意味着实际能耗和总体拥有成本降低了 50%。所以从理论上讲,英伟达似乎可以让 H200 GPU 的价格与 H100 持平。
    的头像 发表于 11-22 17:14 1523次阅读
    英伟达发布最新AI芯片H200:性能<b class='flag-5'>提升</b>2<b class='flag-5'>倍</b>,成本下降50%

    SiC晶圆划片工艺:速度提升100,芯片增加13%

    近日,一家日本厂商发布了一种全新的SiC晶圆划片工艺,与传统工艺相比,这项技术可将划片速度提升100,而且可以帮助SiC厂商增加13%的芯片数量。
    的头像 发表于 11-21 18:15 2269次阅读
    SiC晶圆划片工艺:速度<b class='flag-5'>提升</b><b class='flag-5'>100</b><b class='flag-5'>倍</b>,芯片增加13%

    177加速!NVIDIA最新开源 | GPU加速各种SDF建图!

    但最近,NVIDIA和ETHZ就联合提出了nvblox,是一个使用GPU加速SDF建图的。计算速度非常快,相较CPU计算TSDF甚至快了177。更重要的是,因为所有数据都已经存储在GPU
    的头像 发表于 11-09 16:46 1057次阅读
    177<b class='flag-5'>倍</b>加速!NVIDIA最新<b class='flag-5'>开源</b> | <b class='flag-5'>GPU</b>加速各种SDF建图!