0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深入讨论GraphSAGE GNN算法的数学原理

电子工程师 来源:FPGA设计论坛 作者:FPGA设计论坛 2020-11-11 09:26 次阅读

1.概述

得益于大数据的兴起以及算力的快速提升,机器学习技术在近年取得了革命性的发展。在图像分类、语音识别、自然语言处理等机器学习任务中,数据为大小维度确定且排列有序的欧氏(Euclidean)数据。然而,越来越多的现实场景中,数据是以图(Graph)这种复杂的非欧氏数据来表示的。Graph不但包含数据,也包含数据之间的依赖关系,比如社交网络、蛋白质分子结构、电商平台客户数据等等。数据复杂度的提升,对传统的机器学习算法设计以及其实现技术带来了严峻的挑战。在此背景之下,诸多基于Graph的新型机器学习算法—GNN(图神经网络),在学术界和产业界不断的涌现出来。 GNN对算力和存储器的要求非常高,其算法的软件实现方式非常低效,所以业界对GNN的硬件加速有着非常迫切的需求。我们知道传统的CNN(卷积神经网络网络)硬件加速方案已经有非常多的解决方案;但是,GNN的硬件加速尚未得到充分的讨论和研究,在本文撰写之时,Google和百度皆无法搜索到关于GNN硬件加速的中文研究。本文的撰写动机,旨在将国外最新的GNN算法、加速技术研究、以及笔者对GNN的FPGA加速技术的探讨相结合起来,以全景图的形式展现给读者。

2.GNN简介

GNN的架构在宏观层面有着很多与传统CNN类似的地方,比如卷积层、Polling、激活函数、机器学习处理器(MLP)和FC层等等模块,都会在GNN中得以应用。下图展示了一个比较简单的GNN架构。

图 1:典型的GNN架构 但是, GNN中的Graph数据卷积计算与传统CNN中的2D卷积计算是不同的。以图2为例,针对红色目标节点的卷积计算,其过程如下: lGraph卷积:以邻居函数采样周边节点特征并计算均值,其邻居节点数量不确定且无序(非欧氏数据)。 l2D卷积:以卷积核采样周边节点特征并计算加权平均值,其邻居节点数量确定且有序(欧氏数据)。

图 2:Graph卷积和2D卷积

3.GraphSAGE算法简介

学术界已对GNN算法进行了非常多的研究讨论,并提出了数目可观的创新实现方式。其中,斯坦福大学在2017年提出的GraphSAGE是一种用于预测大型图中动态新增未知节点类型的归纳式表征学习算法,特别针对节点数量巨大、且节点特征丰富的图做了优化。如下图所示,GraphSAGE计算过程可分为三个主要步骤:

图 3:GraphSAGE算法的视觉表述 l邻节点采样:用于降低复杂度,一般采样2层,每一层采样若干节点 l聚合:用于生成目标节点的embedding,即graph的低维向量表征 l预测:将embedding作为全连接层的输入,预测目标节点d的标签 为了在FPGA中实现GraphSAGE算法加速,我们需要知悉其数学模型,以便将算法映射到不同的逻辑模块中。下图所示的代码阐述了本算法的数学过程。

图 4:GraphSAGE算法的数学模型 对于每一个待处理的目标节点xv,GraphSAGE 执行下列操作: 1)通过邻居采样函数N(v),采样子图(subgraph)中的节点 2)聚合被采样的邻节点特征,聚合函数可以为mean()、lstm()或者polling()等 3)将聚合结果与上一次迭代的输出表征合并,并以Wk做卷积 4)卷积结果做非线性处理 5)迭代若干次以结束当前第k层所有邻节点的处理 6)将第k层迭代结果做归一化处理 7)迭代若干次以结束所有K层采样深度的处理 8)最终迭代结果zv即为输入节点xv的嵌入(embedding)

4.GNN加速器设计挑战

GNN的算法中涉及到大量的矩阵计算和内存访问操作,在传统的x86架构的服务器上运行此算法是非常低效的,表现在速度慢,能耗高等方面。 新型GPU的应用,可以为GNN的运算速度和能效比带来显著收益。然而GPU内存扩展性的短板,使其无法胜任海量节点Graph的处理;GPU的指令执行方式,也造成了计算延迟过大并且不可确定,无法胜任需要实时计算Graph的场景。 如上所述种种设计挑战的存在,使得业界急需一种可以支持高度并发实时计算、巨大内存容量和带宽、以及在数据中心范围可扩展的GNN加速解决方案。5.GNN加速器的FPGA设计方案Achronix 公司推出的 Speedster7t系列高性能FPGA,专门针对数据中心和机器学习工作负载进行了优化,消除了CPU、GPU以及传统 FPGA 存在的若干性能瓶颈。Speedster7t FPGA 基于台积电的 7nm FinFET 工艺,其架构采用革命性的新型 2D 片上网络 (NoC),独创的机器学习处理器矩阵 (MLP),并利用高带宽 GDDR6 控制器、400G 以太网和 PCI Express Gen5 接口,在保障ASIC 级别性能的同时,为用户提供了灵活的硬件可编程能力。下图展示了Speedster7t1500高性能FPGA的架构。

图5: Achronix Speedster7t1500高性能FPGA 架构 如上所述种种特性,使得Achronix Speedster7t1500 FPGA器件为GNN加速器设计中所面临的各种挑战,提供了完美的解决方案。 表1:GNN设计挑战与Achronix的Speedster7t1500 FPGA解决方案

GNN设计挑战 Speedster7t1500解决方案
高速矩阵运算 MLP机器学习处理器矩阵
高带宽低延迟存储 LRAM+BRAM+GDDR6+DDR4
高并发低延迟计算 FPGA使用可编程逻辑电路,在硬件层面确保低高并发延迟计算
内存扩展 基于4*400Gbps的RDMA,确保在数据中心范围以极低延迟扩展内存访问
算法不断演进 FPGA使用可编程逻辑电路,在硬件层面确保算法可升级重配
设计复杂 丰富的硬IP减少开发时间和复杂度,NoC简化模块间互连并提高时序

5.1GNN加速器顶层架构

本GNN加速器针对GraphSAGE进行设计,但其架构具有一定的通用性,可以适用于其他类似的GNN算法加速,其顶层架构如下图所示。

图6: GNN加速器顶层架构 图中GNN Core为算法实现的核心部分,其设计细节将在下文展开谈论;RoCE-Lite为RDMA协议的轻量级版本,用于通过高速以太网进行远程内存访问,以支持海量节点的Graph计算,其设计细节将在本公众号的后续文章中讨论;400GE以太网控制器用来承载RoCE-Lite协议;GDDR6用于存放GNN处理过程中所需的高速访问数据;DDR4作为备用高容量内存,可以用于存储相对访问频度较低的数据,比如待预处理的Graph;PCIe Gen5x16提供高速主机接口,用于与服务器软件交互数据;上述所有模块,皆通过NoC片上网络来实现高速互联。 5.2GNNCore微架构 在开始讨论GNN Core 微架构之前,我们先回顾一下本文第3节中的GraphSAGE算法,其内层循环的聚合以及合并(包含卷积)等两个操作占据了算法的绝大部分计算和存储器访问。通过研究,我们得到这两个步骤的特征如下: 表2:GNN算法中聚合与合并操作对比

聚合操作 (Aggregation) 合并操作 (Combination)
存储器访问模式 间接访问,不规则 直接访问,规则
数据复用
计算模式 动态,不规则 静态,规则
计算量
性能瓶颈 存储 计算

可以看出,聚合操作与合并操作,其对计算和存储器访问的需求完全不同。聚合操作中涉及到对邻节点的采样,然而Graph属于非欧氏数据类型,其大小维度不确定且无序,矩阵稀疏,节点位置随机,所以存储器访问不规则并难以复用数据;在合并操作中,其输入数据为聚合结果(节点的低维表征)以及权重矩阵,其大小维度固定,存储位置规则线性,对存储器访问不存在挑战,但是矩阵的计算量非常大。 基于以上分析,我们决定在GNN Core加速器设计中用两种不同的硬件结构来处理聚合操作与合并操作,功能框图如下图所示:

图7: GNN Core功能框图 聚合器(Aggregator):通过SIMD(单指令多数据处理器)阵列来对Graph进行邻居节点采样并进行聚合操作。其中的“单指令”可以预定义为mean()均值计算,或者其他适用的聚合函数;“多数据”则表示单次mean()均值计算中需要多个邻居节点的特征数据作为输入,而这些数据来自于子图采样器(Subgraph Sampler);SIMD阵列通过调度器Agg Scheduler做负载均衡;子图采样器通过NoC从GDDR6或DDR4读回的邻接矩阵和节点特征数据h0v,分别缓存在Adjacent List Buffer和Node Feature Buffer之中;聚合的结果hkN(v)存储在Agg Buffer之中。 合并器(Combinator):通过脉动矩阵PE来执行聚合结果的卷积操作;卷积核为Wk权重矩阵;卷积结果通过ReLU激活函数做非线性处理,同时也存储在Partial Sum Buffer中以方便下一轮迭代。 合并的结果通过L2BN归一化处理之后,即为最终的节点表征hkv。 在比较典型的节点分类预测应用中,该节点表征hkv可以通过一个全连接层(FC),以得到该节点的分类标签。此过程属于传统的机器学习处理方法之一,没有在GraphSAGE论文中体现,此设计中也没有包含这个功能。6.结论本文深入讨论了GraphSAGE GNN 算法的数学原理,并从多个维度分析了GNN加速器设计中的技术挑战。作者通过分解问题并在架构层面逐一解决的方法,综合运用Achronix Speedster7t1500 FPGA所提供的竞争优势,创造了一个性能极佳且高度可扩展的GNN加速解决方案。

责任编辑:lq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1630

    文章

    21796

    浏览量

    605749
  • 神经网络
    +关注

    关注

    42

    文章

    4779

    浏览量

    101129
  • 机器学习
    +关注

    关注

    66

    文章

    8438

    浏览量

    133026

原文标题:机器学习实战:GNN(图神经网络)加速器的FPGA解决方案

文章出处:【微信号:gh_9d70b445f494,微信公众号:FPGA设计论坛】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    深入解析ECC256椭圆曲线加密算法

    点击蓝字关注我们一、加密算法概述数据加密的基本过程就是对原来为明文的文件或数据按某种算法进行处理,使其成为不可读的一段代码为“密文”,使其只能在输入相应的密钥之后才能显示出原容,通过这样的途径来达到
    的头像 发表于 12-26 16:32 348次阅读
    <b class='flag-5'>深入</b>解析ECC256椭圆曲线加密<b class='flag-5'>算法</b>

    Teledyne Lecroy示波器插值算法

    示波器是通过内部硬件ADC对模拟信号采样来获取离散的数据点,然而这些离散的数据点有时难以完整呈现出原始模拟信号的全貌。软件插值算法的意义就在于,它能够依据特定的数学算法,在已采集的数据点之间插入新的数据点,帮助使用者更好地还原和
    的头像 发表于 12-24 16:11 397次阅读

    【「从算法到电路—数字芯片算法的电路实现」阅读体验】+内容简介

    内容简介这是一本深入解读基础算法及其电路设计,以打通算法研发到数字IC设计的实现屏障,以及指导芯片设计工程师从底层掌握复杂电路设计与优化方法为目标的专业技术书。任何芯片(如WiFi芯片、5G芯片
    发表于 11-21 17:14

    【「从算法到电路—数字芯片算法的电路实现」阅读体验】+介绍基础硬件算法模块

    数问题。因此,深入理解芯片所基于的算法是国产自主研发的关键。任何算法都是由加减四则运算、滤波器、特殊信号发生器等基本数学方法构成的,熟练掌握这些方法是实现
    发表于 11-21 17:05

    傅里叶变换的数学原理

    傅里叶变换的数学原理主要基于一种将函数分解为正弦和余弦函数(或复指数函数)的线性组合的思想。以下是对傅里叶变换数学原理的介绍: 一、基本原理 傅里叶级数 :对于周期性连续信号,可以将其表示为傅里叶
    的头像 发表于 11-14 09:27 769次阅读

    软银和阿波罗讨论成立大型人工智能基金

    据最新报道,软银集团与阿波罗正在就成立一只大型基金进行深入讨论,该基金将专注于投资数据中心、芯片工厂以及其他与人工智能相关的项目。据知情人士透露,双方曾讨论过设立一只规模超过200亿美元的基金,旨在推动人工智能领域的进一步发展。
    的头像 发表于 10-29 11:15 365次阅读

    深入解析Zephyr RTOS的技术细节

    ,Zephyr OS在嵌入式开发中的知名度逐渐增加,新的微控制器和开发板都支持Zephyr。本文将深入讨论Zephyr RTOS的技术细节。
    的头像 发表于 10-22 16:47 700次阅读
    <b class='flag-5'>深入</b>解析Zephyr RTOS的技术细节

    名单公布!【书籍评测活动NO.46】从算法到电路 | 数字芯片算法的电路实现

    :elecfans123)领取书籍进行评测,如在5个工作日内未联系,视为放弃本次试用评测资格! 《从算法到电路——数字芯片算法的电路实现》 是一本深入解读基础算法及其电路设计,以打通
    发表于 10-09 13:43

    matlab 神经网络 数学建模数值分析

    matlab神经网络 数学建模数值分析 精通的可以讨论
    发表于 09-18 15:14

    神经网络反向传播算法的原理、数学推导及实现步骤

    传播算法的原理、数学推导、实现步骤以及在深度学习中的应用。 神经网络概述 神经网络是一种受人脑启发的计算模型,由大量的神经元(或称为节点)组成,每个神经元与其他神经元通过权重连接。神经网络可以分为输入层、隐藏层和输出层。输入层接收外部输入数据
    的头像 发表于 07-03 11:16 937次阅读

    神经网络在数学建模中的应用

    数学建模是一种利用数学方法和工具来描述和分析现实世界问题的过程。神经网络是一种模拟人脑神经元结构和功能的计算模型,可以用于解决各种复杂问题。在数学建模中,神经网络可以作为一种有效的工具,帮助我们更好
    的头像 发表于 07-02 11:29 1105次阅读

    机器学习算法原理详解

    机器学习作为人工智能的一个重要分支,其目标是通过让计算机自动从数据中学习并改进其性能,而无需进行明确的编程。本文将深入解读几种常见的机器学习算法原理,包括线性回归、逻辑回归、支持向量机(SVM)、决策树和K近邻(KNN)算法,探
    的头像 发表于 07-02 11:25 1325次阅读

    工业控制器的制作与数学的关系

    数学在工业控制器设计中的应用 工业控制器的设计涉及到多个方面,包括硬件设计、软件设计、系统架构设计等。在这些设计过程中,数学发挥着关键作用。 1.1 硬件设计中的数学应用 工业控制器的硬件设计主要
    的头像 发表于 06-16 14:34 557次阅读

    夏普讨论建立人工智能数据中心

    近日,夏普公司宣布与KDDI公司达成重要合作意向,双方将针对建立人工智能数据中心进行深入讨论。据悉,此次合作将围绕英伟达的人工智能计算平台和Supermicro平台展开,共同探索人工智能领域的创新发展。
    的头像 发表于 06-05 09:17 505次阅读

    PID在工业控制领域的实现原理

    PID控制器非常实用且有效。它们基于简单的数学原理,通过调整三个参数(比例系数P、积分系数I和微分系数D)来对系统的偏差进行控制。这种简单性使得PID控制器易于理解和实现,同时也能够提供稳定且可靠的控制效果。
    发表于 04-12 11:06 961次阅读
    PID在工业控制领域的实现原理