每种类型的边缘 AI 都有三个硬性和快速的技术要求:低功耗、小尺寸和高性能。当然,“小型”、“节能”或“高性能”的构成因用例而异,可以描述从小型微控制器到边缘服务器的所有内容,但通常您必须至少牺牲一个才能获得其他。
但是,一种可以解决从边缘云到端点的所有问题而无需牺牲的解决方案是 FPGA。
几十年来,FPGA 一直用于提供低功耗、高性能的设计灵活性,无论应用程序或外形尺寸如何,但它们并不完全是用户友好的——复杂的 AI 模型和算法的不断发展加剧了这一事实。然而,在有挑战的地方通常也有机会,对于工业自动化、智慧城市、交通、医疗保健、农业和其他市场中的边缘人工智能用例,以及其他快速采用计算机视觉等功能的市场,机会以FlexLogix X1M 人工智能加速器。
Flex Logix X1M AI 加速器针对实时、高分辨率计算机视觉用例,这些用例运行基于 Yolov3、Yolov4 和 Yolov5 等模型的小批量深度学习工作负载。为了以比 NVIDIA Tesla T4、Xavier NX 或 Jetson TX2 等设备更高的每美元吞吐量提供视觉边缘推理,新的 X1M M.2 模块利用 Flex Logix 的 InferX X1 架构,将 4K INT8 MAC 内核组合成 64 个8 MB SRAM 和 4 GB 16 MTps LPDDR4X DRAM 支持 x 64 张量处理器阵列。
鉴于板载内存,X1M AI 加速器本身支持 PCI Express Gen 3 或 4 的 x2 通道作为主机总线协议。PCIe 支持不仅促进了张量阵列与内存和存储中的数据或模型之间的高速数据传输,还能够符合 M.2 2280 B+M 关键外形规格规格,尺寸为 22 mm (W) x 80 毫米(长)x 17 毫米深(包括散热器)。
X1M AI 加速器的大小与口香糖差不多,消耗的功率也比时钟收音机多一点,它真正占据了技术功率-性能尺寸维恩图的中心。
InferX X1M 边缘推理加速器正在运行
该平台的张量阵列使其能够处理具有数百层、数十个并行通道和多种算子类型的深度神经网络,与 GPU 不同,它可以应用于批量小至 1 的百万像素图像。
尽管展示了 ASIC 的性能特征,但 InferX X1M 拥有 FPGA 独有的能力。其中包括可重新配置的数据路径,允许设备硬件适应新的和不同的模型技术,即使在现场部署之后也是如此。从本质上讲,这使这些设备能够面向未来。
重要的是,用户无需了解硬件开发语言或手动重新编程 FPGA 比特流即可访问这些功能以及控制逻辑等其他功能。这要归功于为用户提供对低级平台控制功能和监控功能的内部访问以及可用于应用程序配置或模型部署的外部访问的 API。
此外,开放神经网络交换 (ONNX) 格式的兼容性允许 InferX X1M 工具以最佳方式自动将框架中表示的任何模型映射到 X1 加速器。
该解决方案支持在 Windows 和 Linux 操作环境中进行开发。
Flex Logix InferX X1M 加速器入门
除了上面列出的好处之外,InferX X1M 加速器的最大优势可能在于它使边缘 AI 和计算机视觉 OEM 和系统集成商不必设计自己的定制板。这些 M.2 模块设计用于在 0ºC 至 50ºC 的温度范围和 10% 至 90% 的相对非冷凝湿度范围内可靠地运行,所有这些都具有竞争力的成本。
审核编辑:郭婷
-
asic
+关注
关注
34文章
1199浏览量
120441 -
神经网络
+关注
关注
42文章
4771浏览量
100720 -
AI
+关注
关注
87文章
30762浏览量
268905
发布评论请先 登录
相关推荐
评论