(文章来源:电子工程世界)
来自谷歌、微软、高通、三星和6所大学的一组研究人员齐聚加州圣何塞,讨论将机器学习带到网络最远端的挑战,尤其是运行在传感器或其他电池驱动设备上的微处理器中。
这就是盛大的“微型机器学习峰会”,该峰会的主旨是找出如何在最小的微处理器上运行机器学习算法。在边缘的学习将推动更好的隐私实践,更低的功耗,并在未来的设备中构建新应用。神经网络的训练是机器学习的核心,这种训练需要大量的数据。最终会把它训练成一个无论是下围棋还是响应语音指令的任务模型。
许多公司目前专注于为机器学习构建专门的硅材料,以便在数据中心内训练网络。他们还希望在边缘使用硅来对机器学习模型进行推理运行数据,以查看数据是否与模型的结果相匹配。但是,这个微型机器学习生态群(Tiny ML)的目标是对最小的处理器进行推理,比如为远程传感器供电的8位微控制器。
如果我们讨论的是智能手机之类的东西,那么在边缘推理方面已经有了很大进展。在2019年11月,谷歌开放了两个版本的机器学习算法的源代码,其中一个运行所需的能量减少了50%,另一个运行速度是之前版本的两倍。还有一些初创公司,如Flex Logix、Greenwaves和Syntiant,使用专用的硅来应对类似的挑战。
但是Tiny ML有不同的目标。想象一下,如果机器学习模型,能够把对话和助听器上的背景噪音区分开来。如果您无法在设备本身上安装该模型,那么您就需要在运行在该模型上的云保持无线连接。但如果您能够安装它的话,直接在助听器上运行该模型更有效、更安全。
Tiny ML的研究人员也在尝试在电池供电的边缘设备上使用ML来进行更好的数据分类。Latent AI公司首席执行长Jags Kandasamy表示,他的公司正在与制造增强现实和虚拟现实耳机相关公司进行谈判。Latent AI正在开发用于微型处理器的神经网络压缩软件。这些公司希望利用他们的耳机收集的大量图像数据,对设备上看到的图像进行分类,这样他们就可以将有用的数据发送到云上,供以后培训使用。 “如果你已经看到了10辆丰田皇冠,它们真的有必要转移到云端吗?”Kandasamy问道。
由于机器学习通常需要大量的电力,而将设备上的数据进行分类可以减少收集到云中的数据量,从而节省带宽和电力。当涉及到机器学习时,很多人觉得数据越大才越好,但我对将机器学习应用到边缘的潜力感到兴奋。尽管Tiny ML仍然专注于推理的挑战,也许有一天我们甚至可以考虑在边缘上训练网络本身。
(责任编辑:fqj)
-
微处理器
+关注
关注
11文章
2249浏览量
82335 -
机器学习
+关注
关注
66文章
8382浏览量
132452
发布评论请先 登录
相关推荐
评论