深度学习在语音识别、图像理解、自动驾驶汽车、自然语言处理、搜索引擎优化等方面提供了显著的功能和进步。你知道吗,尽管深度学习的范围如此广阔,但人工智能的这种变体在第三次迭代中,也就是现在的21世纪,获得了巨大的轰动。随着gpu的出现,深度学习可以在大量基准测试和实际应用程序上超越竞争对手。即使是计算机视觉(深度学习的常见用例之一)社区也相当怀疑,直到2011年AlexNet在ImageNet上击败了所有竞争对手。
尽管在这些发展之后,深度学习模式仍存在许多局限性,阻碍了它在当今的大规模应用。例如,模型不具有可伸缩性和旋转不变性,当物体姿态异常时,很容易对图像进行错误分类。让我们关注一些常见的缺点。
一个主要的缺点是深度学习算法需要大量的数据集进行训练。举例来说,对于语音识别程序,需要形成多种方言、人口统计学和时间尺度的数据来获得期望的结果。虽然像谷歌和微软这样的大型科技巨头能够收集并拥有丰富的数据,但有好主意的小公司可能无法做到这一点。此外,有时训练模型所需的数据已经很稀疏或不可用,这是很有可能的。
此外,在更大的架构下,深度学习模型需要更多的数据来产生可行的结果。在这样的场景中,重用数据可能不是一个合适的想法,数据扩充在某种程度上可能是有用的,但是拥有更多的数据总是首选的解决方案。此外,由于复杂的数据模型,训练深度学习模型是一件非常昂贵的事情。有时,它们需要昂贵的gpu和数百台机器,这就增加了用户的成本。
其次,在基准数据集上表现良好的深度学习模型在数据集之外的真实图像上可能会严重失败。为了说明这一点,考虑一个深度学习算法,它学习到校车总是黄色的,但是,突然,校车变成蓝色,它将需要重新训练。相反,一个5岁的孩子认出这辆车是一辆蓝色校车是没有问题的。此外,他们也无法在与训练环境几乎不同的情况下有效地执行任务。例如,Google的DeepMind训练了一个系统来击败49款Atari游戏;然而,每次该系统击败一款游戏时,它都必须经过再训练才能击败下一款游戏。
这给我们带来了深度学习的另一个局限性,即虽然模型可能非常擅长将输入映射到输出,但它可能不擅长理解它们正在处理的数据的上下文。换言之,它缺乏常识,在跨领域的边界地区得出结论。据DeepMind的人工智能研究员格雷格·韦恩(GregWayne)说,目前的算法可能无法辨别沙发和椅子是用来坐的。它还缺乏通用智能和多领域集成。
深度学习算法还可以解决不透明或黑盒问题,使它们难以调试或理解如何做出决策。这也让用户在理解某些部件为什么会出现故障时无所适从。一般来说,深度学习算法会对数百万个数据点进行筛选,以找到人类专家通常不会注意到的模式和相关性。虽然在执行一些琐碎的任务时可能会遇到问题,但在肿瘤检测等情况下,医生需要知道为什么模型在扫描报告中标记了一些区域,为什么没有标记其他区域。
此外,深度学习算法在训练阶段的缺陷使其容易受到对手样本的攻击:对手精心设计的输入,意图导致深度神经网络错误分类。同时,数据集中存在的偏见可能导致不准确的结果,从而内在地放大了现实世界中的歧视。黑匣子的存在使得开发人员很难确定这些恶意数据是在哪里、如何输入系统的。
最后,深度学习架构具有出色的能力,如图像分类和序列预测。它们甚至可以生成与另一个类似GANs的模式相匹配的数据。然而,它们并不能推广到每一个监督学习问题。
编辑:lyn
-
语音识别
+关注
关注
38文章
1714浏览量
112510 -
计算机视觉
+关注
关注
8文章
1695浏览量
45911 -
深度学习
+关注
关注
73文章
5481浏览量
120918
发布评论请先 登录
相关推荐
评论