越来越多的人工智能(AI)投入实际应用,包括在线客服、网络搜寻、甚至脸书上的讯息呈现,背后其实都是靠强大的算法执行。只不过,AI本身的局限性,也将在投入应用越来越明显,这也将是决定AI乃至于人类生活能否持续进步的一大关键。在AI领域中,引领风骚的不只是掌握用户数据、用户数量庞大的科技巨人,从生产制造端切入,在某个特定产业称王的也大有人在。日本的Preferred Networks(PFN)就是最好的例子。2014年创业的PFN,可以说是不折不扣的新创独角兽。他们专精的领域,是把深度学习(Deep Learning)技术导入在产业应用上,目前在三大应用领域:运输、制造生产以及医疗上,都与日本的一级大厂进行合作研发,例如从创业开始,PFN就与丰田汽车一起投入自驾车技术,去年(2017)七月更与日本国家癌症中心合作,建构癌症的早期血液诊断系统。在PFN看来,深度学习的本质,其实就是建构统计性的预测模型。PFN Fellow丸山宏形容,深度学习具备大量的参数,经过多次的反复操作后,可以形成任何多维、非线性的函数系统,逼近人类的思考模式,可以大幅提升预测的准确度。机器学习本质,不脱统计归纳分析这种预测模型该如何建立?以国际两大温度单位:摄氏(℃)与华氏(℉)的对应关系为例,从人类的观点看,因为已经有一套标准的换算公式,丸山宏解释,对于任何一个给定的华氏温度,只要套入公式运算,就能得出相对应、即使测量也不会出错的摄氏温度;但对于机器来说,如果这套换算公式并不存在,就只能靠长期观测、记录摄氏与华氏两套温度数据,再对这些数据进行分析,慢慢推导出两者之间的对应关系(图1)。
图1:使用观测数据进行训练,使机器学习温度单位换算的方法
因为机器学习的对象只有被给定的参数,不论给定的参数再多、数据的规模再大,得出的仅是「近似」结果。丸山宏指出,归纳法的限制之一,就是只能根据过去的历史资料预测未来;但如果未来出现不可知或根本无法预测的意外,任何AI技术都无法得出对的结果。此外,机器学习所处理的参数,多半都被严格定义过,如果此时出现了与众不同的参数,也就是训练数据中未曾出现的稀有事件,系统对其也无能为力。“机器学习或者AI,还是跟人脑不一样,”丸山宏指出,“它不会灵光乍现,也不会进行临机应变的处理,更难以避免偏误的发生。”技术面以外,关于AI另一个更严肃的议题,可能发生在应用场域上。丸山宏解释,在自动驾驶上,现在PFN的技术,已经达到可以同时控制多部车辆依其规划路线行驶,又不至于出现壅塞。“在这辆红色汽车上,我们的算法更可以设定所有车辆一碰到他就得转弯或减速,降低车祸发生率。”这套系统明明运作地相当完美,但丸山宏却提出另一个尖锐问题:这辆红色汽车的“安全系数”该拉到多高?AI的应用,仍然有其局限性
图2:Preferred Networks开发的分布式自动驾驶系统
他补充,一般人可能认为,为了避免发生危难,安全系数当然越高越好,“可是我们发现,当这辆红色车的安全系数不断提高、其他车辆在这个参数环境下不断学习之后,居然都静止不动了!”丸山宏解释,正因为其他车辆被训练的内容是“绝对不能碰到红色车”,而只要一开动就会有碰撞的风险,所以才出现全部静止的结果。只不过,这样一来交通系统也跟瘫痪无异了。因为机器只能在被给定的参数框架内思考,如果人们给予的指令过于简化,在实际生活中恐怕会出现难以预料的结果。他举例,“好比你今天命令机器人去星巴克帮你买杯咖啡,如果指令内容只是『把咖啡拿过来』,那么机器人的行动,可能是到星巴克,把排队的其他客人都打开推开甚至杀死,再把咖啡拿给你。”AI跟人类一样并非万能,类似这样的“框架问题(Frame Problem)”,是人工智能领域中困扰许久却尚未解决的问题。随着这项技术逐渐被人类社会所使用,我们一方面固然可以因为生活更加方便而欣喜,但更要谨记的是必须以谨慎、注意的态度来使用这些科技,才不会制造更多无解的难题。
-
人工智能
+关注
关注
1793文章
47535浏览量
239322 -
机器
+关注
关注
0文章
784浏览量
40770
原文标题:AI无所不能?未必!
文章出处:【微信号:iot12345,微信公众号:物联之家网】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论