1、人工智能的本质
人工智能是相对于人的智能而言的。正是由于意识是一种特殊的物质运动形式,所以根据控制论理论,运用功能模拟的方法,制造电脑模拟人脑的部分功能,把人的部分智能活动机械化,叫人工智能。人工智能的本质是对人思维的信息过程的模拟,是人的智能的物化。尽管人工智能可以模拟人脑的某些活动,甚至在某些方面超过人脑的功能,但人工智能不会成为人类智能而取代人的意识。
2、人工智能与人类思维的本质区别
人工智能是思维模拟,并非人的思维本身,决不能把“机器思维”和人脑思维等同起来,认为它可以超过人脑思维是没有根据的。
(1)人工智能是无意识的机械的、物理的过程。人的智能主要是生理的和心理的过程。
(2)人工智能没有社会性。人类智慧具有社会性。
(3)人工智能没有人类意识特有的能动性和创造能力。人类思维则主动提出新的问题,进行发明创造。
(4)电脑可以代替甚至超过人类的部分思维能力,但它同人脑相比,局部超出,整体不及。智能机器是人类意识的物化,它的产生和发展,既依赖于人类科学技术的发展水平,又必须以人类意识对于自身的认识为前提。因此,从总体上说;人工智能不能超过人类智慧的界限。关于电脑能够思维,甚至会超过人的思维,电脑、机器人将来统治人类的观点是完全没有根据的。
他们居然雇人扮AI这是玩哪出
很多美其名曰“人工智能”的高科技,竟压根就是真人手动操作的“智能人工”。
事情要从本月初说起。2日,《华尔街日报》在刊文曝出了一宗“谷歌邮件泄露”丑闻。为了优化客户服务体验,谷歌邮箱(Gmail)竟允许上百家第三方App的开发人员浏览用户的电子邮件。
涉事公司之一,eDataSource的前CTO锡德·罗德(Thede Loder)表示,让员工“偷偷”读用户邮件的事,在数据服务行业中早已屡见不鲜。但是他解释,这么做是为了改进软件算法,训练AI系统,所以工程师们只是“偶尔看看”,也就是让工程师“辅助”AI。
其他诸如Return Path 和Edison Software等软件公司的说法,和罗德如出一辙。
事情在第二天便得到了谷歌的承认。但除了是否侵犯用户隐私外,字里行间显然还隐藏着另一个重要的问题:
为什么读邮件的都是人工?
这还没完。英国《卫报》在6日继续“吐槽”称,让人来“辅助”AI已经不错了,以往还有很多更过分的“黑科技”。
2008年,英国一个自称可以“自动将语音留言转为文本短信”的SpinVox软件,被人指控在南非、菲律宾等地设立了海外呼叫中心。
2016年,彭博社曝光美国创业公司X.ai(AI啊这公司名字就叫AI)推出的“人工智能私人助理Amy”,“后台”居然是一支不眠不休的人工团队。Amy号称可以帮用户完成会议安排和发送电子邮件等简单任务,但受访员工称,自己需要每天工作12 小时,假扮虚拟助理完成一系列单调无聊到“令人麻木”的工作。
去年,推出了企业费用管理App的跨国公司Expensify承认,他们一直使用人工来处理他们的主打产品“智能扫描技术”(SmartScan)的部分收据转录工作。他们只要将用户上传的收据扫描,把照片发布到亚马逊的众包平台上,那里的工作人员便会将其手动抄录下来。而且,这些人的薪水便宜得很。
“不知道Expensify的用户明不明白真相呢?我现在正在看着某人的Uber发票,上面写着他的全名,以及出发地、目的地的地址”,接到活儿的罗谢尔·拉普朗特(Rochelle LaPlante)说道,他本人对这种“满口谎言”的公司很是反感,现在根本不想用他们的产品。他透露,其实很多同行都有不同程度的抵触情绪,“我们感觉自己被丢到幕后,劳动成果还被用来欺骗其他消费者。”
装成翘楚好赚钱
随后,《卫报》分析了这些科技企业对“伪人工智能”趋之若鹜的原因。
首先便是装成行业佼佼者,吸引关注和投资,“这是他们不会告诉投资者和用户的秘密”。这其中又分两种情况。一种是让人类来协助已有的人工智能,比如牵涉到谷歌邮箱泄密的那些第三方App,再比如,美国有家叫Scale API的公司,雇了一大堆人帮自己的自动驾驶汽车校准传感器。
再有便是对外假称是AI技术,然后偷偷用人工代替,直到真的开发出这个AI之前,能混一天算一天。报道称,真人虽然速度又慢,又不能批量处理任务,但毕竟便宜啊。
有趣的是,早在2016年,一家交互设计工具网站Readme的老板格里高利·科贝格(Gregory Koberger)便在推特上用玩笑的口吻曝光了这个黑幕。
13日,《华尔街日报》再次评论了“伪人工智能”现象,称其为“机器学习”热潮和“零工经济”相结合的产物。
真人扮AI不道德?AI扮真人更不道德
此外,《卫报》认为还有一个不那么“功利”的原因。心理学家发现,当用户以为自己面对的是机器人时,会更容易放下戒备。一旦涉及敏感话题,这种情况就更加明显。
再说回谷歌邮件事件,如果大家听说邮件只是被机器人偷看了,抵触情绪定然会比得知真相后小得多。
类似情形还存在于医疗问诊中、来自南加大的研究团队用他们开发的虚拟心理治疗师艾莉(Ellie)做了一番测试。他们发现,患有创伤后应激障碍的退伍军人只要发现艾莉是个AI,就老是会发病。
不过,这也引发了其他专家的担忧。“这设计很绿野仙踪呢”,心理学家、心理健康聊天机器人Woebot的创始人艾莉森·达西(Alison Darcy)道,“作为心理学家,我们需要遵循道德准则,不欺骗别人显然应该是准则之一。”
确实掌握AI技术的谷歌,也在早前意识到了这个伦理难题。而他们的解决方案是:
让AI假装自己是人类
谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex会在打电话时加入“嗯”、“呃”之类拟人的象声词。但这一改动迅速遭到强烈反对,用户纷纷表示“这岂不骗得更厉害了”。
达西也对当时的设计很不满,“万一AI能模仿名人或政客的声音,打出真假难辨的电话,那还得了?”
于是,谷歌随后又做了改动,让Google Duplex在对话一开始就自报机器人身份,加强AI技术“透明度”。
-
机器人
+关注
关注
210文章
28191浏览量
206498 -
AI
+关注
关注
87文章
30105浏览量
268389 -
人工智能
+关注
关注
1791文章
46845浏览量
237526
发布评论请先 登录
相关推荐
评论