谷歌最近重新推出Duplex,向餐厅主人和沙龙工作人员明确透露,他们正在与 Google 智能助理对话并正在录制。
人工智能助理
人们越来越期望,当你向企业发送消息时,你可能会与人工智能聊天机器人进行交互。但是当你真正听到人类说话时,你通常会认为这是一个真实的人。
我们正处于人们与AI定期进行有意义的互动的初期,而且该领域的进展已经引起了人们的恐惧,即黑客可能会利用AI代理进行恶意攻击。
在最佳情况下,具有恶意意图的AI机器人可能会冒犯人,我们可能面临更多可怕的威胁。例如,人工智能可以学习特定的语言模式,使技术更容易适应操纵人,模仿受害者,以及阶段性钓鱼(语音网络钓鱼)攻击和类似活动。
许多专家认为威胁是真实的。在CIO专栏中,Steven Brykman阐述了可以利用Duplex这样的技术的不同方式:“至少在人类呼唤人类的情况下,仍有一个限制因素 - 人类每天每小时只能拨打这么多电话。人类必须得到报酬,休息等等。但人工智能聊天机器人可以通过无限多种方式向无限数量的人拨打无限数量的电话!“
在这个阶段,我们听到的大部分内容都是猜测; 我们仍然不知道语音助手出现时可能出现的威胁程度和严重程度。但是,如果提供技术的公司在与AI代理交互时明确地与用户通信,那么涉及基于语音的助理的许多潜在攻击都可以被解除。
隐私问题
围绕使用Duplex等技术的另一个问题是潜在的隐私风险。人工智能系统需要用户数据来训练和改进他们的算法,双工也不例外。它如何存储,保护和使用这些数据非常重要。
新的法规正在出现,要求公司在想要收集信息时获得用户的明确同意,但它们主要用于涵盖用户有意发起互动的技术。这对于用户激活的像Siri和Alexa这样的AI助手来说很有意义。但目前尚不清楚新规则如何适用于未经触发而触及用户的AI助手。
在他的文章中,Brykman强调有必要建立监管保障措施,例如要求公司宣布存在AI代理人的法律 - 或者当您询问聊天机器人是否是聊天机器人时,需要说,“是的,我是聊天机器人。“ 这些措施将使人类对话者有机会脱离或至少决定他们是否想要与记录他们的声音的AI系统进行交互。
即使有这样的法律,隐私问题也不会消失。“我预见的技术目前最大的风险是,它将为企业提供更多关于我们尚未拥有的私人生活的数据。到目前为止,他们只知道我们的在线交流;他们现在将获得真正的洞察力我们真实的对话。
最近涉及国外大型科技公司的隐私丑闻,他们以可疑的方式利用用户数据来获取自己的收益,这让人们产生了一种不信任的感觉,即给他们更多的窗户进入我们的生活。“人们普遍认为,大型硅谷公司将其视为库存而非客户,并且对他们所做的几乎任何事情都有很大程度的不信任,无论它最终会如何开创性和改变生活”。
功能失败
尽管具有自然的声音和音调以及使用类似人类的声音,例如“mmhm”和“ummm”,Duplex与其他当代AI技术没有什么不同,并且受到相同的限制。
无论是语音还是文本都用作界面,AI代理都善于解决特定问题。这就是为什么我们称它们为“ 狭窄的人工智能 ”(与“一般人工智能”相对的 - 这种人工智能可以像人类思维一样进行一般的问题解决)。虽然狭窄的AI可以非常好地执行它所编程的任务,但是当它给出一个偏离其问题域的场景时,它可能会非常失败。
如果消费者认为他们正在与人交谈,他们可能会问一些不在AI正常脚本之外的东西,然后当机器人不理解时会得到令人沮丧的反应。
相比之下,当一个人知道他们正在与一个经过培训以便在餐厅预订餐桌的人工智能交谈时,他们会尽量避免使用会混淆人工智能并使其以意想不到的方式行事的语言,特别是如果它带来的话他们是客户。
接受双工呼叫的工作人员也应该得到一个简单的介绍,即这不是一个真实的人。这将有助于工作人员和AI之间的沟通更加保守和清晰。
出于这个原因,直到(以及如果)开发出能够与人类智能相提并论的人工智能,企业本身的利益是对他们使用人工智能保持透明。
-
AI
+关注
关注
87文章
30984浏览量
269267 -
人工智能
+关注
关注
1791文章
47343浏览量
238726
发布评论请先 登录
相关推荐
评论