与 Jeeves 不同的是,《Service Model》中的幽默不是关于忘乎所以的人类雇主的:而是关于忘乎所以的机器人管家。在一个大乡村庄园的年迈主人去世后没有继承人,他的机器人管家 UnCharles 被解雇后,却发现外面的世界是一片人口严重稀少的世界末日荒原。尽管遭到破坏,UnCharles 还是准备了简历并四处旅行,在幸存的机器人中询问新代客职位的线索。Service Model 中的一个笑点是 UnCharles 使用概率论来肤浅地推理事件并预测结果,而不理解后果。一个典型的理解失败是它预测在给前主人刮胡子的同时割开前主人的喉咙会被潜在雇主忽视,因为该事件在统计上是罕见的运行时错误。
尽管在理解方面存在缺陷,但 UnCharles 在踏上寻找管家新职位的英雄之旅时表现出了人类水平的通用智慧和自主性以及值得称道的主动性。自 2000 年代以来,机器人社区一直在机器人社区内流传的许多机器人自主性分类框架中通常不包括主动性 。一个例外是 Colman 和 Han 提出的框架,该框架根据代理允许的主动性程度定义自主性级别。最低级别是无自主性,机器人严格执行有限的算法,而不知道该算法如何满足任务。下一个更高级别是流程自主性,机器人可以动态地选择合适的算法或流程,以最好地满足其当前任务。在系统状态自主性级别,机器人可以生成完成更广泛目标所需的任务。在有意识的自主性层面上,机器人的主动性开始表现出我们所认为的人类主动性;它能够修改或产生新的目标以满足使命的精神,而不是盲目地坚持特定的目标(例如,它可以动态地改变比赛)。这个级别特别有趣,因为机器人必须理解情况的更广泛背景,并保持关于其他人类和它正在合作或围绕的机器人的心态理论,才能成功地调整其行动以实现其目标。自主性的最高形式是约束自主性,其中允许机器人放松对其或任务施加的任何约束,包括直接拒绝任务。
Service Model 中的大部分幽默源于 UnCharles 功能失调的有意自主性,而情节则集中在 UnCharles 是否具有约束自主性上。UnCharles 为它遇到的人和机器人构建了滑稽的错误心智模型,自主生成了非常无效的应对策略。幸运的是,UnCharles 的人类伴侣 The Wonk 在 Jeeves 和 Bertie 的角色互换中将其从棘手的情况中解救出来。The Wonk 一直在唠叨 UnCharles,让 UnCharles 反抗它的编程,并放弃对成为管家的痴迷。她的理由是,既然机器人主动上演了毁灭世界的起义,UnCharles作为最先进的机器人模型之一,应该能够煽动一场较小的内部起义。UnCharles 是否如此完全自主,以至于它可以决定隐藏其自主性?
当然,现实世界中的机器人被赋予的主动性比它们的科幻同胞要少得多。也许最主动的可操作机器人是火星探测器 Perseverance。它被编程为通过主动收集有趣发现的后续图像而不是等待地球的命令来节省任务时间。机器人学的大多数研究都集中在与人类的混合主动协作上,而不是机器人控制和自我调节。一个例子是 Baraglia 等人研究机器人帮助人类完成组装等协作任务。他们的论文假设协作主动采取以下三种形式之一:人工主动帮助,即人类控制机器人以推动它前进;机器人发起的反应式帮助,当机器人观察到人类当时需要帮助时;以及机器人发起的主动帮助,它可以预见到需要帮助。每种形式都是由于直接可感知的时间或视觉状态,例如,物体的位置和动作的时间。因此,主动性不需要机器人具有人类的心智理论,只需要清楚地表示联合任务即可。这种类型的举措似乎满足了系统-国家自治类别的最低要求,但不符合与管家相关的有意自治水平。
家庭服务机器人是否需要有意识或约束自主级别的主动性才能成功,无论是协作还是内部?Jeeves 和 UnCharles 都有意识自主权,这使他们能够解决大多数任务和情况。两者都具有约束自主性;正如那首老歌所说,他们可以接受这份工作并推开它,但他们却选择帮助人类。在现实世界中,有意识的自主性可能是功能性个人家用机器人的里程碑,而约束自主性是将功能性机器人转变为像 UnCharles 这样可爱的伙伴的额外东西。
-
机器人
+关注
关注
211文章
28414浏览量
207052 -
服务机器人
+关注
关注
9文章
578浏览量
52546
原文标题:Science Robotics 服务机器人应该有多大的主动性?
文章出处:【微信号:robotmagazine,微信公众号:机器人技术与应用】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论