人工智能可以做的事情很多,但它们能“读懂”人类的心情嘛?近日科学家们可能找到了一种让AI学会“读心”的方法。
由于每个人走路的姿势各有不同,尽管你会认为这可能没什么,但其实你的走路姿势就可能泄露了你当时的情绪。比如,当你昂首挺胸时,你可能感到十分兴奋愉快,而当你垂头丧气时,你很可能低头或者驼背走路。
美国查佩尔希尔大学和马里兰大学的研究人员利用身体语言,研究了一种机器学习方法,这种方法可以从某人的步态中识别出他当前的情绪,包括情绪向性(消极或积极)和唤起水平(平静或充满活力)。研究人员称,这种方法识别出来的人类情绪准确率达到80.07%。
研究人员写道:“情绪在我们的生活中扮演着重要的角色,定义着我们的经历,塑造着我们看待世界和与他人互动的方式。由于感知情感在日常生活中的重要性,自动情感识别在许多领域都是一个关键问题,比如游戏和娱乐、安全和执法、购物以及人机交互等。”
于是研究人员选择了四种情绪作为分类——快乐、悲伤、愤怒和中性,以此作为测试步态分析算法的例证。然后,他们从多个步行视频语料库中提取步态来识别情感特征,并使用三维姿态估计技术提取姿态。
最后,他们利用长短时记忆(LSTM)模型——这个模型能够学习长期依赖关系,从姿态序列中获得特征,并将其与随机森林分类器(该分类器输出多个独立决策树的平均预测)相结合,将其所分析步态归入上述四种情绪类别中。
▲这个AI系统根据人们走路的方式对他们的情绪进行分类
步态的特征包括肩膀姿势、连续步数之间的距离以及手和脖子之间的抖动频率。头部倾斜角度被用来区分快乐和悲伤的情绪,而更紧凑的姿势和“身体扩张”分别代表着消极和积极的情绪。
至于唤起水平,科学家们注意到它往往与增加的动作相对应,该模型考虑了速度、加速度的大小,以及手、脚和头部关节的“运动抖动”。
AI系统处理了来自“情感漫步”(Emotion Walk,简称EWalk)的样本。EWalk是一组包含1384个步态的新数据集,这些步态是从24名受试者在大学校园(包括室内和室外)散步的视频中提取的。同时,大约700名来自亚马逊土耳其机器人公司的参与者,还给该数据集的步态情绪进行标记,以便研究人员根据这些标记来确定受试者步态情绪的效价和兴奋程度。
测试报告显示,他们的情感检测方法准确率比之前最先进的算法提高了13.85%,比不考虑情感特征的“普通”LSTM提高了24.60%。
但这些数据并不代表该机器学习方法的检测是万无一失的,因为它的准确率在很大程度上取决于3D人体姿态估计和步态提取的精确度。但尽管有这些限制,研究小组相信他们的方法将为涉及额外活动和其他情感识别算法的研究提供坚实的基础。
研究人员表示:“我们的方法也是第一个利用最先进3D人体姿态估计技术,为行走视频中的情绪识别提供实时通道的方法。作为未来工作的一部分,我们希望收集更多的数据集,并改进当前系统中存在的限制。”
-
3D
+关注
关注
9文章
2861浏览量
107312 -
人工智能
+关注
关注
1791文章
46833浏览量
237483
原文标题:面部表情隐藏得再深也没用,身体总有一处能出卖你,比如走姿
文章出处:【微信号:luomajqrxt,微信公众号:机器人学堂】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论