什么是人机交互
人机交互、人机互动(英文:Human–Computer Interaction或Human–Machine Interaction,简称HCI或HMI),是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板、或是发电厂的控制室。人机交互界面的设计要包含用户对系统的理解(即心智模型),那是为了系统的可用性或者用户友好性。
人机交互的概念:
定义1:有关交互式计算机系统设计、评估、实现以及与之相关现象的学科[ACM]
定义2:研究人、计算机以及他们之间相互作用方式的学科,学习人机交互的目的是使计算机技术更好地为人类服务[Alan Dix]
定义3:有关可用性的学习和实践,是关于理解和构建用户乐于使用的软件和技术,并能在使用时发现产品有效性的学科[Carroll]
主要内容:
1、界面设计的方法和过程。即在给定任务和用户的前提下,设计出最优的界面,使其满足给定的限制,并对易学性和使用性效率等属性进行优化。
2、界面实现方法。如软件工具包和库函数,以及其他各种高效开发方法等
3、界面分析和评估技术。
4、开发新型界面和交互技术。
5、构建交互相关的描述模型和预测模型
1、 框架是提供理解或定义的一种结构,他能够帮助人们结构化设计过程,认识设计过程中的主要问题,还有助于定义问题所涉及的领域 2、 执行/评估活动周期EEC: 活动的四个基本组成部分:目标(想做什么)、执行(实现目标必须进行的操作)、客观因素(执行活动时必须考虑的客观条件)、评估(用于衡量活动执行的结果语目标之间的差距)
七个阶段:建立目标、形成操作意向、明确动作序列、执行动作、感知系统状态、解释系统状态、对照目标评估系统状态
执行隔阂:用户为达到目标而制定的动作与系统允许的动作之间的差别 评估隔阂:系统状态的实际表现与用户预期之间的差别 3、 扩展EEC框架
(1) 交互式系统的四个组成部分:系统(S)、用户(U)、输入(I)、输出(O)
(2) 其中,输入和输出构成了界面
(3) 执行阶段包括三个翻译过程:
定义:用户阐述某个目标,然后通过输入语言进行协调和链接 执行:输入语言被转换成内核语言,表示系统要执行的操作 表现:系统使用输出语言吧内核语言的执行结果表示出来
(4) 评估阶段的过程
观察:用户将输出与原有的目标进行比较从而评估交互的结果
问答界面:通过询问用户一系列问题实现人与计算机的交互(Web问卷是典型的采用问答方式进行组织的应用,应允许用户方便地取消其中一个界面的选项)
优点:对记忆的要求较低;每个界面具有自解释性;将任务流程以简单的线性表示;适合新手用户。
缺点:要求从用户端获得有效输入;要求用户熟悉界面控制;纠错过程可能比较乏味。 隐喻界面:
本质:在用户已有知识的基础上建立一组新的知识,实现界面视觉提示和系统功能之间的知觉联系,进而帮助用户从新手用户转变为专家用户
优点:直观生动;无需学习。
缺点:不具有可扩展性;不同用户对同一事物可能产生不同的联想;紧紧地将我们的理念和物理世界束缚在一起;寻找恰当的隐喻可能存在困难。
体感交互是人机交互的高级形态
1.人机交互从广义上讲,就是全社会生态系统的智能化识别;从狭义上讲,3D显示器、、视网膜显示器、动作识别、仿生隐形眼镜、第六感技术和体感系统等都是人机交互在不同阶段的发展形态。
2.第六感技术:是一个可佩戴的姿态交互系统,将用户周围的事物,与互联网无缝连接在一起,用户可以通过自然手势与电子设备进行输入输出交互。
1)应用场景一,第六感技术将以手机系统作为使用平台,在手掌上投影的“键盘”可以根据实际的需要变化,输入内容和显示内容都可以;
2)应用场景二,第六感技术可以从海量的信息资讯中收集识别读物上的信息,并通过关键字可以在网络上搜索相关内容,让你全方位的了解信息。
图表2:通过皮肤触控使用手机
图表3:便利的媒体资讯
3.体感技术:一种可以直接使用肢体动作与周边的装置或环境互动,而无需使用任何复杂的控制设备。如图5所示,肢体在空中所做动作都会被体感传感设备感知,并通过数据处理和算法得知人体具体动作轨迹并反映在游戏中,通过体感设备无需接触即可与虚拟游戏进行互动。
1)体感控制设备的概念最早来源于日本任天堂公司于2006年11月推出的Wii家用游戏机,此款设备包含两部分硬件:放在电视机前的传感器和握在手中的控制器Wiiremote。通过Wiiremote顶端配置的CMOS镜头探测传感器两侧的红外线发光源来确定自身运动轨迹,并借助自带陀螺仪测算加速度,实现体感控制。
2)自Wii推出半年后便占据游戏机市场销量第一的宝座,这也使得索尼和微软深切感受到体感技术的革命性,两者分别在2010年9月和11月先后推出自主研发的两款体感游戏设备PSmove和Kinect,其中Kinect是目前市场上效果最佳的体感设备,其硬件设备主要包括红外投影机、用于脸部识别和全身定位的摄像头、用于语音解释的麦克风和空间定位的深度传感器。
3)Kinect上市后短短2个月便售出800万台,超过了苹果iPhone、iPad同等上市时间内的销售数字,截至去年1月Kinect累计售出1800万台。
图表4:Kinect体感游戏示意
图表5:空间操作示意
体感技术的颠覆者:LeapMotion简单硬件却有全新交互体验
美国Leap公司开发的面向WindowsPC及Mac平台的体感设备LeapMotion技术更为先进,在微软Kinect类似工作机理的基础上将性能提高到极致:精确度提高到0.01毫米以内,时间延迟只有5-10毫秒,用户丝毫觉察不出这极短的延迟,体验到的只有动作同步的流畅。
LeapMotion体感控制器包括一个类似U盘的可连接电脑的传感器和一套复杂的软件平台。工作原理主要是采用红外LED照亮传感器上方的一片区域(约25-600毫米约0.23立方米空间),此时手部在覆盖区域的动作将被模拟人眼的双摄像头捕捉,将手部位置的实时数据通过高速USB通讯芯片反馈给终端,从而分析出手势的变化并反应在游戏操作中。
本地系统包括几乎所有一切具备独立运算能力的设备,包括PC、笔记本电脑、平板电脑、车载电子设备、智能手机,因而LeapMotion应用领域也不仅限于游戏、医疗,也可以是金融、工程、虚拟雕刻、全息投影等领域。
图表6:LeapMotion体感控制器
与智能全息相结合,隔空操控不是梦
与触摸屏相比,LeapMotion可以支持更优越的遥感控制体验,价格方面,普通笔记本触摸屏成本在300-400元,而LeapMotion初始售价仅需要500元,考虑到LeapMotion更人性化的体感控制方式,消费者需要付出的额外成本并不高。超高的性价比和完善的生态系统使得LeapMotion竞争优势明显,中性预计未来将有望在PC、笔记本和电视上成为标配,理想销量将达到数亿台量级。
与智能终端的结合只是LeapMotion体感革命的开始,其真正划时代的跨跃在于嵌入全息投影的应用,届时隔空打字、空间操作、虚拟雕塑、模拟手术等全新概念将不仅停留在想象之中。
图表7:隔空操控不是梦
人机交互的发展
59年美国学者B.Shackel从人在操纵计算机时如何才能减轻疲劳出发,提出了被认为是人机界面的第一篇文献的关于计算机控制台设计的人机工程学的论文。1960年,Liklider JCK首次提出人机紧密共栖(Human-Computer Close Symbiosis)的概念,被视为人机界面学的启蒙观点。1969年在英国剑桥大学召开了第一次人机系统国际大会,同年第一份专业杂志国际人机研究(IJMMS)创刊。可以说,1969年是人机界面学发展史的里程碑。
在1970年成立了两个HCI研究中心:一个是英国的Loughbocough大学的HUSAT研究中心,另一个是美国Xerox公司的Palo Alto研究中心。
1970年到1973年出版了四本与计算机相关的人机工程学专著,为人机交互界面的发展指明了方向。
20世纪80年代初期,学术界相继出版了六本专著,对最新的人机交互研究成果进行了总结。人机交互学科逐渐形成了自己的理论体系和实践范畴的架构。理论体系方面,从人机工程学独立出来,更加强调认知心理学以及行为学和社会学的某些人文科学的理论指导;实践范畴方面,从人机界面(人机接口)拓延开来,强调计算机对于人的反馈交互作用。人机界面一词被人机交互所取代。HCI中的I,也由Interface(界面/接口)变成了Interaction(交互)。
20世纪90年代后期以来,随着高速处理芯片,多媒体技术和Internet Web技术的迅速发展和普及,人机交互的研究重点放在了智能化交互,多模态(多通道)-多媒体交互,虚拟交互以及人机协同交互等方面,也就是放在以人为在中心的人机交互技术方面。
人机交互的发展历史,是从人适应计算机到计算机不断地适应人的发展史,人机交互的发展经历了几个阶段:早期的手工作业阶段、作业控制语言及交互命令语言阶段、图形用户界面(GUI)阶段、网络用户界面的出现、多通道、多媒体的智能人机交互阶段。
评论
查看更多