本篇文章里,作者就车载人机交互设计做了全面拆解,一起来看一下吧:
在座舱需要产生交互的两端是人+车。在座舱需要产生交互的场景是:娱乐场景、养护场景、休息场景、出勤场景,接送孩子场景,情侣恋爱场景,车内聚会场景,车辆出借场景,长途出行场景,自动驾驶场景,共享租赁场景,车外交互场景,智能家居互联场景等,都在我们与汽车的粘性范围之内,都需要交互设计师深度挖掘。在座舱需要产生交互的需求是:对车机发出操作指令。所以在做交互设计的时候,交互设计考虑的第一步就是满足用户在不同场景下的需求。
随着科技发展和车主的期望,车内外的信息和功能越来越多,作为HMI设计师的任务就是让车主减少注意力资源占用,减少驾驶分神,所以交互方式由此产生阶段性变化:物理旋钮/按键——数字触屏——语音控制——多模态交互。多模态交互的方式现有最常见的有触控、语音、手势。但在车载系统的设计中,这些交互方式必须紧扣实际场景下的交互方式与用户需求来设计。
1. 物理旋钮/按钮
从战斗机演变过来的传统物理旋钮,在用户按下功能键的一触即达,不是触控能产生的快感。而且物理旋钮比触控调节要省时安全得多,比如调节空调温度,物理旋钮可以给驾驶者一个调节刻度的触感,方便调节,这是触控所做不到的,而且触控调剂明显交互成本会增加,影响安全驾驶。
2. 触控
触控一种是通过按键控制;一种是通过触屏控制。都是通过不断的触控功能按钮行程锻炼肌肉记忆,现在的趋势越来越趋向重触屏、轻按钮,这样不仅系统迭代成本小,功能可以动态分布。但是对于一些精准调节的功能还是按键控制好一些。
3. 语音交互
语音交互被认为是车内场景下最自然的交互方式,基本会有三个场景:快速控制车辆场景;连接一切场景;主动服务场景。语音控制的前景主要在于两个因素,一个是可以把除了界面以外的利用起来,一个可以与HMI自由交谈,二是最小化HMI手动操作产生的干扰,增加安全性。
4. 手势
手势交互是对语音交互、触控交互的很好补充,能够让车主通过简单的手势和语音就能完成车内的交互任务,也是能够增加交互趣味性、表达情感、传达情绪的另一个自然交互方式。常用的手势:单指滑动、双指滑动、双指点击等。
5. 生物识别
移动端的人脸识别技术已经有了飞速的发展。现在开始逐渐被汽车引用。人脸识别作为有很强的自身个体差异性,人脸特征成为了验证身份的最佳依据。目前车内配备语音识别、面部识别、指纹识别、掌纹识别、虹膜识别、视网膜识别、体形识别、打字节奏、步态识别等。
智能座舱交互实战
根据某研究报告,人类获取外界信息的渠道有83%是来自视觉,其他的如听觉11%,嗅觉3.5%,触觉1.5%,味觉1%。但是如果纯靠视觉来进行智能座舱的人机交互,人们还是会遇到诸多不便。尤其在驾驶期间,人的视觉注意力的90%都必须要投入到对路况的观察中去,不大可能把视线长期投入到屏幕上面,和智能座舱进行交互。
1. 触控交互
物理按键早期的中控台的屏幕只是显示收音机的一些信息,绝大部分的面积都是容纳超多的物理交互按键,这些按键基本都是靠触觉的交互来实现人机沟通的。这种物理按键要考虑人体工程学,用不同的触觉方式,如按压,如轻触,如旋转,并以不同的触觉方式来划分好固定的区域,尽可能地让驾驶者熟悉后,就能够盲操这些交互按键。
2. 语音交互
语音交互的好处就是可以传达情感、但交互准确性确实不如硬交互,但理想ONE全球首辆在车内放置四个全向数字麦克风。语音交互的重视程度可想而知。
3. 人脸识别
人脸识别作为有很强的自身个体差异性,人脸特征成为了验证身份的最佳依据。目前车内配备语音识别、面部识别、指纹识别、掌纹识别、虹膜识别、视网膜识别、体形识别、打字节奏、步态识别等。
综上所述,车载人机交互设计需要考虑用户在座舱内发生的不同应用场景和需求,结合物理旋钮/按钮、触控、语音交互、手势、生物识别等多模态交互方式,以实现更自然、安全、高效的交互体验。
若想做好车载交互,需要深入了解用户在座舱内可能发生的应用场景,并针对这些场景找准用户需求,进而搭建相应的设计策略。本文将对车载人机交互进行全面拆解,以期帮助读者更好地理解这一复杂领域。 首先,我们明确座舱交互的目标。座舱内交互的两端是人+车
若想做好车载交互设计,你需要深入了解用户在座舱内的实际应用场景,从而找准用户需求,搭建相应的设计策略。在座舱交互中,两端分别是人和车,涉及的场景包括娱乐、养护、休息、出勤等,而需求则是对车机发出操作指令。 在交互设计时,首要考虑的是如何缩短
若想打造出色的车载交互系统,需要深入了解用户在座舱内可能的应用场景,并针对这些实际场景找准用户需求,从而制定相应的设计策略。下面我们对车载人机交互设计进行详细拆解。 在座舱交互中,涉及的两端是人和车,交互场景包括娱乐、养护、休息、出勤、接送