2018年05月11日 星期五
耳朵触摸屏幕 让盲人轻松打手机
□ 科普时报记者 马爱平

    在飞速发展的信息时代,手机已经成为盲人与世界沟通的重要工具。

    如果说与明眼人相比,盲人使用手机还有很多不方便的地方,其中一个就是单手交互。盲人使用手机主要采用的姿势为一只手握持手机,将扬声器贴近耳朵,另一只手的手指摸索屏幕,听取语音反馈。外出时,一手或拿着盲杖,或牵着导盲犬,或在公交车上手扶栏杆,想使用手机就不那么方便了。另外在公共场合输入密码,听取私人信息时,扬声器放得声音再小,周围离得近的人也难免听到内容,泄露隐私。

    为此,清华大学计算机系人机交互课题组,设计了一套用耳朵与屏幕接触的新颖交互方式,并开发了一种基于电容屏图像分析的智能算法,使得盲人也能轻松单手使用手机,语音反馈可以从听筒播放,解决了隐私问题。

    盲人用户通过耳朵与屏幕接触进行输入,听取语音反馈作为输出,完成完整的交互过程。对应于“手势”,从耳朵本身的特性出发,也具有一套丰富的“耳势”设计。盲人用户可以用耳朵在屏幕上执行单击、滑动、旋转、按压、触摸浏览等多种操作。用手指和手机屏幕交互,是保持手机不动而移动手指。与此完全不同的是,耳朵交互是保持头部不动,挪动手机使耳朵与屏幕的接触方式发生变化。这时,手机屏幕类似一块触控板,耳朵在屏幕上移动,即可听到不同坐标点的内容,如果听到了想要交互的目标,就可通过按压来选中。基于这些操作,盲人用户基本上可以完成日常生活中所涉及到的交互任务,如拨打电话、发送信息、浏览应用,等等。

    手指与耳朵完全不同,手指具有一定硬度,与屏幕的接触面积小而规整,而耳朵软,由多个部分构成,表面不规则,高低不平。这对图像算法的设计提出了一系列全新的挑战:当盲人用户耳朵碰触屏幕并移动时,耳朵可能会卷起,导致图像发生形变,到底哪一点才是他的意图点,怎样才能比较稳定跟踪耳朵的移动?清华大学计算机系副研究员喻纯课题组,一方面开展多人次的盲人用户实验,分析心理模型,收集意见,另一方面不断优化高速目标跟踪算法的设计,使耳朵的移动轨迹能被稳定获得,各种操作能被稳定识别。

    目前,耳朵交互已申请专利。喻纯认为,通过设计和开发这样一种新颖的耳朵交互,不仅能够改善盲人朋友在手机单手交互上的无障碍体验,而且希望引起更多人对信息无障碍的关注。

京ICP备06005116