2018年03月02日 星期五
VR技术或将完成“徒手开发”到“工具开发”的跃升
本报记者 张佳星

重点专项巡礼

    虚拟现实(VR)带来的,可以是恢弘、壮观、叹为观止,也可以是刺激、热血、激情澎湃——2月底,英国广播公司(BBC)发布的VR纪录片《筑坝尼罗河》属于前者,带观众真正鸟瞰尼罗河的现状,甚至预绘未来,将拟建大坝置于河上;皇马足球俱乐部日前开播的360°全景虚拟现实频道属于后者,期望让观众在场外也能体会到竞技现场的血脉贲张。

    身临其境的感觉依赖于虚拟场景的构建能否骗过大脑。“让观看者获得沉浸感是现在VR科技攻关的主课题”,北京理工大学教授黄华说,现在的VR设备很多时候让人头晕,也是因为沉浸感不充分,使得大脑“看到”的东西和过往真实的东西不一样,又被告知是真实的,这种认识上的“分歧”让大脑感觉“别扭”,引起心理上的不适,表现为头晕。“不过真实的机理还没有被科学证明,但如果模拟的水平能达到大脑无法分辨的程度,不适感会消失。”黄华强调。

    通俗地说,虚拟现实“拟得不真”是目前VR领域的“痛点”。解决痛点有两个关键,一是头戴显示系统,二是内容。在黄华担任项目负责人的国家重点研发计划《支持大数据理解的头戴式无障碍呈现技术、装备与云服务平台》中,着重突破的也是这两个问题。

    打开一些VR视频APP,手机更像一个窗口,能够随着转动探出窗外观看,但视频资源相对匮乏,大多十几分钟,可选择片源不多、几乎无情节。

    “使用200毫米焦距的镜头拍摄不低于1000张,每张图片3500万像素……”VR数字内容制作的复杂程度从这段数字博物院筹备工作的描述中可见一斑。

    静态物体如此,动态的捕捉难上加难。人工徒手的绘制工作复杂繁琐,“物体的三维立体结构进行数据采集后是一个二维的数字影像,数字影像的平面要在系统中还原为现实中的立体,再根据三维立体结构得到所需视点的影像(不同视点有不同的影像),人脑才会感受到立体。”黄华拆解了立体图像在虚拟现实中走进人脑的采集、还原、重构的“三步走”。

    “如果通过算法让计算机自行捕捉和计算将大大降低内容制作的难度与工作量。”黄华介绍,“三步走”的高保真需要“两方面”的支撑。在国家重点研发计划支持下,项目组将虚实融合的实现分为几何一致性和光照一致性,即捕捉重构物体,感知重现光线。

    黄华解释:“为了重构逼真的物体,我们的系统支持多源传感信息的融合,能实现像素级别地精确定位,完成三维空间注册的精确性与实时性,这是虚实融合景象沉浸感的关键。”

    重构光线是因为,实体之外,遮挡关系、光线变化等是真实的一部分。“我们研究自然场景重光照方法,简化虚实物体遮挡关系和复杂材质函数,实现真实感景物的快速绘制计算。”黄华说,项目完成的实时高保真绘制引擎,使得摄像机自己能够实时地计算出相对位置变化,只要“拍照”不需“画像”,就能实时自动呈现物体,让VR内容的制作更简单。“只有无延时地实时地将虚拟物呈现在真实场景中、并与真实场景互动,才能‘以假乱真’。”黄华强调。

    在头戴显示系统方面,项目组提出视场无缝拼接方法,克服了传统头显“大视场、高分辨、小畸变”之间的矛盾。沉浸式头显双目视场达到162°,重叠视场90°,预计样品将在年底完成。新的头显甚至可以做到动动眼睛就能实现“交互”。黄华介绍,传统的基于手柄等外设的交互方式效率低下,项目组研究自动校正及手眼协同交互方法,通过多模传感数据融合分析获取用户的精确交互语义,实现手眼协同交互。

    除了具体的技术和产品,国家重点研发计划中探索往往会为行业形成标准与规范。黄华介绍,如果有一款便捷的虚实融合环境创作“工具”,将高沉浸感的虚实融合环境中几何、光照、语义等信息的构建工作“模块化”,将帮助“徒手”的行业开发者提供“趁手”的工具,大大加速VR产业高质量发展。为此,项目还将构建跨平台、跨服务的虚实融合环境统一描述语言与解析器,并搭建面向不同应用的统一框架。

京ICP备06005116