2018年08月10日 星期五
“换脸”也逃不过数字侦探法眼
深度伪造视频有了鉴证工具

    科技日报纽约8月8日电 (记者冯卫东)由人工智能技术合成的虚假视频已达到几可乱真的水平,美国国防部设立的研究项目现已开发出识别这些虚假视频的首批工具。

    制作虚假视频的最常见技术是使用机器学习技术将一个人的脸换到另一个人的脸上。由此产生的视频,也被称为深度伪造(Deepfake)视频,不仅制作简单而且逼真度惊人,经熟练的视频编辑人员进行进一步调整后,还可使其看起来更加真实。

    深度伪造视频使用了被称为“生成建模”的机器学习技术,其允许计算机在生成具有统计相似性的假实例之前从真实数据中学习。最新的深度伪造技术拥有两个神经网络——生成对抗网络(GAN),其共同工作可产生更有说服力的虚假视频。

    美国国防高级研究计划局(DARPA)为此设立了“媒体鉴证”项目,以开发能识别深度伪造视频的工具。该项目最初旨在实现现有鉴证工具的自动化,但最近将重点转向了人工智能生成的虚假视频。项目负责人马修·特鲁克表示,研究人员已在GAN操纵的图像和视频中发现了微妙的线索,从而使其能够检测到变化的存在。

    纽约州立大学奥尔巴尼分校吕思伟教授领导的团队开发了一种非常简单的识别技术。研究人员在观察深度伪造视频时发现,GAN技术生成的人脸很少眨眼,其一旦眨眼,眼球运动很不自然。这是因为,深度伪造视频是基于对静止图像的训练生成的,而静止图像的眼睛一般来说都是睁着的。

    参与DARPA媒体鉴证项目的其他团队也在探索自动捕捉深度伪造视频的类似技巧,如奇怪的头部动作、特别的眼睛颜色等。

    达特茅斯大学数字鉴证专家汉尼·费瑞德认为,视频伪造者和数字侦探之间的人工智能博弈才刚刚开始,机器学习系统经训练后往往可超越新的鉴证工具。吕思伟表示,熟练的伪造者可通过收集显示一个人眨眼的图像来绕过他的眨眼工具,但其团队目前已经开发出一种更有效的新技术,要比伪造技术略胜一筹。

京ICP备06005116