2020年01月14日 星期二
堵住AI安全漏洞,法规之外更需技术制衡
本报记者 付丽丽

    如今,AI换脸在网上被玩的不亦乐乎。喜欢哪个明星,就把所有电视剧主角都换成他的脸,如果只是单纯娱乐,貌似也无可厚非。但可怕的是,你的脸很可能会被“植入”到色情视频然后被打包贩卖,甚至你的手机、电脑、智能门锁等应用了人脸识别技术的设备也可能被AI换脸轻松攻破。有人用AI视频造假,亦或是犯罪,似乎就没那么好玩了。

    刷脸支付、人脸识别……不可否认,人工智能技术给人们的生活带来了诸多便利。“但我们也应当正视,当前人工智能技术还处在初步发展阶段,仍然面临着一些挑战。”清华大学教授、清华大学人工智能研究院基础理论研究中心主任朱军说。

    “任何技术都是一把双刃剑,当AI技术应用到越来越多的场景,由于AI算法本身存在漏洞所引发的安全问题必须引起足够重视。同时,AI技术的滥用也将引发安全隐患,比如隐私与伦理问题。当AI开始触碰边界问题,安全性就成为AI发展过程中必须思考的课题。”北京瑞莱智慧科技有限公司(以下简称RealAI)高级产品经理张旭东在接受科技日报记者采访时说。

    技术漏洞带来AI安全问题

    回家,到单元楼门口,刷一下脸,门就开了。人脸解锁已经成为生活中最常见的AI应用场景之一。然而,很少有人会想到,当前的AI算法存在明显的“安全盲点”。

    RealAI团队就曾做过相关研究:针对识别算法漏洞,可生成一类名为对抗样本的“噪音”,恶意误导AI算法输出非预期的结果,诱导识别系统出错。团队成员通过一张打印上对抗样本“噪音”的纸,成功地让研究对象在识别系统下实现“隐身”,如果再把纸贴在其他实物上,比如小车模型上,也可以让该物体在识别系统下完全“消失不见”。此外,他们还研发了一种带有噪点的“眼镜”,只要戴上,即使不是本人,也能成功破解商用智能手机的刷脸解锁,甚至包括门锁等其他人脸识别设备。

    “AI算法漏洞本质上是安全问题的一大类,而解决安全问题往往是攻防两端不断对抗、演化的过程。”张旭东说。目前对主流的攻击手段都有比较有力的防御手段,如可以通过训练模型去除对抗“噪音”,或是检测出对抗样本以后将其从数据中去除,以及使用攻击算法生成大量对抗样本对模型做对抗训练等方式来解决这些问题。

    由于AI换脸技术也在不段进化,早期换脸技术生成的视频中人物往往不会眨眼,可根据一些较为明显的特征直接肉眼判断。但随着深度伪造技术的不断演化,这些鉴别方法已不再有效。

    “面对这种情况,我们会根据当前市面上流行的换脸算法生成海量的训练样本,再结合贝叶斯学习处理还未出现的新型虚假视频。简单理解,就是基于主流的甚至更为领先的生成技术制作出大量逼真的假视频,再利用这些假视频训练出一个新的模型。做的假视频越逼真,训练出来的模型分辨能力就越强。”张旭东说。

    要守好技术和法规两道关

    “AI技术滥用最显性的问题在于个人信息被轻易‘操纵’,这背后可能会引发隐私泄露、身份危机,而且还会催生出更加隐秘、难以侦察的新型黑产,如色情黑产、金融欺诈等。”张旭东说。

    此外,AI技术滥用的潜在效应还将蔓延到大众的信息获取和社会信任层面,引导公众舆论、引发社会信任危机,比如美国就曾流出国家领导人被恶搞的视频,制作者利用视频煽动政治暴力、破坏选举、扰乱外交。长此以往,难以辨别真相的公众无法选择相信还是不相信,如果选择相信可能会继续给不法分子带来可趁之机,如果选择不相信则可能带来长期的社会冷漠。

    张旭东表示,AI安全问题牵一发而动全身,守好技术和法规两道“关卡”是当务之急,同时需要联动社会各界力量,从监管机构、AI科技企业到普通公众共同重视、共同发力才能真正的从根本上使其良性发展。

    欣喜的是,AI安全问题已经引起国内相关监管机构的重视。此前,网信办就正式发布《网络音视频信息服务管理规定》,指出自2020年1月1日起,AI造假音视频不得随意发布。新规定中关于AI造假音视频的规定主要有四条:按照国家有关规定开展安全评估、以显著方式予以标识非真实音视频信息、不得利用AI造假技术发布虚假新闻、部署AI造假音视频鉴别技术和健全辟谣机制等。

    “当然,最有效、最可行的解决方法仍是依靠技术制衡技术。”张旭东说,这主要包括两方面,一是开发出高精度的AI检测算法与检测产品,从源头制止虚假内容的泛滥传播;二是开发出相应的“防火墙”技术,从防御端铸造高墙,保障配备了人脸识别系统的公共安全设备攻不可破。

京ICP备06005116