产业界
实习记者 翟冬冬
从线上支付、考勤打卡到抓捕逃犯,不可否认,面部识别技术已经深入到我们日常生活的方方面面,但同时,它也存在争议,隐私问题一直是众多AI技术需要面对的难题。近日,亚马逊因向执法机构提供面部扫描技术而成为头条新闻。
对人工智能监视系统的担忧,促使研究人员开发了一种针对它们的工具。近日多伦多大学教授帕勒姆·阿比拉和研究生阿维舍克·博斯发明了一种算法,可让人脸识别率降至0.5%。
有了这项“反人脸识别”技术,我们能够决定自己的脸是否会被识别吗?
反人脸识别不陌生
其实这种反人脸识别技术早在前几年就已出现。2016年11月,卡内基梅隆大学研究人员开发出一款反面部识别眼镜。这种造价0.22美元的特制眼镜可以用光滑的照片纸打印,团队称,眼镜可让摄像头前的人显示成为另一个人,在对商用级脸部识别软件的测试中,误认人脸的成功率达到100%。
2017年,麻省理工学院和日本九州大学的研究人员创建了一种叫做EOT(Expectation Over Transformation)的算法,成功骗过谷歌AI系统,让系统将一幅3D打印的海龟照片标记为步枪,将3D棒球认成浓缩咖啡,而可爱的猫咪则有时被当做鳄梨酱。
有研究人员担忧,AI对3D物品的错认,以及被设计用来欺骗机器视觉系统的对抗性图像技术的突破,让面部识别系统正面临新一轮挑战。在上述实验中,将乌龟错认成步枪正是对抗性图像的一个例子,多伦多大学教授帕勒姆·阿比拉使用的也是这种方法。
对抗训练技术受追捧
勒姆·阿比拉在最近发表的《基于约束最优化的神经网络的反面部识别系统》中介绍,他们在一个超过600张脸的行业标准库中进行了系统训练,用于测试的600张脸包含了不同种族、不同光照条件以及不同环境。
文章第一作者阿维舍克·博斯在接受媒体采访时也表示,测试的关键在于训练两个神经网络相互对立,一个创建越来越强大的面部检测系统,而另一个创建更强大的工具来破坏面部检测。
现代脸部识别软件主要依赖于深度神经网络——一种从大量信息中学习模式的人工智能技术。在被呈现过数百万张人脸之后,该类软件就能习得脸部概念,懂得如何分辨不同的脸。“这种反面部识别系统实际上就是通过生成式对抗网络去形成一个最小最优的变化,从而对现在面部识别的深度网络进行攻击。”中科视拓(北京)科技有限公司CEO刘昕说,但这种探索更多地还处于学术研究阶段。
要实际应用还欠火候
刘昕说,上面提的一些反面部识别系统,训练过程要求识别人脸的网络是公开的,并且攻击次数是不受限制的,而在实际中,这显然难以实现。在实际环境中,面部识别系统是一个隐蔽系统,而且也不会允许被这样反复攻击。
“反人脸识别技术的诞生实质是对于隐私的担忧。”刘昕说,目前,人工智能产业尚处于初级阶段,技术的发展都具有两面性,如何防止人们利用AI技术进行破坏行为是整个行业都需要思考的问题。
刘昕认为,这不仅需要立法层面的支持,也需要伦理方面的讨论。同时对人工智能人才也要进行道德伦理教育,在立法的同时,通过行业自律来规避隐私泄露的风险。