这是一份AI人对AI人发出的警告。
近日,OpenAI等14大知名机构联名发布了一份关于恶意使用人工智能的报告。该报告从技术角度出发,指出了未来5年内人工智能被滥用的风险。
危险和骗术正在升级。
某安全管理系统的管理员在浏览网站,一则模型火车的广告吸引了她。她点开还下载了一个小册子。此时,攻击开始了。小册子一旦被打开,黑客就能窥视她的电脑,获得安全管理系统的用户名和密码。
至于管理员看到的广告,则是黑客根据其个人兴趣,结合人工智能精心设计的“陷阱”。
虽然这是报告中给出的假设性案例,但这个操作,一点都不令人意外。
用人工智能搞破坏真不是科幻
报告名为《恶意使用人工智能:预警、防止和缓解》,它由26位作者共同完成,其中不乏人工智能技术研究者。
报告将滥用人工智能的威胁分为了物理安全、数字安全和政治安全三类。在物理安全方面,不法分子可以入侵网络系统,将无人机或者其他无人设备变成攻击的武器;在数字安全方面,人工智能可以被用来自动执行网络攻击,它也能合成人类的指纹或声纹骗过识别系统;在政治安全方面,人工智能可以用来进行监视、煽动和欺骗,引发公众恐慌和社会动荡。
这些都不是危言耸听,甚至已有实例。
2017年,浙江警方破获了一起利用人工智能犯罪、侵犯公民个人信息案。专业黑客用深度学习技术训练机器,让机器能够自主操作,批量识别验证码。“很短时间就能识别上千上万个验证码。”当时的办案民警介绍。
北京邮电大学人机交互与认知工程实验室主任刘伟曾见识过一家人工智能公司的“声音合成”技术,A说的话完全可以套上B的声音,“一般人识别不出来”。刘伟说,这些技术一旦被别有用心的人利用,“世界可能就乱套了”。
要打技术攻防战,也要制度来规范
怎么办?
一方面是升级技术。当攻击方用上了导弹大炮,防御方就不能只用“小米加步枪”。中国社科院文化法制研究中心研究员刘明说,技术带来的问题,有时也可以用技术发展来解决。人工智能是一种工具,工具的发展也许不会从根本上改变行为的性质,但会改变行为的模式和行为后果的烈度。“如果意识到自己所在行业存在人工智能带来的威胁,自身加强防范就很重要。”
刘伟也表示,如果有一种技术能将声音模仿得惟妙惟肖,就会有另一种技术来识别这声音来自李鬼还是李逵。“这可能是一场无止境的技术攻防战。”
另一方面,则需要制度。
“人工智能本身没有伦理问题,最终还是制造者、使用者、传播者们(人)的伦理问题。”刘伟追溯“伦理”一词起源,它来自希腊文的“ethos”,是风俗和习惯的意思。东西方其实有不同的伦理观,在刘伟看来,西方研究“人与物”的关系,东方则喜欢谈“人与人”的关系。伦理具有情境性,还有文化依赖性。“人工智能伦理研究要考虑交互主体-人类的思维与认知方式,要弄清楚人的伦理中可以进行结构化处理的部分,再让机器形成所谓的伦理。”
除了伦理框架,也需要规范甚至是法律。
“当技术即将作用于现实生活,一些危险已经可以预测,从法学家的角度来看,此时我们来讨论问题如何解决、责任如何分配是比较合适的。”刘明也参加过多次有关自动驾驶规范的研讨会。自动驾驶已在大规模应用前夕,因此其规则研讨就需要提上议事日程。但这种规则的制定也无法一蹴而就,还需根据实践中出现的真问题再度进行调整。“随着技术的发展,对应的法律规范调整的灵活度会比以前更大,调整速度会更快。”刘明说。
刘伟认为,人工智能发展规范的制定,必须要有人文社科学者的参与。他主张不同学科、不同领域的人加强交流。政府、民间组织、科研机构和企业都可以搭建这样的桥梁,为各行各业的人提供讨论的平台。毕竟,人工智能将要影响的,可能是所有人。
(科技日报北京2月25日电)