科报讲武堂
本报记者 张 强
人类战争史表明,前沿科技往往首先应用于军事领域。但几乎从未有一种技术在应用于军事时像人工智能(AI)一样,既被寄予厚望,又遭众多反对。美国《华尔街日报》近日的一篇报道强调,尽管近年来美军无人机也多次发生误伤平民的事件,但这并非是智能化武器的错,而是情报识别出了问题。而五角大楼发展Maven计划项目,正是为了更精确地识别、杀伤恐怖分子等敌人,因此谷歌公司“如果真是为了和平,更加应该准备战争”。
对此,中国指挥与控制学会青工委副主任、国防科技大学军事专家石海明副教授对科技日报记者表示,“毋庸置疑,人工智能技术对于保障国家安全具有巨大潜力,但就目前来看其技术成熟度还远远不够。在以往的研究和实践过程中,人工智能技术也表现出了不确定性及失控的风险,比如无人驾驶汽车的伤人事故,以及曾经出现的美军‘利剑’机器人‘倒戈’(将枪口对准美军士兵)事件。反人工智能军事化的思潮就反映了人们对其军事应用前景的某种担忧和焦虑。”
记者了解到,近年来,以无人机为代表的智能武器装备获得了长足发展,包括地面、水面以及水下无人作战装备也开始陆续投放战场,这些人工智能系统已经成为一支不可忽视的重要作战力量。
目前,军事智能化发展受到了世界主要大国高度重视。自上世纪80年代以来,人工智能技术经历几次发展起伏,美国、日本、苏联/俄罗斯和欧洲部分国家先后投入巨资,大力资助和主导人工智能技术的研发工作。
而我国也在相关技术应用领域展开了前瞻性研究。国务院印发的《新一代人工智能发展规划》中指出,要促进人工智能技术军民双向转化,这将有利于新一代人工智能技术在指挥决策、防务推演、国家安全等领域的开发应用。
“人工智能在军事领域的应用前景极为广阔,包括军用人工智能机器翻译系统、智能电子战系统、自动情报与图像识别系统、算法战武器等。此外,在作战辅助决策系统、指挥与控制系统等以往由人主导的领域,也将逐渐演进到人机协同状态。当然,对未来的发展前景我们仍需认真研判,而非盲目乐观,只有随着仿脑芯片、人机交互技术、脑机接口技术等技术领域发生颠覆性突破,军事领域才有可能引爆真正的革命性浪潮。”石海明说。
实际上,自从以无人机为代表的智能武器装备投入战场,有关战争责任的伦理问题就不断涌现。比如,自主机器人能否被授权杀人?参战的自主机器人是否应承担战争责任?等等。
“必须指出,对人工智能的军事应用,还有一些问题需要深入研究。比如,人工智能在某些领域的潜能是否会超越人类?人工智能是否会脱离人类的控制?是否会威胁人类的生存?……目前,这些讨论主要还集中在科技伦理领域,有来自军事、科技、文化及哲学等多领域的探究,对技术的长远发展是有益处的。”石海明表示。
“国际社会目前还没有明确支持一个限制或禁止人工智能武器系统的条约。美军海军研究办公室曾发表一份报告认为,运用在战争中的自主机器人无法承担法律责任。目前机器人还无法分辨平民和士兵,似乎也就无法为其行为负责。”石海明指出,“但是,机器人被‘授权’杀人或者‘自主’杀人,到底应该追究其‘代理人’或者‘授权者’的战争责任?还是程序编写者的责任呢?这些都还需要军事学界和伦理学界的探讨交流。不过有一点可以断定,从人类军事技术创新史的大尺度来看,人工智能深度参与战争,已经呈现出一种不可逆转的趋势。”