2018年04月18日 星期三
军事AI化正重塑未来战争图景
本报记者 张 强

    近日,谷歌3100名员工联名发出公开信,要求谷歌退出美国国防部人工智能军事项目——Maven计划,并承诺永不参与打造任何类型的战争科技。

    随后,4月9日,联合国《特定常规武器公约》政府专家小组在日内瓦召开会议,专项讨论“杀人机器人”可能带来的影响。那么,以人工智能为基础的军事系统,能否代替人类做出恰当的军事决策?人工智能与军事真的不能共存吗?

    引领了哪些军事变革——无人化智能化走向现实

    “人工智能在军事领域的应用广泛,包括军用人工智能机器翻译系统、智能电子战系统、自动情报与图像识别系统、人工智能武器等等。”中国指挥与控制学会青工委副主任、国防科技大学军事专家石海明对科技日报记者表示,“在遥远的未来,人工智能也许会像一些科幻电影中描绘的那样,使后人类战争从科幻变成现实。”

    人工智能在某些军事领域已表达出超越人类的能力。在2016年举行的一次模拟空战对抗比赛中,人工智能系统通过灵活、迅捷的动作击败了具备更强武器系统的退役战斗机飞行员,就像一个象棋大师输给了电脑。

    “目前在武器装备和指挥控制方面,人工智能主要集中在陆地、海洋、太空等各类作战机器人的研发应用和各类智能炸弹的研发领域。随着数据挖掘技术、大规模并行算法及人工智能技术的不断完善并广泛应用在军事上,情报、决策与作战一体化将取得快速进展。”石海明说。实际上,能在无人控制的情况下搜索并消除目标的自主武器就是典型应用,也是当前人工智能军事化的最主要应用。

    石海明介绍,能够自主运作的军用机器人被归为致命性自主武器系统(LAWS),目前各国发展的无人飞行器、无人地面车辆、无人水面艇等能够自主运作的武器系统在某种程度上都属于LAWS的范畴。这些武器装备体现出了较高的应用价值。

    “具有人工智能的军事机器人将改变未来战争形态,促进军事理论、体制编制、作战人员、战法战术等多方面的变革,使未来战争呈现出无人化和智能化的特点。”石海明指出。

    是否有局限性——复杂环境程序中容易失控

    2017年人工智能国际会议上,特斯拉首席执行官马斯克、苹果联合创始人沃兹、研发“阿尔法围棋”的深度思维公司哈萨比斯等人签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。霍金也曾指出,脱离人类控制之下的机器很难被阻止住。

    石海明认为:“由于人工智能技术的发展局限,机器人可能将在环境或执行程序复杂的情况中出现失控现象,比如在单独执行作战任务或人机深度交流时。”

    2007年10月,美军第三机步师一部带着3台“利剑”机器人进攻一个反美武装盘踞的据点时,由于没有及时更换软件,其中一台“利剑”竟把枪口瞄准美军操作者,而且无论操作员如何发出“行动取消”的指令,失控的“利剑”就是停不下来,直至用火箭筒把它炸翻才化险为夷。

    但石海明还是对人工智能未来在军事上的应用表达了谨慎的乐观。他认为,“这样的思潮在人类历史上的技术革命时期都曾出现过,比如工业革命时期的卢德运动。这一现象的本质原因在于技术异化对人类的威胁。目前来看,人工智能在军事领域的应用潮流势不可挡,在可预见的时期内,人工智能将在情报侦察、后勤保障、无人作战系统等领域发挥重要作用。”

    如何降低负面影响——人机结合、以人为主

    随着越来越多的国家投入到军用机器人的研究与开发中去,世界已在不知不觉中滑进了一场机器人军备竞赛。

    毋庸置疑,军事机器人相比于士兵,主要在功能、体能、效能方面具有优势。军事机器人可以同时承担多项复杂任务,作战可以更加持久,在程序设定完备后能够高效精准达成目标,失误率较低。特别是完全自主机器人具有持续作战时间长、反应能力快、生存能力强等优势,将会进一步增加战争的强度,与人类战士相比具有巨大的优势。

    然而,有关战争责任的伦理问题就这样出现了,参战的自主机器人到底是不是战斗员?又应当承担何种战争的责任?2008年,美军海军研究办公室发表的一份报告认为,用于战争的自主机器人无法承担法律责任。

    石海明指出,“想要尽可能降低人工智能的负面影响,首先要坚持人机结合、以人为主的原则,人类应当保证对军事机器人的控制权,制定应对意外事件的应急机制,建立防范机器人失控的后台程序。另外,应当加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推进人工智能技术的军事应用。”

京ICP备06005116