2020年11月18日 星期三
机器人战士因成本低、战力强受到各国欢迎,但专家表示——
开放机器人自主开火权还为时尚早
本报记者 张 强

军事观察

    英国国防参谋长尼克·卡特近日表示,机器人很快将在军队中占很大比例。他表示:“我猜测在未来,如果我们有一支12万人的军队,其中3万将是机器人。”

    科技日报记者注意到,最先进的科学技术往往首先被用于军事目的,而代表当今科技最高水准的机器人早已被各国军方瞄准。无人装备以及具备自主能力的无人化装备(即机器人)已经越来越多的在战场上出现。但由军队高层做出这样明确的公开表态,指出未来所占比例,还尚不多见。

    对此,军事研究员兰顺正表示:“随着时代的发展,无人装备在军队里所占比例将越来越高,而且自主化程度也将越来越高,这是毋庸置疑的。”此次高级官员的表态无疑是顺应大势。公开报道显示,各国目前训练有素的军人数量相比战争时期都大大减少。而相比之下,机器人战士日常的维护成本只约为一个战士日常开销的10%,而钢筋铁骨也远比血肉之躯结实得多,作战效力数倍于人。

    “因此,如何在有限的实力上,另辟蹊径、剑走偏锋就成为各国军队不得不考虑的事情。那么,瞄准当前军事技术发展的最前沿,比如人工智能、无人化技术等,以较小的代价实现颠覆性技术的军事应用就成了各国军队优先考虑的事情,未来的机器人部队很可能成为一支小而精的军队。英高官的表态其实是代表了英国军队未来的一个发展方向。”兰顺正认为。

    目前,在战场上机器人更多的是执行一些后勤任务,比如著名的“大狗”机器人主要任务就是跟随士兵作战,为士兵背负重物。由人工智能掌控的无人车协助后勤运输任务也是部分国家正在研究的一个方向。

    但涉及到更高层面,比如是否允许具备人工智能的机器人自主使用武器,这方面就存在很多争议,一直是社会舆论关注的焦点。这类能够自主运作的军用机器人被归为致命性自主武器系统,比如目前很多国家都在发展的能够自主运作的无人飞行器、无人地面车辆、无人水面艇等。很多人担心,人工智能可能会出错,甚至会不经过人的同意而做出一些错误决策,发生不可控行为。

    实际上,由于人工智能技术的发展局限,机器人在复杂环境或执行复杂程序时出现失控的现象并不鲜见。

    早在2007年,美军就发生了军事机器人失控的案例。2007年10月的伊拉克战场上,美军第3机步师一部计划利用3台“利剑”机器人进攻一个反美武装据点。但当美军将“利剑”释放出去以后,发现其中1台“利剑”把枪口瞄准美军操作者,直到一名士兵用火箭筒将机器人炸翻才化险为夷。

    对此,兰顺正表示,未来战场瞬息万变,具备人工智能的机器拥有比人类更快的反应,更精细的思维,更强大的力量,能更好地应对复杂战场。如果机器人的每一个决定都需要由人去做出判断再决定是否执行的话,那和遥控式的无人装备相比就没有太大差别了。但如果允许机器人拥有诸如开火权这样的自主性,就极大挑战了人类的认知、法律和伦理。

    “因此,是否开放机器人的自主开火权,就目前来说,应该是一个螺旋式上升的认识和实践过程,一方面要用法律和伦理去约束人工智能技术的发展,把它装在笼子里;另一方面技术的进步和可靠性的提升将不断打破人类的认知,并逐步突破现有框架。但这个过程应该是比较漫长的。”兰顺正说。

    也有专家指出,想要尽可能降低人工智能的负面影响,要坚持人机结合、以人为主的原则,人类应当保证对军事机器人的控制权,制定应对意外事件的应急机制,建立防范机器人失控的后台程序。

京ICP备06005116