2015年05月28日 星期四
《自然》杂志发表评论文章呼吁
科学家必须对人工智能武器表明立场

    科技日报北京5月27日电 (记者张梦然)英国《自然》杂志28日公开一篇评论文章表示,人工智能(AI)和机器人领域的专家,必须要决定他们是支持还是反对致命自主武器系统(LAWS),就像当年物理学家对于核武器表态一样,因为“这块领域的风险很高”。文章作者同时表示:“致命自主武器系统被描述为战争的第三次革命,而前两次是火药和核武器。”

    由美国加州大学伯克利分校的斯图尔特·罗素撰写的这篇评论,是《自然》杂志评论板块中一系列来自人工智能研究者评论文章之一。这些文章都与本期的《自然》专刊相关联,集中探索了机器学习和机器人技术方面振奋世人的最新进展,包括描述了在合适的监管框架下,让自主控制的无人机在民间广泛应用成为可能及其所需要的一些科学和技术元素。

    此次刊登的评论文章主题凸显了在人工智能领域正在出现的一些风险。斯图尔特·罗素认为,在未来几年之内,军方就可以组装带有武器的四轴飞行器和微型坦克,这些飞行器和坦克不需要人类干预,它们自己能决定“谁能活下来而谁又会死去”。但是,国际人道法律对于此类技术没有任何具体的规定,现在也还不清楚,国际社会是否会支持一个限制或禁止此类武器系统的条约。

    作者对人工智能的发展轨迹深表担心。他认为一种超过人类控制的系统即将建成,而这一点是不可避免的。当然,这些武器系统能涉及的范围和携带大型武器的能力,一定会受到物理定律的限制。但值得注意的是,它们的灵活性和杀伤力,却“将让人们毫无防御之力”,而这样的未来不会是人们想要的。

    罗素在文章中呼吁,人工智能和机器人领域的科学家和他们所在的专业组织应表明立场,正如物理学家当年对于核武器,抑或是生物学家对于在战争中使用病原体表明立场一样。文章最后警示称,“什么都不做,就等于是支持继续发展和使用。”

京ICP备06005116