这件血案发生在20天前,美国达拉斯警方出动MARCbot型号机器人,通过摄像头靠近的方式,在嫌疑人附近引爆炸弹,炸死枪杀警察的嫌犯。
有人认为这是对机器人的滥用,有人更深层地考虑到人类可能被机器人毁灭的未来——
“当被命令时,机器人能毫不犹豫地杀人”,它们会不会被发展成嗜血的杀人工具?
“有了自主意识的机器人,不被命令时,会不会心起杀机?”当人工智能变得不受控,整个人类会不会被取而代之?
面对越走越近的“人工智能”,如何有节制地应用,如何把未来走向握在人类手里?我们不妨在几位未来学家的预测情境下,回归案件现场,以他们的视角重新推演事件,可能从中看出些端倪。
三大法则版 一言不合算到懵圈
创立者:
预言作家艾萨克·阿西莫夫,1920年出生,他提出的“机器人学三大法则”对机器人学影响重大,他预言了今天的生物科技,预言了互联网时代的数字图书馆。
预测情境:
在《我,机器人》一书中,艾萨克·阿西莫夫预设了机器人学三大法则——
一、机器人不得伤害人类,或因不作为使人类受到伤害。
二、除非违背第一法则,机器人必须服从人类的命令。
三、在不违背第一及第二法则的情况下,机器人必须保护自己。
三大法则在整个机器人世界中堪称“铁律”。
这一铁律得以实现的核心元件被称为“正子脑”。三大法则被写进正子脑的最底层程序中,除毁坏外完全不可更改。
“正子脑”是铂铱合金的海绵状球体,体积与人脑相当,用来赋予机器人生命和心智。脑中电位的高低决定机器人的行动,第一法则电位高于一切,第二法则电位高于第三法则电位,机器人即使生命危急也会服从命令,但当命令不明确,机器人又意识到危险时,第三法则产生的电位就令他回头。
阿西莫夫在《转圈圈》的故事中,讲述了一个机器人在人类命令和自身危险中懵圈的故事。“他”被派去采矿,由于是随口命令,电位微弱,当发现矿池附近有腐蚀物会危及自身生命时,“他”根据第三法则后退,退到一定距离后,又根据命令前进,陷入了一直转圈的死结中。为了救“他”出来,“他”的主人把自己放在快要烤焦的位置,才用“救人”的第一法则,打破了二三法则的电位平衡,解开这个结。
案件重演:
在这个剧情中,机器人认为人命高于一切,那么美国机器人引爆炸弹的案件推演应该是这样的——
“机·1号,带上炸弹炸了他!”头儿命令道。
“呃,如果是杀人的命令,我只能说不。”机·1号答。
“带上炸弹平了他十米外的遮蔽物!”头儿改口道。
“噢,十米是危及生命的危险距离。”机·1号依然不动。
“……带上这个,接近他。”头儿的眉头拧成“山”字,右手丢给机·1号一个遥控炸弹,左手把遥控器藏在背后,拇指抚住触发键。
“嗯……”此时机·1号脑中的电位翻江倒海,循环往复,评估到懵圈……(此处省略几十亿次的正子脑计算)
自我意识版 你可曾看到我眼角的泪
创立者:
未来学家雷·库兹韦尔,1948年出生,他在1990年对2009年做了147项语言,86%得到证实。他认为,2029年,机器人智能将能够与人类匹敌,2045年,大脑新皮层可以与云端的人造新皮层无线相连,人的智能就是人工智能,还比现今增强10亿倍。
预测情境:
将人类的思维注射到机器中去,或者让机器获得与人类相同的心智,在诸多科幻电影中都有体现。从机器猫到《机器人总动员》里的瓦力,从有自我意识的《超能查派》到想变成人、想被爱的《AI》,这些形象都在与人的无限接近中闪光。
雷·库兹韦尔的答案是,这完全可以实现。他的方法是制造一个人脑。“只要有真实大脑的详细数据,我们就能模拟出生物学意义上的大脑。”
他和团队对大脑的结构、运转进行了细致入微的分析——大脑新皮质分6层,包含300亿个神经元,它们又组成了3亿个模式识别器,每秒钟有1万万亿个电信号在其间传递。
“我们已经能模拟包含160万个视觉神经元的人脑视觉新皮质,预计2023年可模拟完整的人类大脑。”在《人工智能的未来》一书中,雷·库兹韦尔谈到目前的进展。
通过制造、模拟和运行,非生物系统有了人的智力和情感,而人有了非生物系统的可复制、存储、上传、重建的能力。
案件重演:
这个版本中,机器人警察和警察毫无二致,且具备高智能,案件现场将是这样——
“壹仔,带上炸弹炸了他!”头儿下达命令。
“同归于尽不是最好的方法,悬空秒狙怎么样?”壹仔建议。
“去吧。”遂见壹仔腾空近十米,翻转360度,在最高点顿停,掏枪,瞄准,射击,一气呵成。
对他来说,杀人太简单,只是他也许会眼角飙泪,和人类一样对死亡无限伤感。
杀人机器版 生而为斯,死有何憾
代表人物:
斯坦福大学历史学和古典文学教授伊恩·莫里斯,他通过战争史试图回答“战争哪里好”的问题,并认为战争对人类社会有着长期的“建设性”,在他眼中,人们总会研制并使用新武器,否则,就被敌人占了先。
预测情境:
未来战场,就是机器的战场。
“因为我们别无选择,”伊恩·莫里斯在《战争》一书中说,杀手机器人是必需的,因为“军事的OODA(观察、调整、决策、行动)步骤到时纳秒便可完成,当极超音速战机互相较量时,机器人无疑会击败反应速度在毫秒级的人类。
对于武器而言,人是迟钝、近视、笨拙的,美国陆军中校托马斯·亚当斯说,“现在的武器太快、太小、太多,超越了人类能指挥的范畴。”
由于联合国要求禁止研制和使用“致命自动化机器人”,在多本专业教材中,机器人武器的假想敌是“洞库”,但从未明确,“洞库”中是否有人。
这是最接近现实的版本,包括物理学家霍金在内的全球1000多位科学家和机器人专家去年发表公开信,警告称致命性全自动化武器数年内就能实现。各国在机器人武器的研制上不遗余力,美英联合研制的反直升机地雷,可以判断敌友,随后弹起百米左右击毁直升机……
案件重演:
既然有了武器的基因,那案件推演应该是这样的——
“Bot1号,去轰了那个可恶的狙点。”
“是,长官!”
是的,情节就这么简单,顶多在机器人走向杀戮时,它会想,“就这么完结一生,可太亏了,没轮上打个大战役,倒在小阴沟里翻了船,希望爆炸之后,我不会太碎,还能拼得上……”
(图片来源于网络)