科学随想
3月29日,法国总统马克龙宣布推出一项雄心勃勃的人工智能计划,明确其中的一个重要研究领域,是“探索人工智能的道德准则并改进监管”。法国媒体报道时称:人工智能让很多新技术成为可能,如自动驾驶、语音指令、自动翻译、人脸识别、行为预测,以及可以完成人类难以从事工作的机器人。不过,人工智能也引发了一些忧虑,很多人担心该技术会侵犯私生活并大量摧毁就业岗位。
就我所知,一个国家层面的人工智能研发计划专门提出“道德准则”和“监管”问题,似乎还是头一遭。记得大约在10年前,曾有消息说,为了防止人类“虐待”机器人,并防止机器人“背叛”人类,韩国正草拟一份机器人道德宪章,这个“机器人道德宪章”将规定机器人用户和制造商应该遵循的道德准则。但是,后来就没了下文。日本也曾在《供国际讨论的人工智能开发指南草案》中,提出了人工智能的九大指导原则:合作原则、透明性原则、可控制性原则、人身安全原则、AI系统安全原则、隐私原则、伦理原则、用户支持原则和问责制原则。
对于加给机器人的“紧箍咒”,公众熟知且在机器人研发领域也时常被专业人士提及的,是美国著名科幻作家艾萨克·阿西莫夫1941年在其科幻小说中提出的“机器人三法则”:
(1)机器人不能伤害人,也不能任凭人类受到伤害而袖手旁观;(2)机器人必须保护人,除非该命令与法则(1)相抵触;(3)机器人必须保护其自身,除非该命令与法则(1)、(2)相抵触。
这三个互有逻辑关联的法则,在阿西莫夫的机器人科幻小说里构成了支配机器人行为的一套“道德标准”,它们被编成程序输入到机器人的大脑中,并被作家巧妙设用,推动故事情节的发展。现实中,“三法则”实际上也已成为研制和使用机器人必须遵循的公认的基本法则。
然而,2004年,当好莱坞将阿西莫夫科幻名作《我,机器人》改编搬上荧幕时,电影的一条广告语却反其道而行之:“规则是被用来打破的。”影片中机器人“反叛”的骇人场景,给观众留下了深刻的印象,也折射出“机器人社会”里公众的某种焦虑。此片上映10年后,2014年5月,联合国特定常规武器公约就自动杀人机器人组织了一场非正式的主题讨论会,表达了对武装军用机器人扩散,特别是落入恐怖分子或宗教激进分子手中的一种担心。这还只是人类作为“掌控者”时可能会发生的事情。人们忧虑,这一领域的研究者会不会重蹈核科学家的覆辙,带来难以规避的恶果?
预见到需要伦理规则来引导机器人行为的阿西莫夫曾经说过:当下生活最悲哀的事情,就是科技发展的速度比人类智慧集结的速度快。我想,把这句话中的“智慧”换成“伦理道德”,亦是如此。就怕快速发展的创新势头限制了人类进行创造性干预的机会,并且超出了人类可以有效控制技术发展的限度。
新兴的人工智能带来的社会、法律和道德挑战数不胜数,需要更多更大的人类智慧去应对。近年来,围绕人工智能和机器人发展的相关问题,诸多学者提出:人类迫切需要确保机器人的设计符合道德规范,建构一种“人工道德智能体”;应在不同的研究组织之间建立社群和协作组织,嵌入一些共同的有益于人类的道德原则;要签署限制或禁止人工智能应用于某些方面的国际协议……当然,也不乏乐观的想象:人与机器人将建立一种共生关系,携手走向美好的未来。