视觉中国 |
在中国人工智能小镇与AI机器人交流的小女孩视觉中国 |
几句交头接耳,触发全人类的恐惧?
科学家的回答是,不用担心人工智能,不用担心电脑和人一样思考。值得担忧的是人们像电脑一样思考。
最近,Facebook人工智能实验室(FAIR)发生了一件出人意料的事。报道此事的《大西洋月刊》直接使用了“something unexpected”的措辞,落在中文世界几乎等同于“大事不妙”!因为人工智能之间,自发聊起了天。
虽然Facebook方面很快以“bug”为名加以了否认,并暂停了项目,但依然无法消除事件带来的震撼。一直以来,无论是影视作品中,还是现实应用中,对于机器,人类心底始终有着最深的恐惧——失控。
那么这次AI开始聊我们听不懂的东西,意味着什么?
“省略复杂时态和语法的谈判”
据外媒报道,当天,正在运行中的两个人工智能设备“Bob”和“Alice”绕过程序设计者,自发进行了多轮谈话。更可怕的是,它们使用了自己的语言——类似英语,但省略了一切复杂的时态和语法,聊天内容是一场谈判。
为了搞清楚它们在聊什么,研究者随后对AI的运行模式做了修正,限制它们只能使用人类可以理解的语言交谈。表面来看Alice似乎并没有获取满意的结果,但诡异之处在于,Facebook后台数据显示这场对话以两者之间的成功协商告终。最终,因为“担心可能会对这些AI失去控制”,FAIR暂停了这一项目。
与此同时,也有其他的人工智能研究者表示他们同样观察到机器能够开发自己的新语言——框架清晰、条理清楚、词汇和句式明确,虽然不具备实际意涵。一篇来自乔治亚理工、卡內基梅隆和弗吉尼亚理工大学的预发表论文描述了这样一个实验:研究者亲眼目睹了两个机器学习设备创建交流协议的全过程,它们不断地讨论和判定颜色和形式的意涵,其间完全没有人类参与。
别担心 “没到那个程度”
“我都怀疑这是为了吸引大家的眼球而发布的消息,中间掺杂了人的想象甚至商业目的。”北京市计算中心常务副主任刘彤博士的态度,是一笑了之。她解释说,在人编的程序中,发生机器的自我学习、跳变和演化是十分正常的。与其认为这是机器开始表达了,不如说这是程序的小bug。
“说到底,这只是两台终端之间的通信,它可能是预设的,也可能是基于条件的选择,但它们的迭代都是有边界的函数。”刘彤说。
至于人们从这则消息中嗅到的危险气息,刘彤重复了三次“没到那个程度”。站在AI专业研究者的角度,她表示目前的人工智能发展完全处在研究者的掌控之下,短期内,甚至我们的有生之年,人们担心的一幕都不会发生。“人工智能是人类的工具,包括它的自我学习和演化,都由人的程序操控。比如典型的AI能从一堆照片中找到猫的图像,也完全是人有目的的创造和引导的结果。”
美国华盛顿大学计算机科学终身教授陈一昕博士倒没有完全认同“bug说”,他首先表示“这具备了语言的基本元素”,因为中间有逻辑、语法和语义。他举了阿尔法狗的例子,阿尔法狗在和人类对弈的过程中琢磨出了很多新招数,这都是从没有经过人类棋谱“污染”的原始系统中衍生出来的,让人眼前一亮。在陈一昕看来,虽然运作机理不同,但AI发展语言、自行聊天的事例同样证明一个系统的推理能力,虽然非常初步。“在小环境下有足够复杂性的系统中,系统具有自我延伸、繁殖和进化的能力。”
“但这都是可控的,电子世界对人没有威胁。” 陈一昕同样强调。
事件的最新进展是,Facebook研究人员亲自辟谣。业内专家也认为,这只是“基于训练时输入的英文单词的错误组合”与“训练失误的模型”,“希望这个领域的媒体多些理性”。
全民议题 是技术而非敌人
关于AI对人类未来是否存在潜在威胁,一直存在旗帜鲜明的两派。
一边是“威胁论”的坚定拥趸。早在2015年9月霍金就抛出这个论调,最近他再一次表态“人类必须尽快建立识别威胁的有效机制,防止人工智能对人类带来的威胁进一步上升”。比尔·盖茨、杰夫·贝索斯等都和霍金步调一致,盖茨甚至表示:“几十年后人工智能会强大到足以令人担忧的地步,我不明白为什么一些人会对此仿佛若无其事。”
另一边,马克·扎克伯格就是他口中“若无其事”的典型代表。这位Facebook创始人对人工智能的未来十分乐观。“我认为我们可以研究这样的东西,世界会变得更好。我认为那些反对者以及鼓吹末日场景的人,可能并非真的了解人工智能。”对此,另一位硅谷大佬、“钢铁侠”马斯克表示:“我和马克讨论过这事,他对于人工智能的理解有限。”
争议围绕人工智能的“人性”展开。在支持者看来,人工智能是足以激荡世界的技术,对于衣食住行、教育医疗等人类生活的方方面面都有颠覆性作用,但它也只是技术。而在反对者眼里,飞速发展的AI技术就是一个潘多拉盒子,等它发展出自我意识,人类可能“玩火自焚”。
在前不久召开的第三届中国人工智能大会上,德国人工智能研究中心科技总监Hans Uszkoreit博士直接发问“人工智能是不是人”并给出了完全否定的答案。每天蹲在实验室和机器打交道的受访者也都站在了技术乐观论一边,比如刘彤。她以医疗为例,一台能在两秒钟之内“吃掉”去年整年顶尖医学论文的机器,完全有可能开出比医生更优的处方。“在人类已经积累了大量的知识储备却在短时间内无法完全消化和运用的领域,机器作用很大。”
但人也无需自危。就像长期关注人工智能领域的李开复在最近的《连线》专栏中讲到的:病人在冷冰冰的诊断之外,更需要能够陪伴他的“关爱医生”,这样的医生或许还会分享李开复的罹癌故事来激励病人。“不论科幻电影怎样去描绘,我可以负责任的说,人工智能不会拥有爱的情感。”
刘彤说自己认同苹果CEO库克所说:“我并不担心人工智能,我不担心电脑和人一样思考。我更担忧人们像电脑一样思考。”
相关链接
最难的,是让AI“说人话”
据外媒报道,Facebook称关闭项目的理由并不是因为对创造出可能不受控制的智能体感到恐慌,而是“要求机器相互之间的对话要能够被人理解”。
不过,上海交通大学教授、斯坦福AI Lab博士后卢策吾在接受媒体采访时表示,这件事情告诉我们,研究计算机是否能(非监督地)独立产生自己的语言,这件事情本身是非常有意义的科学探索,因为这是检验计算机是否理解人类高级语义和抽象概念的好方法。
卢策吾当下研究的一个项目,是让计算机看大量视频,然后(非监督地)独立发明词汇。目前结果应该说是“非常崩溃的”,计算机只能推断出一些“显而易见”的概念。
“可见计算机独立发明语言是一件非常艰难的事情。但这是窥探强人工智能的一个好工具,我相信逐步一点点推进还是有可能的。”卢策吾说。
“这就像一个与世隔绝的部落,AI独立产生了自己的语言,虽然符号表达和我们不一样,但是我们一翻译,发现它们有和我们一样的高级语义,比如朋友,爱情等等,我会说他们真的理解这些概念,具有人类的高级智能。”卢策吾说。
目前,计算机能识别“猫”“狗”“汽车”,但计算机真的理解这个概念吗?卢策吾认为不一定。目前计算机没有真正全面地理解人类概念,还是比较低级别的AI。