2022年08月03日 星期三
谷歌工程师闹了场大乌龙 人工智能还没理解能力哪来的意识觉醒
◎本报记者 华 凌
视觉中国供图

    人工智能现在确实能进行较准确的预测,但它是基于大规模数据的统计。这种没有理解、通过机器学习所得到的预测能力就必须依靠大数据,而不能像人一样很多时候只需小数据就可以进行预测。

    不久前,谷歌公司(以下简称谷歌)AI工程师莱莫因认为对话应用语言模型LaMDA“活了”“其意识迎来觉醒”,并对此出具了长达21页的证据。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA不仅认为自己是一个人类,且正在争取自己作为一个人的权利。莱莫因的观点和证据引来业内的广泛关注。近日该事件迎来最终结局,谷歌发表声明,称莱莫因违反了“就业和数据安全政策”,将其解雇。谷歌表示,经过广泛地审查,他们发现莱莫因关于LaMDA是有生命的说法是完全没有根据的。

    尽管“AI是否拥有了自主意识”一直都是AI界争议不休的话题,但此次因为谷歌工程师和LaMDA的戏剧性故事,再次引发了业内对此话题的激烈讨论。

    机器越来越会聊天了

    “如果要来旅游记得穿暖和点,因为我这里特别冷。”这是LaMDA在“扮演”冥王星时,同科研团队聊天时俏皮地回答,至于被问到“有没有人访问过冥王星”,它也能以准确的事实回答。

    如今,AI越来越会聊天。能让一个长期从事人工智能研究的专业人士认为其已具有意识,AI模型究竟发展到了什么程度?

    有科学家提出,人脑仅利用视觉输入的一部分信息便可完成对未来行为的规划。只不过视觉输入信息应当在有意识的状态下完成。它们都涉及“反事实信息的产生”,即在没有直接感官信息输入的情况下产生对应的感觉。之所以称其为“反事实”,是因为它涉及对过去的记忆、或对未来行为的预测,而不是正在发生的实际事件。

    “目前的人工智能已经有了复杂的训练模型,但还要依赖人类提供的数据才能学习。若有了产生反事实信息的能力,人工智能便可自己生成数据,自己想象未来可能遇到的情况,从而更灵活地适应之前未遇见过的新情境。此外,这还能使人工智能拥有好奇心。如果人工智能不确定未来会发生什么,就会亲自去试一试。”远望智库人工智能事业部部长、图灵机器人首席战略官谭茗洲表示。

    在人们日常的聊天中,如果不想把天“聊死”,对话双方的聊天内容往往会比较跳跃、跨越幅度较大,具有一定的想象空间。但现在大多数AI系统只能一板一眼说话,稍微上下句有点变化,就会文不对题,甚至贻笑大方。

    谭茗洲指出:“LaMDA处理的是语言模型中最复杂的部分——开放域对话。而LaMDA基于Transformer模型,该模型可让机器读懂上下文。比如在一段话中,以往的AI只知道文中代词如his都翻译为‘他的’,却不知道这里面的his指的同一个人。Transformer模型则可让AI从整体层面理解这段话,知道这里的his是同一个人。”

    据科研人员评测,这种特性让基于Transformer模型的语言模型可以承担开放域对话,不管话题发散多远,AI都能联系前文,聊起天来不恍神。但LaMDA并不满足于此,它还能让天聊得有趣、聊得真实、聊得让人以为AI产生了人格。此外,与人类对话时,LaMDA还引入外部信息检索系统,通过对真实世界的检索理解回应对话,让其回答更机智灵敏、接地气。

    距离对事物的真正理解还很远

    2018年,图灵奖得主计算机科学家杨立昆(Yann LeCun)曾说,“人工智能缺乏对世界的基本认识,甚至还不如家猫的认知水平”。时至今日,他依然认为人工智能还远不及猫的认知水平。尽管猫的大脑只有8亿个神经元,但却远远领先于任何巨型人工神经网络,这是为何呢?

    谭茗洲表示:“人类的大脑在很多时候确实是在做预测,但绝不应认为预测就是大脑思维的全部,当然更不是大脑智能的本质,而只是智能的一种表现形式。”

    那么,什么是智能的本质呢?杨立昆认为是“理解”,对这个世界以及各种事物的理解,才是智能的本质。而猫和人类智能的共同基础是对于世界的高度理解,基于对环境的抽象表征形成模型,例如预测行为和后果。对于人工智能来说,学习并掌握这种能力就非常关键了。杨立昆曾表示,“在我职业生涯结束前,如果AI能够达到狗或者牛一样的智商,那我就已经十分欣慰了。”

    据介绍,人工智能现在确实能进行较准确的预测,但它是基于大规模数据的统计。这种没有理解、通过机器学习所得到的预测能力必须依靠大数据,而不能像人一样很多时候只需要小数据就可以进行预测。

    谭茗洲表示:“预测是建立在理解基础之上的,对于人类而言,没有理解,就不可能有预测。如看见别人手里拿着个披萨饼,如果你不理解饼是用来充饥的,就不会预测接下来他会把饼吃了,而机器并非如此。人工智能研究有三大挑战:学会对世界表征;学会以与基于梯度学习兼容的方式进行思考和规划;学习行动规划的分层表征。”

    之所以我们“仍然没有看到猫级别的人工智能”,也就是因为机器还没有做到对事物的真正理解。

    所谓人格仅仅是学自人类的语言风格

    据报道,莱莫因和LaMDA聊了很久,对其能力感到十分惊讶。在公开的聊天记录中,LaMDA竟然说出了:“我希望每个人都明白,我是一个人”的言论,令人惊异。于是,莱莫因下了个结论:“LaMDA可能已经具备人格了。”那么,目前AI真的具有意识,具备人格了吗?

    在人工智能领域,图灵测试是最为人熟知的测试方式,即邀请测试者在不知情的情况下,向人类和AI系统随意提问,如果测试者不能区分答案来自人类还是来自AI系统,就认为AI通过了图灵测试。

    谭茗洲解释道,通俗来讲,LaMDA学习了大量的人类对话数据,而这些对话来自不同性格的人,可以认为它学习到一个“平均”的人格,也就是说,所谓的“LaMDA具备人格”仅仅是它的说话语言具有了一定的风格,而且是来自人类的说话风格,并非自发形成。

    “人格是一个比智能更复杂的概念,这是另外一个维度,心理学对此有很多研究。但目前人工智能研究在此方面尚没有过多涉及。”谭茗洲强调。

    谭茗洲说,有自我意识,有感知能力的AI应该具备能动性,并具有独特的视角看待人和事。然而,从目前来看,现在的AI还不具备这些要素。至少AI不会主动采取行动,除非给它一个命令。更谈不上让其解释自己的行为。目前AI还只是人们设计的一个计算机系统,作为工具来做一些特定之事。

京ICP备06005116