在2023世界互联网大会乌镇峰会上,观众与机器人合影,人形机器人自然地比出“剪刀手”。视觉中国供图 |
◎本报记者 张佳欣
在科幻电影《机械姬》中,人工智能(AI)机器人艾娃被赋予了人类的外貌和智能,她甚至展现出与人类相似的情感和欲望,试图与程序员迦勒建立情感联系,并追求自由。但是,她的“内心”实际上是由电路和算法构成的。该电影可谓讨论AI自我意识的一部经典之作,引发了人们对于AI自我意识、人性和伦理问题的深入思考。
近日,美国AI研究公司OpenAI联合创始人兼首席科学家伊尔亚·苏茨克维在接受美国《麻省理工科技评论》杂志专访时,讲述了他对未来AI的希望和担忧。苏茨克维认为,如果我们“眯着眼睛看世界”,那么ChatGPT可能是有意识的。
这听起来很“疯狂”,但在近一两年,ChatGPT和其他大语言模型(LLM)震惊了全世界。这些系统可生成似乎能表现出思想、理解力甚至创造力的文本。一时间,“ChatGPT可能已经有了意识”的话题也冲上了网络热搜,再次引发了网友们对于AI是否具有意识等问题的探讨。
苏茨克维言论存在炒作嫌疑
去年11月,OpenAI发布了ChatGPT聊天机器人。几周内,它便风靡全球,甚至引发了一场新的全球AI竞赛。上线仅仅两个月,ChatGPT的活跃用户就突破1亿,许多人都被这个新“玩意儿”迷住了。
今年9月25日,OpenAI宣布将赋予ChatGPT利用语音、音频与用户对话的能力。有网友晒出了与其交互的视频,视频中AI语音交互中的语气、停顿、重音都十分接近真人。有人质疑,它停顿的那一秒真的是在思考吗?
事实上,10月初,苏茨克维就在其社交账号上声称,“大型神经网络具有轻微的意识”。
对此,未来主义网站刊文写道:“这是一个不寻常的观点。AI研究人员广泛接受的观点是,该技术在过去十年中取得了长足进步,但仍远远低于人类智能,更不用说有意识地体验世界了。”
Mind Matters播客网站文章表示,听到这些AI领军人物称赞他们创造的东西既是世界的救世主,又是潜在的死神,真是“令人费解”。然而,一些更中立、客观的观点可能会缓和这种炒作。
计算机工程师罗伯特·J·马克斯就是这些理智的发声者之一,他重申,AI永远不会实现像人类一样的智能或意识。AI的运行基于算法,它们的功能与人类的情感和思维有着质的不同。
没有理由认为当前AI有意识
不过,也许这样的辩论陷入了语义混乱之中。
意识到底是什么?它能被量化吗?这本身就是令哲学家和科学家困惑已久的问题。
美国趣味科学网刊文称,哲学家将意识描述为具有独特的自我意识以及对周围发生的事情的认识。神经科学家通过分析人的大脑中整合和解释感官数据的活动,对如何量化意识提出了自己的观点。然而,将这些规则应用于AI是很棘手的。
粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴在接受科技日报记者采访时表示,对于AI领域的从业人员来说,对“什么叫AI拥有自我意识”这件事情并没有一个很清楚的定义,自我意识很难像人脸识别、语音识别这些能力一样可以被定量衡量。
《自然》网站10月30日发表书评文章称,美国纽约大学神经科学家约瑟夫·勒杜在《存在的四个领域》中提出,地球上的生命有四种基本类型:生物生命、神经生物生命、认知生命和意识生命。勒杜坚持认为,意识只能存在于生物体内。即使模仿具备意识的生物的机制(无论这些机制从微观到宏观层面是什么),所产生的系统也不会有意识。
澳大利亚《对话》杂志今年也表示,“目前的这些AI系统真的能进行思考和理解吗?”不是一个可单纯通过技术进步来回答的问题。
新发表在预印本网站arXiv上的一篇论文称,今年3月发布的语言模型GPT-4未能通过图灵测试。
大脑如何产生意识依旧未解
据10月27日发表在《神经科学》杂志上的论文,爱沙尼亚研究委员会3名科学家认为,尽管AI系统具有复杂的反应,但这些系统不具备人类所拥有的具体经验或神经机制。因此,将AI的能力等同于真正的意识可能过于简单化了。
研究指出,语言模型缺乏我们通过感官与周围世界进行接触所获得的具体的、嵌入性的信息。同时,当今AI算法的架构缺少与哺乳动物意识相关的丘脑皮质系统的关键特征。此外,导致有生命、有意识的有机体出现的进化和发展轨迹,是今天的AI系统的发展轨迹所不可比拟的。
生命有机体的存在依赖于多层次的细胞活动,能动性和意识正是产生于复杂的有机体活动。因此,尽管人们想当然地认为ChatGPT和类似的系统可能是有意识的,但这严重低估了我们大脑中产生意识的神经机制的复杂性。
25年前,神经科学家克里斯托夫·科赫与哲学家大卫·查默斯打了个赌。科赫说,大脑神经元产生意识的机制将于2023年被发现。查默斯表示不可能。今年6月23日在纽约召开的意识科学研究协会年会宣布了这一赌局的结果:查默斯获胜。也就是说,大脑神经元产生意识的机制并未在今年被发现。
发表在《神经科学》杂志上的论文也认为,生物神经元是真实的物理实体,可以生长和改变形状,而大型语言模型中的“神经元”只是无意义的代码片段。我们距离理解意识还有很长的路要走,因此,距离研发有意识的机器还有更长的路要走。
《自然》网站文章称:AI系统会有意识吗?我们真的想要制造一台具有意识或能动性的机器吗?这些问题的答案都是不确定的。我们还不了解世界上哪些生物是有意识的,也没有建立起将这种可能性纳入考虑的伦理框架。在该文作者看来,成为一个去思考意识来源的生物,而不是一个渴望创造人工意识的生物,也许是更明智的选择。
相关链接
最新研究表明
GPT-4未通过图灵测试
科技日报讯 (记者张佳欣)图灵测试是一种检验机器是否具有人类智能的方法。ChatGPT在AI领域成为“新星”的过程中,有一个问题一直存在:它是否通过了图灵测试。
美国加州大学圣迭戈分校的研究人员卡梅隆·琼斯和本杰明·卑尔根借鉴了艾伦·图灵的研究成果,设计了一个程序,以确定机器是否能够达到人类智力和对话能力的临界点。倘若达到临界点,那么它就足以让人误以为它是人类。结果显示,GPT-4未通过测试。相关研究报告《GPT-4能通过图灵测试吗?》于10月31日发表在预印本网站arXiv上。
ChatGPT给人的印象大多是聪明的、快捷的。在与人交谈时,它的回答很人性化,甚至可以表现得幽默风趣,能模仿青少年的措辞,并通过了美国法学院的考试。但有时,人们会发现它提供的信息完全是错误的,是胡编乱造的。
卡梅隆·琼斯和本杰明·卑尔根召集了650名参与者,参与者会和人或GPT模型进行简短对话,并被要求确定他们在与谁交谈。结果发现,GPT-4模型在41%的情况下骗过了参与者,而GPT-3.5模型成功骗过参与者的几率仅为5%至14%。有趣的是,人类仅在63%的试验中成功地让参与者相信他们不是机器。
研究人员总结道:“我们没有发现GPT-4通过图灵测试的证据。”