2018年04月27日 星期五
如何教会机器人明辨是非?
□ 科林·艾伦
《道德机器:如何让机器人明辨是非》,【美】温德尔·瓦拉赫、科林·艾伦著,北京大学出版社2017年11月第1版。

    人工智能(AI)对人们生活造成或者可能造成负面影响的消息,近来不绝于耳。不管是数据挖掘算法泄露个人信息,还是有政治导向的宣传的影响,如数据挖掘公司可能利用选民信息深度干预了美国总统选举结果,或种族和性别偏见浸入了人工智能程序,抑或是自动驾驶汽车会使数百万人丢掉工作。

    自从《道德机器如何让机器人明辨是非》英文版首次问世,数年以来,围绕AI产生的伦理问题已经变得愈加急迫和突出。

    这里给出一个文化偏见渗透进AI程序方面的例子。类似谷歌翻译这样的解释语言程序,其能力近年来有了大幅度提高,这主要得益于新的机器学习技术以及可以训练程序的大量在线文本数据的出现。但是最近的研究显示,在机器习得越来越像人的语言能力的过程中,它们也正在深度地吸取人类语言模式中隐含的种种偏见。

    机器翻译的工作进路一般是这样的,建构一个关于语言的数学表征,其中某个词的意义根据最经常和它一同出现的词而被提炼为一系列数字(叫词向量)。令人惊讶的是,这种纯粹统计式的方式却显然抓住了某个词的意义中所蕴含的丰富的文化和社会情境,这是字典里的定义不大可能有的。例如,关于花的词语和令人愉悦之类的词聚类,昆虫类的词语和令人不快之类的词聚类;词语“女性”“妇女”与艺术人文类职业以及家庭联系更紧密,词语“男性”“男人”则和数学、工程类职业更近。

    尤为危险的是,AI还有强化所习得的偏见的潜能,它们不像人可以有意识地去抵制偏见。因此,如何在设计理解语言的算法时既让其消除偏见,又不丧失其对语言的解释能力,这是一项很大的挑战。对于上述可能产生自AI的一些最坏的情况,学术界和技术界的领军人物纷纷表示关注。他们担心,AI代表着威胁人类存在的危险。

    在《道德机器》中阐述了一种混合式系统,组合了自下而上式的数据驱动的学习和进化的方式,以及自上而下式的理论驱动做决策。这个思想,对于AI软件的设计以及能够在人类环境中操作的机器人来说,依然是最好的策略。但是,在这本书约十年前问世之后,批评者们的意见是对的,我们本来可以更多地讨论一下设计更大的有机器运行的社会——技术系统。我们关注如何使机器自身的道德能力逐渐增进——这是一个依然需要研究的课题,关于如何使机器尊重它们的设计者和使用者人类的伦理价值,以及有效维护人类的道德责任方面的问题,仅仅只解决了部分。

    人工智能机器已经在特定领域胜过了人。这令许多评论家相信超人智能不远了。但是,尽管AI取得了目前的进展,它的成功依然是脆弱的,而人的智能通常却不是这样。某个机器可以下围棋胜过人,却不能同时会下象棋、会开车,还能在家人饭后,一边帮忙收拾桌子,一边解答政治学的问题。即使这些能力可以绑定给一个物理机器,我们也依然不知道,如何以像人那样的方式把它们整合在一起,让一个领域的思想和概念灵活地畅行至另一领域。

    如此说来,《道德机器》最初问世时候的基本信息依然没有变,这就是:不应该让未来学家的担心和猜测转移我们的注意力,我们的任务依然是设计自主机器,让它们以可辨识的道德方式行事,使用着我们已经获得的社会、政治和技术资源。

    (本文系《道德机器:如何让机器人明辨是非》作者之一科林·艾伦为本书中文版写的序,王小红译。本报有删节)

京ICP备06005116