2013年11月29日 星期五
让计算机拥有“常识”
——科学家尝试为计算机植入人工智能的“种子”
研究人员让“尼尔”学习建立常识,该计算机程序在两个计算机组群上运行。

    本报记者 常丽君 综合外电

    今日视点

    让机器以一种“常识”的方式自行思考是计算领域的“圣杯”。美国卡内基·梅隆大学研究人员正尝试着给计算机植入人工智能的数字化“种子”——让计算机系统不断观看各种图画,并自己决定它看到的内容都是什么意思。研究小组将在12月4日澳大利亚悉尼召开的美国电气与电子工程师协会(IEEE)国际机器人视觉大会报告他们的成果。

    从今年7月开始,在卡内基·梅隆大学,一个名为“尼尔”(NEIL)的计算机程序就在24小时不停地从互联网上搜寻图像。其中有几个关键小步骤,就是它要自己决定这些图像之间的相互关系,尽可能自行理解它们,以此建立起我们所谓的“常识”。

    常识与联想

    “尼尔”是“无休止图像学习”(Never Ending Image Learning)的缩写,其在两个计算机组群上运行,包括200个处理器核。随着它的视图数据越来越多,积累的“常识”也越来越多。常识是人们似乎知道却不曾明说的信息,比如汽车通常是跑在公路上,建筑物往往是垂直的,鸭子看起来很像鹅等。

    “任何智能都要有常识来帮它作决策。”卡内基·梅隆机器人研究所教授阿比纳伍·古普塔说,让一台计算机自己联想,对它来说是完全不同的挑战。比起编制一台超级计算机程序来说,圆满迅速地完成一项任务更难以应付。比如1985年卡内基·梅隆研究人员编制下棋程序让一台计算机下棋;12年后,计算机打败了国际象棋冠军加里·卡斯帕罗夫。

    麻省理工大学人工智能专家凯瑟琳·哈瓦希说,人类能不断利用“不言而喻的假定这一巨大库存”来作决策,而计算机却不能。对一些人类能迅速作出反应的问题,计算机却要花更长时间才能算出来。“长颈鹿能坐上你的汽车吗?我们甚至不用思考就能得出答案。”她说,因为我们对长颈鹿的身体大小有一种常识。

    随着程序运行,“尼尔”逐渐能给图像做次级分类,比如三轮车可以分为小孩用、大人用,还能装上发动机变成三轮摩托;汽车有不同的商标和样式等。然后它慢慢注意到事物之间的联系:斑马往往出现在大草原上,老虎看起来有点像斑马,股票交易所大楼通常挤满了人。

    在短短4个月里,“尼尔”的200个处理器核已经分析了3百万幅图像,从其中50万幅中识别出了1500种物体,1200个场景,并把相关的点连接起来做了2500个关系联想。“尼尔”生成的联想有些是错的,比如“犀牛是一种羚羊”,而有些很奇怪,如“演员在监狱牢房里”或“新闻主播看起来像巴拉克·奥巴马”。

    “我爬,我看,我学习”

    “图像是学习视觉性质的最佳方法,”阿比纳伍·古普塔说,“图像也包括了与这个世界有关的许多常识信息。人类自己学习了这一点,对于‘尼尔’,我们希望它也能像我们一样。”

    伊利诺伊大学芝加哥分校计算机科学系主任、人工智能专家罗伯特·斯洛恩说,“尼尔”的方法会产生有趣的结果,因为只用语言去教一台计算机“会带来各种问题”,“如果它们对着不管什么地方看到的动物,都不停地说‘斑马、斑马、斑马’,我会对这一幕印象深刻。”

    机器人学博士生阿比纳伍·希瑞瓦斯塔伍说,“尼尔”有时也会出错,所以还需要有人工参与。比如谷歌图像搜索可能会“误导”它,让它以为“pink”(意为粉红色)是一位歌星的名字,而不是一种颜色。

    “人们不一定总是知道该怎么去教计算机,以及教它们学什么,但发现它什么时候出错,人们是很擅长的。”希瑞瓦斯塔伍说,人们会告诉“尼尔”,物体、场景等属于哪一类,以便研究分析。

    有时候,“尼尔”的预测能力也让研究人员震惊。在搜寻“苹果”时,不仅给出了水果图,还有苹果电脑;搜索F-18时不仅发现了战斗机,还有F-18级双体船,这是古普塔和他的陆地小组所不知道的。

    “根据我们50年从事计算机视觉研究的经验,你掌握的数据越多,计算机视觉就会变得越好,”古普塔说。“尼尔”的座右铭是“我爬、我看、我学习”,研究人员希望让“尼尔”一直运行下去,这也意味着它可能会一点点地变得越来越聪明;但也可能不会。

    未来角色

    “尼尔”担负着当前计算机视觉的进步。计算机视觉能让计算机程序识别和标记出图像中的物体,找出场景特征,认出图像属性,如颜色、明暗、材质等,所有这一切都力求使人类对它的监管达到最小。反过来,它生成的数据也会进一步加强计算机理解视觉世界的能力。

    古普塔对项目的初步进展感到高兴,“当我们开始这个项目时,不敢确保它是否可行。这还只是个开始。”今后,“尼尔”还要分析YouTube上的大量视频,以寻找事物之间的联系。

    “尼尔”项目的一个目标是,创造世界最大的视图体系知识库,在这个库中,所有的物体、场景、动作、特征以及背景关系都被加上标记并分门别类。目前,ImageNet和Visipedia项目也在人工汇编这些结构数据,但互联网规模如此巨大,单一个Facebook(脸谱)就有超过2000亿幅图像,要分析它们,唯一的希望是教会计算机来做。

    此外,这一项目由谷歌公司和国防部海军研究办公室共同资助。谷歌公司和海军研究办公室都没有回答他们为何要资助“尼尔”,但也有一些线索。“海军研究”网站上指出,“当前的作战空间环境比过去要复杂得多,数据到达决策系统的速度正在提高,而能把这些数据转化为决策方案的人员数量却正在下降。”也就是说,电脑可能在未来战争中作出许多决策,“在许多军事行动中,根本不需要人类到场。”

京ICP备06005116