科技日报北京10月15日电 (记者房琳琳)即使最好的AI程序也会犯愚蠢的错误。美国国防高级研究计划局(DARPA)正在开展一场竞赛,以弥补该领域最明显的缺陷——缺乏常识。
随着人工智能(AI)越来越多地被用于危急情况,例如驾驶自动汽车、进行医疗诊断等,人们需要从情报信息中得出生死攸关的结论,且不会再被看作笑料。
科技公司忙于商业化机器学习技术,虽然强大,但基础常识有限。相比之下,人类婴儿很快会形成对世界的直观理解,这是他们智力发展的基础。
例如,深度学习可以识别语音中的单词或图像中的对象,通常需要令人难以置信的准确性。但该方法通常依赖于将大量标记数据(原始音频信号或图像中的像素)输送到大型神经网络中。系统可以学会经过挑选的重要模式,但它容易在更广阔的常识世界一塌糊涂。
缺乏常识的问题仍可能最终导致灾难事件。DARPA新机器常识计划项目经理戴夫·甘宁发布声明说:“常识缺乏可能是弱人工智能与强人工智能之间最重要的障碍。”
然而,解决这一问题并不轻松。以前帮助机器了解世界的尝试,都集中在手工构建大型知识数据库上。这是一项笨拙且基本上永无止境的任务。最著名的要数开展了数十年的Cyc数据库。
现在,DARPA的新机器常识(MCS)计划将举办一场竞赛,要求AI算法理解如下问题:两种相同的植物放在同样类型和数量的土壤中,浇灌同样多的水,一个靠近窗户,一个放在黑暗房间中。靠近窗户的植物将产生更多的(A)氧气(B)二氧化碳(C)水。计算机程序需要对光合作用有一定了解,才能给出答案。
“常识是人工智能领域的‘暗物质’。”美国著名非营利组织艾伦研究所首席执行官奥伦·艾奇奥尼说,这类研究试图探索人工智能技术的局限性。这些基准测试将专注于语义理解,未来不断提供这种衡量常识理解进展的问题是至关重要的。
总编辑圈点
没有常识,让人工智能在很多时候表现得如同“人工智障”。它们能做大数据分析,能在各种复杂局面中运筹帷幄,但碰上连人类5岁小孩都能理解的情境时,它们却会茫然不知所措。“盒子里的牛奶满了吗?”“怎么拿鸡蛋不会碎”……这些小问题,对人工智能来说都是大难题。业界也认为,如果所有问题都要靠“投喂”大量数据来训练解决,通用人工智能实现起来实在太难。不知美方打算如何让人工智能拥有常识,如果找到了方法,那可能真的有了让人工智能成长的“金手指”。