科技日报北京2月1日电 (记者张梦然)美国纽约大学研究人员开展了一项实验,他们通过一个孩子的眼睛和耳朵来训练多模式人工智能(AI)系统,使用的数据来自孩子6个月大到两岁生日期间的头戴摄像头的视频记录。发表在最新一期《科学》杂志上的这项研究表明,该模型或神经网络实际上可利用孩子经历的有限片段,学习大量的单词和概念。也就是说,视频只捕捉了孩子大约1%的清醒时间,但这对于真正的语言学习来说已经足够。
GPT-4等AI系统现在可学习和使用人类语言,但它们从海量的语言输入中学习,远比儿童在学习如何理解和表达语言时接受的要多。最好的AI系统训练的文本数量达到数万亿字,而儿童每年只能收到数百万字的文本。
由于数据存在巨大差距,研究人员一直怀疑AI的最新进展能否反映出很多有关人类学习和发展的信息。此次,研究团队从孩子6个月大开始,到25个月大结束,每周通过头戴式摄像机,捕获其第一视角视频并分析。他们共使用了超过60小时的视频素材,包含大约25万个单词实例(即所传达的单词数量,其中许多是重复的)。这些单词实例与孩子在说出这些单词时所看到的视频帧相关联,包括进餐、读书和玩耍等各种不同的活动。
经过训练后,团队对模型进行了测试。他们向模型提供目标单词和四个不同的图像,要求它选择与目标单词匹配的答案。结果表明,该模型不但能够学习孩子日常经历中存在的大量单词和概念,还可以将它们概括为视觉实例,哪怕实例与模型训练中看到的完全不同。
【总编辑圈点】
让AI用孩子学习语言的方式学习,其实可以反过来帮助人们提升儿童教育。譬如说,怎样才是儿童学习一门语言更合理的方式?孩子们需要被传授多少知识?或者只是让他们通过联想去学习?其实专家们一直有所争论。使用AI模型来研究儿童面临的真正学习问题,是一项创举,因为人们可借此解决许多经典争论。其办法也很简单——让算法进步与孩子自然体验相结合,就可能重塑人们对人类早期语言和概念掌握的理解。