科技日报北京9月22日电 (记者刘霞)储备池计算是一种模仿人脑工作方式的计算方法。美国科学家在最新一期《自然·通信》杂志上撰文称,他们找到了一种新方法,将储备池计算的速度提高33到100万倍,而所需的计算资源和数据输入却大大减少,新一代储备池计算有助于解决一些最困难的信息处理问题,比如预测流体的动态等。
事实上,在一次测试中,研究人员在台式计算机上用不到一秒钟的时间就解决了一个复杂的计算问题。研究主要作者、美国俄亥俄州立大学物理学教授丹尼尔·高蒂尔说,同样的问题需要超级计算机来解决,而且需要更长时间。
高蒂尔解释称,储备池计算是21世纪初出现的一种机器学习算法,用于解决“最难”的计算问题,如预测动力系统(比如天气)随时间的演化情况。以前的研究表明,储备池计算非常适合学习动力系统并准确预测它们未来的行为。
它使用类似人脑的人工神经网络实现这一点。科学家将动态网络上的数据输入网络中随机连接的人工神经元组成的储备池内。网络产生有用的输出,科学家可对其进行解释并输入网络中,从而对系统未来的发展作出越来越准确的预测。系统越大、越复杂,科学家们希望预测得越准确,为此人工神经元网络就必须越大,完成任务所需的计算资源和时间也就越多。
在最新研究中,高蒂尔及其同事对整个储备池计算系统进行了简化,从而显著减少了所需的计算资源并节省大量计算时间。结果表明,在不同的测试中,新系统比当前系统可以快33到100万倍。而且,与当前一代模型需要4000个神经元相比,新一代计算仅需28个神经元就达到了同样的精度。
高蒂尔进一步指出:“科学家目前必须输入1000或10000个数据点或更多数据点对储备池计算机进行预热——对需要输入储备池计算机的数据进行训练,但新系统只需要输入两三个数据点。”在测试中,他们用400个数据点获得了与现在使用5000或更多数据点相同的结果。
总编辑圈点
储备池计算被认为是神经网络的一种拓展框架,或者说,一种新的神经网络训练方法。有意思的是,我们一直以为计算系统中的人工神经元是越多越好,但实际上,越多的神经元当然能解决越复杂的问题,但同样会带来对庞大资源的消耗,如果能“缩减开支”——以更少的神经元解决同样精度的问题,则是一个非常值得努力的方向。现在储备池计算的新成果,就让人们看到了这样的曙光。