深度学习靠谱吗?对广大创业者来说,其中究竟存在怎样的机会?
机器学习无处不在:互联网广告投放、网络传播、趋势预测、机器人研发、计算机视觉、搜索、自然语言理解,以及生物信息识别等都离不开机器学习。这也是诸多大公司在这个领域频频投资的主要原因。
深度学习是怎么火的?
什么是深度学习?说白了,就是人工神经网络(以下简称ANN)这个旧瓶装了新酒。
人工神经网络包含输入层、输出层以及中间的若干隐层,每层都有若干结点及连接这些点的边,在训练数据集上会学习出边的权值,从而建立模型。随着边所表征的函数的不同,可以有各种不同的神经网络。这种源于人工智能中联结主义学派的方法在上世纪七八十年代盛极一时。
然而不幸的是,和学术论文中鼓吹的不同,在诸多工程领域中,人们发现ANN并没有表现出比其他经典算法更好的性能。究其原因,由于巨大的计算量和优化求解难度,ANN只能包含少许隐层,从而限制了性能。控制领域仍然在使用经典的PID调节,而在机器学习领域,随着以支持向量机和贝叶斯网络为代表的统计学习在90年代的兴起,ANN开始备受冷落。
Geoffrey Hinton曾感慨自己的学术生涯就像ANN一样起起伏伏。所幸的是,这位Gatsby的创立者一直没有放弃ANN的研究。从2006年开始,他陆续开始发表关于如何改进ANN的文章,主要是通过很多数学和工程技巧增加隐层的层数,也就是深度,所以被称为深度学习。虽然Hinton的观点没有得到足够重视,成为主流共识,但大家开始更加关注这一领域。
2008年NIPS基金会没有批准Deep Learning的研讨会申请,结果组织者自行开会,包括Michael Jordan,Andrew Blake等一众机器学习及相关领域最具影响力的资深学者都出席了会议,会场爆满。除了一直没有放弃的LeCun等人,这一领域还吸引来了Stanford机器学习的教授、Coursera创始人Andrew Ng。Ng的研究组,率先做出了和现有最高水平相提并论的结果。后来,大家一步步推进,深度学习在很多实际评测中遥遥领先,一下就火了。
深度学习主张,如果ANN的隐层足够多,选择适当的连接函数和架构,并增加一个非监督学习的“pre training”网络组成,就会具有更强的表述能力,但常用的模型训练算法反向传播仍然对计算量有很高的要求。近年来,得益于计算机速度的提升、基于MapReduce的大规模集群技术的兴起、GPU的应用以及众多优化算法的出现,耗时数月的训练过程可缩短为数天甚至数小时,深度学习才在实践中有了用武之地。
在计算机视觉领域,深度学习首先在手写识别领域表现出众。2012年,在物体识别(被誉为计算机视觉圣杯)的权威测试Imagenet Challenge中,深度学习遥遥领先于其他经典算法(16% VS 26%),吸引了无数眼球。纽约大学计算机科学系副教授Rob Fergus的学生Matthew Zeiler,创立了一家提供图像搜索服务的公司——Clarifai。他的深度学习算法在本月刚刚结束的ICCV Imagenet Challnge 2013中,继续领先于其他算法。
深度学习产品化的浪潮中
科技巨头机会更大
Google研究员Ilya Sutskever最近表示,如果数据足够多、计算能力足够强、人工神经网络足够深,即便不加“pre training”预处理,也可以取得目前最好的结果,这充分证明,目前的深度学习对标注数据量和计算能力都提出了很高的要求。
目前更像是巨头们的游戏。Google和百度都已在自己的图像搜索中部署了深度学习技术。Google在内部多个项目组推广深度学习平台,而百度也将深度学习算法运用到了语音等多个产品中。今年5月,前Facebook资深科学家徐伟加盟百度深度学习研究院。在这次NIPS“深度学习研讨会”上,IDL还设立了展台,它在深度学习方面的研究成果在学术界也越来越有影响力。
最近,Facebook在人工智能领域动作频频。Zuckerburg和俄罗斯富豪尤里一起创立了300万美元奖金的Breakthrough Prize in Mathematics。拥有海量数据的互联网巨头中,Google收购了Geoffrey Hinton的创业公司DNNResearch(一家专注于语音和图像识别技术的研究公司), 百度挖来余凯创立了IDL研究院,IBM研究院Watson电脑开始研究深度学习相关技术,微软研究院邓力率先把深度学习应用在语音识别中,Yahoo收购了LookFlow来创建深度学习小组,Amazon在柏林创立了机器学习研究中心……
这一系列行动,无论是出于战略防御,还是单纯被深度学习吸引,一个无法否认的事实是:深度学习产品化的热潮已经扑面而来。
深度学习有局限性
初创公司应理性选取机器学习算法
有些人觉得深度学习似乎没有理论深度,其实不然。查阅一下Geoffrey Hinton的论文,其中用到的理论很深刻,数学技巧也很复杂,深度学习的理论门槛较高。但是好消息是,以Hinton、Yoshua Bengio为首的研究组开放了越来越多的源代码,包括GPU的实现,而且多种不同算法的开源实现也被公开,所以算法实现的门槛已经降低了很多。
对于创业者来说,困难在于如何获取大规模已标注数据、集成有GPU的计算集群以及针对自己的项目调参数。调参数一直是深度学习被学术界诟病的话题,早期只有几个圈内的小组掌握着调参数的秘方和数据处理的技巧。目前的深度学习参数调节已经比之前透明化了许多,但仍是开发过程中最为耗时的一部分。
目前主打深度学习的创业公司并不是很多,除了被Google收购的DNNResearch,Hinton的另外一个学生最近在伦敦组建了DeepMind,也在NIPS研讨会上进行了展示,他们使用深度学习改进了传统的强化学习,以寻找优秀的策略来打游戏,算法的表现和人的策略很相似。
还有位于旧金山的初创公司Ersatz主打深度学习的云平台,以进一步降低深度学习的门槛,但是除了数据问题,其技术水平有待观察且商业策略与众多大数据平台小公司无二,能否在激烈的商业拓展中脱颖而出还是问号。还有个别图像和文字理解的初创公司加入了深度学习的模块作为补充手段,在实际问题尤其是不同数据集上的应用尚有待观察。
但是,深度学习算法能够成功运行的前提仍然是,项目能够采集到充分大的标注且数据维度足够高或者你的想法足够通用。有了大数据样本才能缓解复杂模型的过度学习。从某种意义上说,这也给了其他机器学习算法很多机会。比如说,因为隐私原因,服务企业的大数据平台就很难应用深度学习。深度学习的另一局限性是可解释性不强,即便是一流的学者也很难对效果超群的深度学习算法在具体问题上给出具体解释。这有可能成为产品迭代过程中的阻碍。深度学习本身是支持在线学习和数据流,但是相关理论尚待完善。如上所述,深度学习目前主要集中于监督学习,在非监督学习领域,除了Google前一段时间公布的用于自然语言处理的word2vec,还没有很出彩的工作。
从深度学习的研究者身上,我们可以看到,一个好的研究者要对自己的研究有足够强的信念。正如马云所说,好的创业者要坚持自己的信念,而不是盲目跟风。前不久遇见了Aria Haghigh,他是Prismatic这个创业公司的创始人,同时也是一位名校毕业、成果卓著的机器学习研究者,放弃了教职出来创业。他也懂深度学习,但是对于他的产品和数据来说,他说深度学习并不是首选,因为数据的特性不同。
Prismatic其实用的是Logistical Regression的算法,这一算法相对成熟,不过依然有很多地方可以优化。他们甚至自行创建了分布式系统,而不是使用Hadoop。事实上,目前诸多搜索引擎和社交网络的广告系统都是以Logistical Regression的算法为基础的,相关产品的体验和速度都非常棒。朴实的算法,花同样的时间去调参数,对产品已经足够了,因为用户是不会察觉准确率上百分之零点几的差别。
谁也不知道深度学习是否会像其他算法一样进入瓶颈期。如何把深度学习运用到产品中,将产品智能化,提升用户体验——这越来越受到公司的关注。
(张路民)