深度学习大牛Bengio教授在Reddit吐槽

jopen 10年前

     Deep Learning 界的三架马车,目前 Geoffrey Hinton 已被 Google 收编,Yann LeCun 已被 非死book 收编,还留在学术界的 Yoshua Bengio 最近心情好,在 reddit 上定期回答问题。

  我抽取了一些比较有料的观点在下面,希望对大家了解这方面有帮助(再不上船可就晚了)。

  最近掀起的深度学习浪潮,只能表明机器学习界浪费了很多年没去探索它,尤其 1996-2006 这十年。(吐槽深度学习大热)

  学习好的表示(representations)是深度学习的核心目的,而非像 SVM 一样就是在特征的固定集合做一个线性预测。(吐槽 SVM 用 kernel 转移重点)

  为什么决策树注定泛化能力差?我的文章中曾说明,其关键点是决策树(和许多其他机器学习算法)划分输入空间,然后给每个区域分配不同的参数,因此没有推广到新区域或跨区域的办法。不可能学习到一个需要跨越区域比训练样例数目还多的函数。相反神经网络可以做到非局部的泛化,是因为每个参数在许多区域被重新使用,在常规的神经网络通常是一半的输入空间。(吐槽决策树泛化能力差)

  无监督的处理过程(和预处理)仍然是处理半监督和转移学习(领域适应及非平稳数据)问题的关键成分, 尤其新出现类别的标记样本很少(或分布改变)的时候。我们就是这么赢得 ICML2011 的比赛

  无监督学习(unsupervised learning)的未来更吸引人的原因

  1. 利用未标记数据的庞大数量的优势
  2. 了解所有观察变量间的统计依赖关系,因此可以回答给定任何变量子集下关于任何子集的新问题(训练集中未见的)
  3. 是非常强大的正则化,可以帮助学习者理清变化的潜在因素,使得更容易从极少数的例子解决新任务。
  4. 可用于在受监督情况下输出变量(待预测的)是一个非常高维的复合物(如图像或语句)的场合,即所谓的结构化输出。

  超参数与在训练中学习到的参数不同,因为后者通常是通过试错手动设置的,或是对所有参数值组合做愚蠢的大范围探索。(吐槽 grid search 傻大粗)

  问:目前深度学习取得成功的问题都是人类保持最先进水平(previous state-of-the-art)的问题,如图像和语音识别、自然语言处理(vision/audio/language),有没有胜过人类的案例?

  答:在欺诈识别以及 Netflix 的推荐系统中有成功的案例,特别是当输入变量巨大到无法可视化或人类可以消化的时候。尽管我没具体比较机器和人脑的性能,但纯粹的速度优势,也不会考虑让人类做这些工作。

  在一天结束时,只有数据。专业的知识也是从过去的经验来的:要么通过与人的交流传达(最近的人,或过去的几代人,即所谓文化的进化),要么通过遗传进化(这也依赖于将知识刻入基因的经验)。潜在说明我们可能需要多种优化方法,而不仅仅基于梯度下降(大多数的学习算法)。(吐槽大数据,不明觉厉)

  我相信大脑的大部分工作是尽量把我们的经验变得相关,以建立一个关于世界的更好模型。

  关于深度学习的革命性再怎么强调都不为过。除了在现有的图像语音识别中不断刷新 state-of-art 之外,在 google,使用深度学习的 AI 给机器随机“看”了 1000 万个 油Tube 视频。你猜它看到了什么?猫的脸!在百度,使用深度学习的广告 CTR 预估模型用K级别特征战胜了原来B级别特征的线性模型。

来自: meroa.com