大牛激辩:AI 该像婴儿一样生来就懂事,还是该从零学习?

hanglong88 6年前
   <p>编者按:虽然现在人工智能炒作得很厉害,但是其实AI的智商连几岁的婴儿或者动物都不如。人类与动物似乎具备天生的认知手段,可以在信息有限的情况下了解到世界的运作方式。那么AI是否也应该内置类似的认知手段呢?两位AI专家展开了 <a href="/misc/goto?guid=4959754983953025343" rel="nofollow,noindex">激辩</a> 。</p>    <p><img src="https://simg.open-open.com/show/2b6c8afb8957f5e7eb44aab8df2ea077.jpg"></p>    <p>对由较为流行的人工智能技术提供支持的无人车而言,它需要在虚拟仿真中撞树5万遍才能了解到撞树是个糟糕的主意。但是,在极其陡峭的山坡上攀登的野山羊幼儿可没有这么奢侈的环境,可以经历几百万次的生死之后才学会如何攀岩不会摔死。同时,一位心理学家的3岁女儿并不需要练习数百万次才学会爬过椅子后背的空隙。</p>    <p>今天,最强大的人工智能技术几乎是在强大的计算资源帮助下从零开始学会有关世界的一切。相比之下,人类和动物似乎对特定概念、对象、地方以及一组相关的东西有着直观了解,可以迅速了解世界的运作方式。这就引出了一个重要的“自然还是培养”的问题:人工智能的学习是否需要内置人类与动物与生俱来的那种认知手段来实现类似水平的一般智能?</p>    <p>近日,两位研究AI与心理学的大牛就此话题在纽约大学心智、大脑与意识中心展开了面对面的辩论。</p>    <p>纽约大学计算机科学家及非死book人工智能研究中心主任Yann LeCun说:“无论是通过结果还是通过学习,我们目前的AI技术都不能建立这个世界的表征,那种跟我们在动物和人类身上观察到的东西接近的表征。”</p>    <p>LeCun帮助引领了AI深度学习领域的发展,这项技术给技术巨头自动化注入过滤非死book上面朋友的脸庞或者通过Google Translate将中文翻译成英文等热门服务提供了帮助。深度学习算法找到了如何在不需要任何额动物具备的那种天生的认知手段的情况下执行所有那些任务的办法。相反,深度学习算法可以在过滤海量数据的同时逐步学会认识有关世界的特定模式——当你拥有非死book、Google以及微软的庞大资源时,这个过程对于图像识别等特定的感知任务是有效的。</p>    <p>所有人都同意目前的注入深度学习等AI技术仍然达不到智能可与动物或者人类相提并论的一般AI的水平。尽管如此,LeCun认为AI可以在发展那种一般智能方面取得进展,其基础是最近取得进展的无监督深度学习,这种技术可以取消由人提供机器学习所需的人工标记数据的大部分需要。</p>    <p>我的追求是将利用手头数据去学习的固有手段的数量最小化。</p>    <p>——Yann LeCun,纽约大学,非死book</p>    <p>LeCun指出,现代AI的成功很大程度上并不是取决于对世界的运作方式建立假设或者结构化概念上。从这个意义上来说,他更偏向于维持AI算法最小结构化的那种简洁性。而且他想象做这件事应该不需要利用人类语言学家、心理学家或者认知科学家的洞察。LeCun说:“我的追求是将利用手头数据去学习的固有手段的数量最小化。”</p>    <p>纽约大学的研究心理学家,初创企业Geometric Intelligence(现属于Uber的AI部门)的创始人Gary Marcus则认为这一天不会那么快到来。他承认无监督深度学习有成功的机会。但他认为此类算法在拥有“比像素更丰富的基元与表征集”去理解世界的情况下才能成功。</p>    <p>我们想要小孩拥有的那种东西,也就是用于理解对象和实体行为以及世界的物理性质的基元和表征。</p>    <p>——Gary Marcus,纽约大学</p>    <p>Marcus说:“我们想要小孩拥有的那种东西,也就是用于理解对象和实体行为以及世界的物理性质的基元和表征。”</p>    <p>Marcus希望看到AI研究人员可以“更加慷慨地借鉴认知科学”,开发出更加结构化的算法来表示注入对象、集合、地方以及时刻连续性等认知概念。他引用了自己以及诸如哈佛大学认知科学家Elizabeth Spelke等同事的工作,通过这些来说明人类儿童如何在很早的时候就具备了认识诸如人、物体、集合以及地方等概念的能力。他的建议:AI为什么不能利用类似的办法,实现一些结构去映射类似的概念呢?</p>    <p>Marcus说,即使是LeCun在卷积神经网络(一种对象识别任务的更高效计算处理方法)上面的先驱工作,也是如何利用更为结构化的办法去约束AI必须过滤的信息量,从而更好地理解世界的很好例子。</p>    <p>Marcus说:“我认为我们真正需要的是系统性思维和分析,对在将不同数量的固有手段植入机器学习时发生的事情进行系统性思考和分析。”</p>    <p>LeCun同意AI需要一些结构来帮助理解世界。但他怀疑生物大脑是否存在“单一的学习算法或者原则、过程”,或者这是不是更像是没有底层组织原则的无意义的“破解”集合。在他看来,不管有没有内置的按照先天认知手段建模的结构,AI都可以极大受益于单一的学习原则或者此类原则的结合。</p>    <p>LeCun说:“现在缺的是一个允许我们的机器通过观察以及跟世界互动来了解世界运作方式的原则。一个学习预测性世界模型是我们现在所欠缺的,以我之见,这是AI取得重大进展的最大障碍。”</p>    <p>智能的精髓在于预测的能力,因为预测未来是“填补有关世界状态空白”的一个非常特殊的情况,LeCun说。常识让人类和动物可以根据自己对世界运作机制的认识去补充缺失的信息。这就是人类司机不需要撞50000次树才意识到这是坏主意的原因;人类已经对如果驾驶车辆撞向树木可能发生的事情有感觉了。</p>    <p>LeCun希望无监督学习可以引领AI产生一种感觉,如果说不是常识的粗略形式的话,也是感知世界的运作方式的物理视角。LeCun说: “如果到我职业生涯结束时我们能有跟猫一样聪明的机器的话,我会非常高兴的,或者老鼠也行。”</p>    <p>AI学习最终更多是道法自然还是更多靠培养?这一话题之争还远远没有定论。但无论是LeCun还是Marcus都同意验证说法真伪的关键绩效指标。如果无监督学习算法最终需要更多类似问题、集合、地方等认知表征的结构的话,Marcus就可以宣告自己的胜利。如果无监督学习发现成功并不需要此类结构化的话,则LeCun就被证明是正确的。</p>    <p>  </p>   <p>来自:http://36kr.com/p/5096446.html</p>    <p></p>    <p> </p>