Google发布MultiModel:能够学习不同领域多任务的神经网络

jopen 4年前
   <p>Google开发了一种可以接受多种形式输入并能生成多种形式输出的算法。</p>    <p>目前,大部分机器学习应用程序都只能关注一个领域。机器翻译一次只能建立一个语言对的模型,而图像识别算法一次只执行一个任务(例如描述图像、判断图像所属类别或在图像中查找对象)。然而,我们的大脑在执行所有任务时都能表现得很好,并且能够将知识从一个领域转移到另一个领域。大脑甚至可以将通过听学到的知识转换成其他领域的知识:看到或者读到的知识。</p>    <p>Google开发了一个能够 <a href="/misc/goto?guid=4959009842049475921" rel="nofollow,noindex">执行8个不同领域任务</a> 的模型:语音识别、图像分类和添加标题、句法解析、英德互译和英法互译。这个模型由编码器、解码器和“输入输出混频器”组成,其中“输入输出混频器”会将先前的输入和输出馈送到解码器。如下图所示,每个“花瓣”表示一种形式(声音、文本或图像)。神经网络可以通过任意一种输入和输出的形式来学习每个任务。</p>    <p><img alt="Google发布MultiModel:能够学习不同领域多任务的神经网络" src="https://simg.open-open.com/show/ceec66cd9d528d46476dddce489dd29a.jpg" /></p>    <p>2016年11月,Google发布了 <a href="/misc/goto?guid=4958998675897349723" rel="nofollow,noindex">zero-shot</a> 翻译。该算法将所有句子映射到“中间语言”,“中间语言”指的是一种对于每种输入语言和输出语言都相同的句子。Google只针对英韩语言对和英日语言对进行了训练,也就是说这个神经网络并未学习过对应的日韩语言对,但这时这个神经网络就能够进行日韩互译了。</p>    <p><img alt="Google发布MultiModel:能够学习不同领域多任务的神经网络" src="https://simg.open-open.com/show/66688c99d8cb9e12d598141914d00e2a.gif" /></p>    <p>Google报告称,使用MultiModel时使用少量训练数据的任务表现更好。机器学习模型通常在使用更多训练数据的时候表现更好。使用MultiModel可以从多个领域获取额外的数据。需要注意的是,使用这种方法并没有打破标准任务任何已有的记录。</p>    <p>MultiModel作为 <a href="/misc/goto?guid=4959009319801201849" rel="nofollow,noindex">Tensor2Tensor库</a> 的一部分在GitHub开源。有关这个模型更详细的方法和研究结果可以在arxiv.com的论文 <a href="/misc/goto?guid=4959009319707662648" rel="nofollow,noindex">One Model To Learn Them All</a> 中找到。</p>    <p>来自: http://www.infoq.com/cn/news/2017/07/google-multimodel-neural-network</p>