悬赏1000万美元,打假AI换脸!非死book发起Deepfakes检测挑战赛

OPEN编辑 4年前

  近日,非死book 宣布启动一项“Deepfake 视频检测挑战赛”,壕掷 1000 万美元,悬赏能够最好地检测出利用 Deepfake 技术制造的假视频,包括微软、MIT、牛津大学,加州大学伯克利分校等业界学界联合支持。

  科学家们终于要“以 AI 攻 AI”了。

  非死book 宣布了一项名为 Deepfake Detection Challenge(DFDC)的挑战赛,壕掷 1000 万美元,悬赏能够最好地检测出利用 Deepfake 技术制造的假视频。

  该项竞赛合作伙伴包括微软、康奈尔理工,麻省理工学院,牛津大学,加州大学伯克利分校,马里兰大学等,非死book 还将针对挑战赛发布一个新数据集。

  非死book 的首席技术官 Mike Schroepfer 表示,挑战的目标是“创造出每个人都可以使用的技术,以便更好地检测 AI 何时被用来改变视频以误导观众。”

  Deepfake 检测挑战赛将包括一个数据集和排行榜,以及拨款和奖励,以刺激行业创造新的方式来检测和防止通过 AI 操纵的媒体被用来误导他人。

  悬赏 1000 万美元,挑战赛获学界支持

  Yann LeCun 曾在 推ter 上提问:

  讲真,要是当初知道卷积神经网络 (CNN) 会催生 DeepFake,我们还要不要发表 CNN?

  他说:“假设在上世纪 80 年代那时我们能够预见 CNN 的这些负面影响,我们该不该把 CNN 模型保密不公开呢?”

  LeCun 最后的结论是,就算自己不开源,CNN (或者类似的东西) 还是会被其他人发明出来 (实际上,有些人可以说差不多已经做到了)。

  既然已经开源,并且已经导致了负面影响,思考如何阻止和对抗这些负面影响更有价值。

  这次,非死book 投入了超过 1000 万美元来资助这项全行业的努力。

  为了确保数据集和挑战参数的质量,这些参数最初将在今年 10 月的国际计算机视觉会议(ICCV)上通过有针对性的技术工作会议进行测试。

  完整的数据集发布和 DFDC 发布将于今年 12 月召开的神经信息处理系统会议(NeurIPS)上发布。非死book 也将参与挑战,但不接受任何经济奖励。

  非死book 的这项挑战赛得到了学术界的支持。 

“为了从信息时代走向知识时代,我们必须更好地区分真实与虚假,奖励可信内容而不是不受信任的内容,并教育下一代成为更好的数字公民。这需要全面投资,包括产业/大学/非政府组织的研究工作,以开发和实施能够快速准确地确定哪些内容是真实的技术。”

-- Hany Farid 加州大学伯克利分校电气工程与计算机科学系教授 

“自从有了摄影,人们就开始操纵图像。但现在几乎所有人都可以创造并将假图片、假视频传递给大众。本次比赛的目标是建立人工智能系统,能够检测出篡改图像中的细微缺陷,并揭露其对现实的欺诈性表现。”

-- Antonio TorralbaMIT 电气工程与计算机科学教授 

  根据 DFDC 网站的说法,这项挑战将持续到 2020 年。将使用“一种测试机制来选择获胜者,该机制使团队能够根据我们创始合作伙伴的一个或多个黑盒测试集对其模型的有效性进行评分。” 

  非死book 的合作伙伴包括微软、康奈尔理工,麻省理工学院,牛津大学,加州大学伯克利分校,马里兰大学等。 Deepfake 盛行,扎克伯格、美国众议院议长纷纷躺枪

  DFDC 并非 非死book 第一次与 Deepfake 打交道。今年 5 月,艺术家 Bill Posters 做了一个马克·扎克伯格的 Deepfake 视频,以回应 非死book 关于操纵图像和数据使用的政策。 

  在这段合成视频中,“扎克伯格”说:“试想一下:一个人完全控制着数十亿人被盗的数据,掌握着他们所有的秘密、生活和未来。这都要归咎于 Spectre 漏洞。它让我明白,谁控制了数据,谁就控制了未来。” 

  视频中的“扎克伯格”,无论从相貌声音,还是穿着打扮,都跟真的扎克伯格几乎没有差别。他能眨眼,会做手势,口型和画外音高度吻合。乍看之下,几乎找不到破绽,只是声音有些奇怪。

  最初的真实视频来自于扎克伯格在 2017 年 9 月发表的关于俄罗斯干预美国大选的讲话。而 Deepfake 视频是使用 CannyAI 的视频对话替换(VDR)技术创建的。 而在此之前,非死book 决定对一则关于美国众议院议长 Nancy Pelosi 的虚假视频暂时搁置不处理。在这段剪辑过的视频里,Pelosi 听起来像醉酒后说话,视频很快在 Instagram 平台上疯狂传播。 

  按照 非死book 的官方回应,Pelosi 的视频“没有违反平台的政策,因为所有人都可以自由表达自己(的想法),如果有第三方事实检测工具认定视频是假的,视频就会被打上标签,提醒用户注意其真实性,而且还会在推送中降低权重。”

   不久之后,非死book 的公共政策主管 Neil Potts 在国会前作证说,若扎克伯格的虚假视频出现在公司平台上,非死book 也会遵循同样的政策。

  随着换脸 APP“ZAO”的火爆,人们无需技术背景便可创造假视频,一方面带来了娱乐,而更多的是带来了风险。 


换脸 APP“ZAO”

  最坏的情况是,有人担心,如果不加以控制,Deepfake 系统可能会被恶意用来欺骗政府和人民,甚至引发国际冲突

  在 DARPA 组织的一次 Deepfake 相关的讨论会上,达特茅斯大学计算机科学教授 Hany Farid 表达了担忧:“Deepfake 可能让好莱坞级别的特效造假变得大众化,并可能导致大量以假乱真的骗局。”

  Farid 举了个可怕的例子:“假如有人制作了一段视频,特朗普在视频中说’我已经对朝鲜发射了核武器’,这段视频迅速传播,在有人意识到它是假的之前,我们的世界可能已将发生了全面的核毁灭。”

  他说:“我不是故意引发恐慌或夸大其词,但我认为,目前这并非完全不可能。”我们现在处在一个真假难辨的时代,如果不用技术手段对 Deepfake 视频进行检测、管制,后果将不堪设想,这也是为什么我们需要像 DFDC 这样的挑战赛来推动技术向善、AI 向善。

  以 AI 攻 AI:DAPRA、伯克利开发反换脸刑侦工具

  有“换脸”就有“反换脸”,越来越多的研究人员在努力寻找准确识别 Deepfake 的假视频的方法。

  最迫切希望攻破 Deepfake 的是美国国防部DAPRA,他们发起 Media Forensics 项目(简称 MediFor),资助研发一系列自动化工具来辨识被 ps 的图片、Deepfake 伪造的视频、等等。

  他们的第一个成果是一款“反换脸”AI 刑侦工具,主要由纽约州立大学奥尔巴尼分校的研究人员开发技术,通过有效地预测眼睛的状态,准确率达到 99%。

  研究人员发现,Deepfake 假视频里的人物极少眨眼,甚至不会眨眼,因为它们都是使用睁眼的照片进行训练的。利用这些细微的线索,可以检测出图像或视频中的脸是真实的还是 AI 生成的。


早期的 Deepfake 生成的假视频缺陷明显,比如人物说话时从不眨眼,现在这个缺陷已被修复

  然而,这一工具来不及实用化就被宣告无效了——早期的 Deepfake 视频远远算不上完美,存在各种容易发现的缺陷,比如不眨眼。但 Deepfake 技术的发展速度非常惊人,假视频中人物从不眨眼的缺陷很快得到了改善,生成的假视频变得越来越逼真可信。

  最近,来自加州大学伯克利分校和南加州大学的研究人员在“以 AI 攻 AI”的这场战斗中开发了出了新的武器,可以更加准确地识别伪造的视频。研究人员利用前总统奥巴马的现有视频,使用类似的过程来创建假视频,训练 AI 来寻找每个人的 “软性生物识别” 标签。


从上到下依次是原始视频,嘴唇同步 Deepfake 假视频、喜剧模仿视频、换脸 Deepfake 和木偶大师 deepfake 的 10 秒视频剪辑的五个示例帧

  这听起来很复杂,其实并不陌生。每当我们开口说话时,都会以微妙但独特的方式来移动身体,我们的头、手、眼睛甚至嘴唇都会产生这样的运动。这一切都是在潜意识里完成的,你没有意识到你的身体正在做这件事,大脑也没有立刻意识到身体其他部位的运动发生在何时,但从结果上看,这是目前 Deepfake 在创造假视频时的时候没有考虑到的因素。

  在实验中,这款新的 AI 准确发现伪造视频的几率达到了 92%,实验对象包括使用多种技术创建的假视频,以及由于视频文件被过度压缩导致图像质量下降的视频。

  不过,研究人员也发现,该方法的适用性容易受到人们说话的不同背景的影响(直面镜头正式讲话,与不看镜头的现场采访),解决这些局限仍需要更多的研究。

  现在,非死book、微软、MIT、UC 伯克利等业界和学校联合发起的这项 Deepfake 检测挑战赛,无疑将进一步推进“反换脸”的进步,有兴趣的同学快去参与。