人工智能|为了把 Deepfake 关进笼子,各大公司都拼了

人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

图片来源@视觉中国

钛媒体注:本文来源于微信公众号硅星人(ID:guixingren123) , 作者 | 杜晨 , 编辑 | Vicky Xiao , 钛媒体经授权发布 。 
曾几何时 , deepfake 在互联网上格外猖獗 , 新闻和成人类内容成为了“换脸”的重灾区 。
由于受众广泛 , 市面上有不少现成的 deepfake 算法 , 供用户使用 , 如 DeepFaceLab  (DFL) 和 FaceSwap 。并且 , 由于深度学习技术的普及 , 也有一些低成本甚至免费的在线工具 , 可以训练这些算法 , 从而让好事之徒达到其目的 。
常用的工具之一就是谷歌的 Colab , 一个免费的托管式 Jupyter 笔记本服务 。简单来说 , 用户可以在 Colab 的网页界面上运行复杂的代码 , “白用l”谷歌的 GPU 集群 , 从而训练那些依赖高性能硬件的深度学习项目 。
不过就在本月 , 谷歌终于对 colab 在线训练 deepfake 痛下杀手 。
前不久 , DFL-Colab 项目的开发者 chervonij 发现 , 谷歌本月中下旬将 deepfake  加入到了 Colab 的禁止项目列表当中:
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

图片来源@谷歌
chervonij 还表示 , 他最近尝试用 Colab 运行自己的代码的时候 , 遇到了如下的提示:
“您正在执行被禁止的代码 , 这将有可能影响您在未来使用 Colab 的能力 。请查阅FAQ页面下专门列出的禁止行为 。”
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

图片来源@DFL Discord 频道
然而这个弹出提示只是做出警告 , 并没有完全禁止 , 用户仍然可以继续执行代码 (continue anyway) 。
有用户发现 , 这次谷歌的行动应该是主要针对 DFL 算法的 , 考虑到 DFL 是目前网络上 deepfake 行为最常采用的算法 。与此同时 , 另一个没那么流行 , 的 deepfake 算法 FaceSwap 就比较幸运 , 仍然可以在 Colab 上运行且不会弹出提示 。
FaceSwap 联合开发者 Matt Tora 接受 Unite.ai 采访时表示 , 自己并不认为谷歌此举是出于道德目的:
“Colab 是一个偏向 AI 教育和研究方向的工具 。用它来进行规模化的 deepfake 项目的训练 , 和 Colab 的初衷背道而驰 。”
他还补充表示 , 自己的 FaceSwap 项目的重要目的就是通过 deepfake 来教育用户关于 AI 和深度学习模型的运行原理 , 言外之意可能这才是 FaceSwap 没有被 Colab 针对的理由 。
【人工智能|为了把 Deepfake 关进笼子,各大公司都拼了】“出于保护计算资源 , 让真正需要的用户能够获取这些资源的目的 , 我理解谷歌的这一举动 。”
Colab 未来是否将会完全禁止 deepfake 类项目的执行?对于不听劝的用户会有怎样的惩罚?目前谷歌并未对此次修改作出回应 , 这些问题也暂时没有答案 。
不过我们可以确定的是 , 谷歌肯定是不希望 Colab 这样一个出于公益目的 , 提供免费训练资源的平台 , 被 deepfake 开发者滥用 。
Google Research 将 Colab 免费开放给广大用户 , 目的是降低深度学习训练的硬件成本门槛 , 甚至让几乎没有编程知识背景的用户也能轻松上手——也即所谓的 AI 普及化 (democratization of AI) 。
由于区块链行业的爆发增长 , 以及疫情的次生影响 , 当今全球芯片(特别是 GPU) 很大程度上仍然处于断供状态 。所以如果是为了节约资源而禁用 Colab 运行 deepfake 项目 , 确实可以理解 。
不过除了 deepfake 之外 , Colab 禁止的其它行为当中也的确包括大众认知的恶意行为 , 比如运行黑客攻击、暴力破解密码等 。
deepfake 使用门槛变高?在过去相当长一段时间里 , 对于初入门和中等水平的 deepfake 视频创作者来说 , 想要实现一般可接受画质(480p或720p以上)的内容输出 , 自己却没有足够的硬件配置的话 , 那么 Colab 几乎是唯一的正确选择 。
毕竟 Colab 界面简单 , 上手轻松 , 训练性能达到可以接受的水平 , 而且还免费 , 没有理由不用 。前面提到的一些 deepfake 算法项目也都针对 Colab 提供了代码支持 。
要讨论 deepfake , 很难避开新闻换脸视频和成人换脸内容 。硅星人发现 , DFL 主项目页面直接把新闻视频换脸作为主要使用场景之一 , 并且页面中引导的一些用户社群也都默许明星或私人复仇式 (revenge porn) 的换脸成人内容 , 使得此类内容大量存在 。
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

现如今谷歌决定禁止 deepfake 类项目在 Colab 上运行 , 势必将对私人的 deepfake 内容制作造成不小的打击 。
因为这意味着那些初级和中级 deepfake 制作者将失去一个最重要的免费工具 , 让他们继续制作此类内容的成本显著提高 。
不过据领域内一些内幕人士表示 , 那些最顶级的 , 将 deepfake 当作一门生意的专业制作者 , 已经基本实现了完全“自主生产” 。
这群人通过非法销售及会员募捐等方式 , 赚到了不少钱 , 可以投资更加高级的设备 。现在他们可以制作分辨率、清晰度和脸部还原度更高的 deepfake 视频 , 从而不用依赖 Colab 以及云计算等在线服务 , 就能实现稳定生产和营收 。
举个例子:想要实现2k甚至4k分辨率和60fps的帧率 , 并且单片单次渲染用时在可以接受的范围(比如几天)的话 , 需要一个庞大的渲染农场 , 至少10台电脑 , 每台两张支持 SLI 技术的英伟达 RTX 高端显卡 , 以及上百GB的内存 。这样下来仅单台的购置成本就已经相当高了 , 更别提还要算上运转时的电费(渲染、冷却等) , 可以说是一笔相当大的投资 。
很遗憾 , 对于这群人来说 , 谷歌的新政策对他们完全起不到作用 。只有全社会对 deepfake 带来的负面影响提升重视 , 整个科技行业都行动起来 , deepfake 的滥用问题才能得到解决 。
把 deepfake 关进笼子里 , 各国、各大公司都在行动
  • 谷歌
这的确不是谷歌第一次出面打击 deepfake 内容制作了 。在2019年 , Google Research 就发表过一个大型视频数据集 。其背后是谷歌在自己内部通过制作 deepfake 视频的方式 , 从而试图了解相关算法的工作原理 。
对于谷歌来说 , 它需要提高识别 deepfake 的能力 , 从而在商业化产品环境里(最典型的就是 YouTube 用户视频上传) , 从源头上切断恶意换脸视频的传播途径 。以及 , 第三方公司也可以使用谷歌开放的这个数据集来训练 deepfake 探测器 。
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

请输入图说
不过 , 近几年 Google Research 确实没有花太多心思在打击 deepfake 上 。反而 , 该公司最近推出的 Imagen , 一个超高拟真度的文字生成图片模型 , 效果非常惊人 , 反倒是引发了一些批评 。
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

Imagen 文字转图片的效果   图片来源:谷歌
  • 微软
微软研究院在2020年共同推出了一项 deepfake 探测技术 , 名为 Microsoft Video Authenticator 。它能够检测画面中的渲染边界当中灰阶数值的不正常变化 , 对视频内容进行逐帧实时分析 , 并且生成置信度分数 (confidence score) 。
微软也在和包括纽时、BBC、加拿大广播公司等顶级媒体合作 , 在新闻行业的场景下对 Video Authenticator 的能力进行检测 。
与此同时 , 微软也在 Azure 云计算平台中加入了媒体内容元数据 (metadata) 校验的技术 。通过这一方式 , 那些被修改过的视频内容可以和原视频的进行元数据比对——和下载文件的时候比对 MD5 值差不多意思 。
  • Meta
2020年 , Facebook 宣布在 Facebook 产品平台全面禁止 deepfake 类视频 。
然而这个政策执行得并不彻底 。比如 , 目前在 Instagram 上还可以经常见到那个著名的中国翻版马斯克 deepfake 视频(主要是从 TikTok 上转发过来的) 。
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

图片来源:MaYiLong0|TikTok
在行业层面 , Meta、亚马逊 AWS、微软、MIT、UC伯克利、牛津大学等公司和机构在2019年共同发起了一个 deepfake 检测挑战赛 , 鼓励更多、更优秀、更与时俱进的检测技术 。
  • Twitter:
2020年 Twitter 封杀了一批经常发布 deepfake 视频的账号 。不过对于其它 deepfake 内容 , Twitter 并没有完全限制 , 而是会打上一个标签“被修改的内容”(manipulated media) , 并且提供第三方事实核查机构的检测结果 。
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

  • 创业公司:
OARO MEDIA:西班牙公司 , 提供一套对内容进行多样化数字签名的工具 , 从而减少deepfake 等被修改过的内容传播对客户造成的负面影响 。
Sentinel:位于爱沙尼亚 , 主要开发 deepfake 内容检测模型 。
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

Quantum+Integrity:瑞士公司 , 提供一套基于 API 的 SaaS 服务 , 可以进行各种基于图像类的检测 , 能力包括视频会议实时 deepfake、截屏或图片“套娃”、虚假身份证件等 。
人工智能|为了把 Deepfake 关进笼子,各大公司都拼了
文章图片

  • 国家(立法和行政)
中国:2020年印发的《法治社会建设实施纲要(2020 - 2025年)》进一步要求 , 对深度伪造等新技术应用 , 制定和完善规范管理办法 。
美国:2019年正式签署生效的2020财年国防批准法当中包含了和 deepfake 相关的条文 , 主要是要求政府向立法机构通报涉及跨国、有组织、带有政治目的的 deepfake 虚假信息行为 。
加州、纽约州和伊利诺伊州都有自己的 deepfake 相关法律 , 主要目的是保护 deepfake 受害者的权益 。
欧盟:GDPR、欧盟人工智能框架提议、版权保护框架、虚假信息针对政策等高级别法律文件 , 都对可能和 deepfake 有关的事务实现了交叉覆盖 。不过 , 整个区域级别目前并没有专门针对 deepfake 的法律和政策 。
在成员国级别上 , 荷兰立法机构在2020年曾经要求政府制定打击 deepfake 成人视频的政策 , 以及表示会考虑将相关问题写入该国刑法 。

    推荐阅读