美国防部开发工具打击人工智能换脸术deepfakes

  • 2018-09-26 12:01
  • 环球网

  外媒Techspot报道,美国国防部研发出第一款取证工具,用于打击利用人工智能制作报复性色情视频和制造假新闻的犯罪行为。

  Deepfakes现在指代利用机器学习技术制作的换脸视频。让其名噪一时的神奇女侠扮演者盖尔· 加朵的脸被移植到色情片的事件。Reddit 上一位名为deepfakes 的网友利用开源的TensorFlow 机器学习工具伪造出了很多女性的色情电影,其中包括盖尔· 加朵。此后该开发工具包泄露到网上,被有心者利用制作报复性色情视频。这些民间制作者的技术水平有限,用于机器学习输入的素材量并不大,导致有些画面人脸拼接并不自然,但是经过剪辑,视频内容仍能以假乱真。

  更为严重的是,不法分子可以利用该工具制作假新闻。外媒举例说,如果人们打开电视观看到的是美国总统宣示核战争全面开打,将造成不可想象的恐慌。开发人员制作的一个演示视频中就利用美国前总统奥巴马的形象生动讲解了这项技术的危害性。

  鉴于此,美国国防部一直致力于研发对应的工具用以检测甚至打击这种虚假视频。《麻省理工科技评论》(MIT Technology Review)报道称,第一款工具已通过名为Media Forensics 的美国国防高级研究计划局(DARPA)计划推出。该计划最初目的是将现有取证工具自动化。目前该计划已将重点转移到开发打击“AI制造伪造内容”的方法上。

  让DeepFakes以假乱真的方法是使用深度学习模型生成式对抗网络(GAN)。GAN只需要被伪造者的几张照片作为输入源,然后将其按照面部角度、头部倾斜叠加在视频上。

  Media Forensics项目负责人Matthew Turek表示。“我们在当前GAN制作的视频中发现了微妙的线索,使我们能够检测到变化的存在。”据悉其中一项线索是这类伪造视频中的人物不会眨眼,因为输入GAN的静止图像本身就都是人物睁眼的画面。

  另一方面,纽约州立大学的Siwei Lyu教授也在做相关技术的研究。他带领学生制作了50个假视频用以验证取证方法。他们发现眨眼特征还不足以确保取证工具稳健,毕竟用户可以提供闭眼或者眨眼的图像输入GAN以欺骗工具。Siwei Lyu教授表示他们还有一些秘密技术效果更佳。

  还有一些其他参与DARPA计划的团体也采用类似技术机型研发。达特茅斯学院(Dartmouth College)的数字取证专家Hany Farid认为,奇怪的头部动作、眼睛颜色和其他面部因素等其他线索可以帮助确定视频是否被伪造。Farid表示:“我们正在努力开发这些类型的生理信号,至少目前,这些信号很难被模仿。”

  Matthew Turek表示DARPA计划将持续发挥技术上的促进作用,以便跟上视频伪造技术的进一步发展。

  (原标题:美国防部开发工具打击人工智能换脸术deepfakes|人工智能|deepafakes)

头条推荐
图文推荐