宁德生活圈

网站首页 互联网 > 正文

这种深度神经网络可以抵抗深度伪造

2021-09-23 03:02:20 互联网 来源:
导读 用于精确检测变化照片的人工智能变得更加智能。相信,直到技术有了强大的头脑,给了我们强大而廉价的照片编辑工具。如今,将一个人的面部表

用于精确检测变化照片的人工智能变得更加智能。相信,直到技术有了强大的头脑,给了我们强大而廉价的照片编辑工具。如今,将一个人的面部表情映射到另一个人面部表情的真实视频(称为深度伪造)呈现出一种强大的政治武器。

但无论是对垂直皱纹的良性抚平,还是操纵视频让它看起来像政客说了一些冒犯的话,所有的照片编辑都留下了正确工具的痕迹。

加州大学河滨分校的Amit Roy-Chowdhury视频计算团队领导的这项研究开发了一种深度神经网络架构,可以在像素级高精度识别被操纵的图像。罗伊乔杜里是马兰和罗斯玛丽伯恩工程学院的电气和计算机工程教授,也是伯恩的导师研究员。

深度神经网络是人工智能研究人员称为的计算机系统。这些计算机系统经过训练可以完成特定的任务。在这种情况下,这些网络通过连接层来组织。“建筑”是指层数及其之间的连接结构。

图像中的对象有边界,每当对象从图像中插入或移除时,其边界的质量自然会与图像中的对象不同。具有良好Photoshop技能的人会尽最大努力通过平滑这些边界来使插入的对象看起来尽可能自然。

虽然这可能会愚弄肉眼,但当逐像素检查时,插入对象的边界是不同的。例如,插入的边界通常比自然对象更平滑。通过检测插入和移除的对象的边界,计算机应该能够识别变化的图像。

研究人员在大照片数据集中标记了非手术图像和手术图像边界区域的相关像素。目的是教授神经网络关于照片处理和自然区域的一般知识。他们用一组前所未有的图像测试了神经网络,并在大多数情况下检测到了变化的图像。它甚至找到了被操纵的区域。

“我们的训练系统区分了被操纵和未被操纵的图像。现在,如果你给它一个新的图像,它可以提供图像是否被操纵的概率,并定位手术发生的图像区域,”罗伊-乔杜里说。

目前,研究人员正在研究静态图像,但他们指出,这也可以帮助他们检测深度视频。

罗伊-乔杜里说:“如果你能理解静止图像中的特征,那基本上只是在视频中将静止图像一个接一个地放在一起。“更根本的挑战可能是找出视频中的帧是否被操纵。”

即使是一个被操纵的画面也能触发一个危险信号。然而,罗伊-乔杜里认为,在自动工具能够探测到野外深处的视频之前,我们还有很长的路要走。

“这是一个具有挑战性的问题,”罗伊-乔杜里说。“这是一场猫捉老鼠的游戏。整个网络安全领域都试图在某些方面找到更好的防御机制,但攻击者也找到了更好的机制。”

他说,在不久的将来,可能无法实现全自动深度检测。

“如果你想在互联网上看到一切,一方面,人类无法做到这一点,自动化系统可能无法可靠地完成任务。所以它必须是两者的混合物,”罗伊-乔杜里说。

深度神经网络架构可以生成可疑视频和图像的列表供人们查看。自动化工具可以减少人们(如脸书内容审查者)为确定图像是否被操纵而必须过滤的数据量。

为此,工具就在附近。

罗伊-乔杜里说:“这些技术可能会在短时间内出现,也许是几年后。

本文“用于图像伪造检测的混合LSTM和编码器-解码器体系结构”发表在IEEE图像处理事务上,由DARPA资助。其他作者包括贾瓦杜尔h巴皮、科迪西蒙斯、拉克什马南纳塔拉杰和BS曼朱纳特。

在相关工作中,他的团队开发了一种方法,用于检测除对象插入和移除之外的其他类型的图像处理。该方法将模糊边界的识别扩展到操纵区域和非操纵区域之间的过渡类型的一般知识,从而比现有工具更准确地预测篡改。

郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。


免责声明: 本文由用户上传,如有侵权请联系删除!


标签: