识别人工制作的媒体有哪些策略?

人工智能 机器学习 图像识别 模式识别 深假货
2021-10-18 22:55:47

随着廉价创建假图片、假声音片段和假视频的能力越来越强,识别什么是真实的和什么不是的变得越来越困难。即使是现在,我们也看到了许多以低成本创建虚假媒体的应用程序示例(参见DeepfakeFaceApp等)。

显然,如果以错误的方式使用这些应用程序,它们可能会损害他人的形象。Deepfake 可以用来让一个人看起来对他们的伴侣不忠。另一个应用程序可以用来让它看起来像是一个政治家说了一些有争议的话。

有哪些技术可用于识别和防止人工制作的媒体?

4个回答

数字媒体取证(DMF) 领域旨在开发用于自动评估图像或视频完整性的技术,因此DMF是您正在寻找的领域。DMF 中有几种方法:例如,基于机器学习 (ML) 技术的方法,特别是卷积神经网络 (CNN)。

例如,在论文Deepfake Video Detection Using Recurrent Neural Networks (2018) 中,David Güera 和 Edward J. Delp 提出了一种由 CNN 组成的两阶段分析,用于在帧级别提取特征,然后是时间感知 RNN 以捕获deepfake 工具引入的帧之间的时间不一致。更具体地说,他们使用端到端训练的卷积 LSTM 架构(CNN 与 LSTM 相结合),以便 CNN 学习视频中的特征,然后将其传递给 RNN,RNN 尝试预测可能性这些功能是否属于假视频。第 3 节解释了 deepfake 视频的创建,这会导致视频帧之间的不一致(在所提出的方法中被利用)因为使用具有不同观察和照明条件的图像。

已经提出了其他类似的工作。有关更多相关论文,请参阅此精选列表https://github.com/aerophile/awesome-deepfakes

您提到的技术使用 GAN。GAN 的关键思想是你有一个生成器和一个鉴别器。生成器生成新内容,鉴别器必须判断内容是来自真实数据还是生成的。

鉴别器更强大。训练鉴别器来检测假货应该不会太难。训练一个能够查明操纵和理解这一点的模型是操纵更难的证明。不可能得到证据证明某些东西没有被操纵。

关于如何处理经过照片处理的图像的问题:您会查看图像中压缩级别的差异。要查找的关键字是图像取证: http: //fotoforensics.com/tutorial-estq.php

我认为上下文在这里很重要。使用苏格兰场使用了一个多世纪的策略可能是最好的方法。建立不在场证明、现实的时间线、动机。对于法律环境,可以使用这样的方法证明这些图像是假的。从 IT 的角度来看,可以确定这些图像的来源。如果数以千计的重复图像来自单一来源,那么来自该来源的任何图像都是可疑的。

我认为,总的来说,我们应该重新训练自己不要相信我们所看到的一切。伪造图像的方法太多了,以至于摄影不再被认为是事件发生的最佳证据。我们不应忽视所有图像,而应在下结论之前寻求事实的外部一致性。如果所有事实都表明事件正在发生,那么那张照片很可能是真实的。

假设相关媒体中不存在伪影和非自然元素,并且人眼无法区分媒体,那么能够做到这一点的唯一方法是追溯图像的来源。

可以类比 DoS(拒绝服务)攻击,其中从单个 IP 向单个服务器发送大量请求导致其崩溃 - 一个常见的解决方案是蜜罐,其中来自一个服务器的大量请求IP 被重定向到诱饵服务器,即使它崩溃,正常运行时间也不会受到影响。已经在这些方面进行了一些研究,本文谈到了验证图像的数字签名,或者他们提出了篡改图像检测和源相机识别的问题。

一旦追溯到一个来源,如果一个荒谬的潜在虚假图像来自一个单一的来源,它就会受到质疑。

当我们处理某些事情时,常见的恐惧会出现,基于类比,例如 DDoS(分布式拒绝服务)攻击,其中每个虚假请求都来自分布式源 - 网络安全已经找到了处理这个问题的方法,但是安全人工智能方面的欺诈检测还没有那么成熟。

本质上,对于一个经过深思熟虑的、用于特定恶意目的的人工媒体来说,今天很难被抓到——但目前正在开展人工智能安全方面的工作。如果您打算将人工媒体用于恶意目的,我想说现在可能是最好的时机。

从现在开始,这种安全性一直是一个问题。数据科学家引用的一篇文章

Deepfakes 已经被用来试图通过假色情视频骚扰和羞辱女性。该术语实际上来自 Reddit 用户的用户名,该用户通过使用 TensorFlow 构建生成对抗网络 (GAN) 来创建这些视频。现在,情报官员正在谈论弗拉基米尔普京使用假视频影响 2020 年总统选举的可能性。正在对深度伪造作为对民主和国家安全的威胁以及如何检测它们进行更多研究。

注意 -我对网络安全一无所知,我所有的知识都来自与朋友的一次谈话,并认为这将是一个很好的类比。请原谅类比中的任何错误,如果可能,请更正!