Deepfakes(“深度学习”和“假”的组合)是合成媒体,其中现有图像或视频中的人被替换为其他人的肖像。
现在在新闻和社交媒体上流传的大多数新闻都是假的/八卦/谣言,除了维基解密,可能是假阳性或假阴性
我知道有一个Deepfake 检测挑战Kaggle 比赛,奖金高达 1,000,000 美元。
我想知道 deepfakes 是如何工作的以及它们有什么危险?
Deepfakes(“深度学习”和“假”的组合)是合成媒体,其中现有图像或视频中的人被替换为其他人的肖像。
现在在新闻和社交媒体上流传的大多数新闻都是假的/八卦/谣言,除了维基解密,可能是假阳性或假阴性
我知道有一个Deepfake 检测挑战Kaggle 比赛,奖金高达 1,000,000 美元。
我想知道 deepfakes 是如何工作的以及它们有什么危险?
一般来说,深度伪造依赖于先进的上下文感知数字信号处理——通常是图像、视频或音频——允许对以前昂贵或几乎不可能高质量生产的内容进行非常自然的修改。
AI 模型通常基于生成对抗网络 (GAN)、风格迁移、姿势估计和类似技术,能够执行诸如从对象 A 转移面部特征以替换静止图像或视频中对象 B 的面部特征等任务,同时复制主体 B 的姿势、表情和匹配场景的照明。语音也存在类似的技术。
一个很好的例子可能是这些星球大战编辑,其中演员的面孔已经改变。它并不完美,如果你研究框架,你可以在几张照片中看到一点不稳定 - 但质量仍然相当不错,而且它是通过相对便宜的设置完成的。这项工作是使用免费提供的软件完成的,例如Github 上的 DeepFaceLab。
该技术不仅限于简单的替换 - 其他形式的类似木偶的输出控制也是可能的,其中演员可以使用不超过 PC 和网络摄像头的方式实时直接控制目标的面部。
从本质上讲,借助 deepfakes,可以以低廉的价格用有说服力的媒体来支持诽谤或诽谤的评论。或者相反,重新措辞或重新制定一个对某人来说可能是负面宣传的事件,以使其看起来非常不同,但仍然自然地被捕捉到。
这项技术的危险在于它将错误信息的工具交给了很多人。这会导致潜在的问题,包括:
以逼真的“证据”为后盾,攻击公众人物的诚信。即使知道这种伪造是可能的(并且可能在特定的背景下可能),仍然可以造成损害,特别是依靠确认偏见来用制造事件来喂养已经两极分化的观点的人。
对任何呈现的媒体的信念的侵蚀作为任何事物的证据。随着 deepfakes 的出现,面对媒体证据反对任何叙述的人可以更容易地声称“假货”。
这些问题在报道、政治偏见、宣传等领域都不是新问题。然而,它为愿意传播错误信息以支持任何议程的人们增加了另一个强大的工具,除了选择性统计、断章取义等问题之外,在于纯文本或粗略photoshop等的媒体。
搜索研究深度造假影响的论文应该找到诸如Deepfakes 和虚假信息之类的学术研究:探索合成政治视频对欺骗、不确定性和对新闻的信任的影响。
意见:视频内容,以实时捕捉或报告的形式呈现,特别引人注目,因为与文本和静止图像媒体不同,它直接与人类用来实时理解和导航世界的两种关键感官交互。简而言之,与报纸文章甚至照片相比,在无意识和情感层面上,默认情况下它更可信。尽管您作为观众可能拥有关于如何制作它的任何学术知识,但这仍然适用。