深度造假真的是一场真相已死的危机吗?我们如何化解这场危机?

  • “深度造假”已经引起了技术专家和立法者的恐慌。已有立法提案、法律评论文章、国家安全评论以及数十篇意见书指出了这种新的深度伪造技术 - - 使用人工智能制作逼真的模拟视频 - - 将彻底终结真相。不过,真的会彻底吗?

在短短几个月内,“深度造假”已经引起了技术专家和立法者的恐慌。已有立法提案、法律评论文章、国家安全评论以及数十篇意见书指出了这种新的深度伪造技术 — — 使用人工智能制作逼真的模拟视频 — — 将彻底终结真相。

我们也介绍过这一问题,详见:《当恶意者掌握技术:信息战的未来究竟有多可怕?

很多人对深度造假的恐惧源于这样一种假设,即 这是一种人类以前从未面临过的一种全新的、改变游戏规则的技术。但是,深度造假真的不是什么新鲜事,历史上充满了欺骗性的做法 — — 从汉尼拔的假战营到威尔罗杰斯,“真实地”模仿杜鲁门总统,斯大林从历史资料中抹去所有敌人。社会对最近流行的另一种媒体欺骗技术工具 — 数码照片编辑和 Photoshop — 的反应已经体现了重要的经验教训,可以洞察深度造假可能对社会造成的影响。

在1990年,Adobe 发布了开创性的 Adobe Photoshop,这项技术以及其无数竞争对手允许用户以数字方式改变上传到该程序中的真实照片。虽然竞争服务需要一些专业知识才能使用,但Adobe 设计的 Photoshop 是格外用户友好的,任何人都可以制作。

新功能引发了新的担忧。同年,“新闻周刊”发表了一篇名为“当照片撒谎 ”的文章。正如“新闻周刊”所预测的那样,摄影操控技术上升的后果可能是灾难性的:“以中国领导人为例,去年他们曾试图阻止摄影师揭露北京大屠杀。将来,中国人或其他有意撒谎的政权甚至不会再担心摄影师曝光真相了。“

这些担忧并非完全没有价值。Fred Ritchin,前纽约时报杂志的图片编辑,现在是国际摄影学院的荣誉退休人员,他说,由于照片编辑技术,过去几十年来对摄影的信任已经受到侵蚀。

确实,“相机永远不会说谎”的说法再也无法持续了 — 当最终产品被操纵时,相机可以并且经常会撒谎。然而,Ritchin 和新闻周刊所预言的真相危机还没有实现。

为什么?因为社会适应了这项技术。

回想一下1994年6月,时代杂志在月刊的封面上刊登的 OJ辛普森的照片,事实上他们已经明显编辑了这张照片,使辛普森的肤色显得比实际上更暗。更糟糕的是,“新闻周刊”刊登的是未经编辑的照片,两本杂志并排放在超市货架上。虽然时代为这一所谓的“艺术选择”做了辩护,称没有任何种族意味,但明显编辑过的照片引发了大规模的公众抗议。

警惕造假只是公众意识日益增强的一部分。多年来,时尚杂志普遍采用欺骗手段来改变封面模特的外观。封面上具有更具吸引力模特的杂志通常比那些吸引力较弱的杂志卖得好,因此编辑会修饰照片以使其更吸引公众。不幸的是,这种做法在社会中创造了一种不切实际的美丽形象,一旦被发现,卫生组织就开始公开警告这种现象所造成的危险 — 最明显的是饮食失调的流行。由于随后公众的强烈抗议,全国各地的家庭开始意识到了照片编辑技术及其能力。

社会警惕性是否意味着没有人会因照片造假而被欺骗并作出错误的选择了?当然不是。但是,照片造假并非造成了真相的死亡,而是对新技术的认识鼓励人们采取新的指标 — 例如来源的可信度 — 以做出关于所呈现的图像是否真实的明智决定。

结果,新闻媒体和其他照片出版商继续制定政策并就他们使用的图像做出规定,着眼于赢取受众的信任。例如,2003年,洛杉矶时报迅速解雇了一名记者因为编辑们意识到发布的一张被编辑过的图像会明显降低读者对报纸真实性的看法,这名记者对伊拉克战争的照片进行了数字化改造。

然而,现在,随着新的人工智能和机器学习技术进入市场,再次引发了“真相已死”的担忧 — 主要是在假新闻和虚假信息泛滥的背景下。想想看,如果有人在选举前发布了一个候选人正在收受贿赂的深度造假作品该怎么办?或者造假称美国总统宣布即将发生导弹袭击?正如斯坦福大学国际安全与合作中心国际安全研究员 Andrew Grotto 所预言的那样,“这项技术……将不可抗拒地导致民族国家攻击者在虚假宣传活动中使用,以操纵公众舆论,欺骗公众并破坏对我们机构的公信力。 “

也许更大的问题是,如果社会无法区分假视频和真实视频,那么任何人都可能对他们在视频上所做或所说的任何事采取否认:这都变成了一切皆为假新闻。

但是,谁能肯定社会对深度造假的反应不会像曾经人们对PS照片的回应那样发展?

现在,深度造假技术远非完美无缺。虽然一些假货可能看起来非常逼真,但其他假货却有明显的纰漏,可以提醒观众他们伪造的性质。与之前的 Photoshop 和数码照片编辑一样,通过手机应用程序产生的制作不良的假货可以教育观众了解这种技术的存在。当公众意识到,深度假货造成的伤害将无法实现到预期的程度。

事实上,围绕使用这项技术的新争议同样也提高了公众对该技术可以做些什么的认识。例如,“深度造假”这个词实际上来自一个 Reddit 用户,他最初开始使用这种技术来制作逼真的名人假色情视频。这种类型的内容很合理地引发了对隐私权侵犯的警惕。随着公众的强烈抗议开始加剧,该平台公开禁止深度造假社区及其网站上的任何非自愿色情内容。

与使用 Photoshop 创建不切实际的裸体图像所引起的公众强烈抗议一样,使用深度造假技术创建不恰当和彻头彻尾的令人震惊的内容将反过来使公众更加了解该技术,从而避免造成伤害。

也许最重要的是,许多政策制定者和私营公司已经开始采取措施教育公众了解深度造假的存在和其污蔑的能力。著名的立法者,如弗吉尼亚州的马克·沃纳和内布拉斯加州的本·萨斯,最近提出了一些重要的话题。Facebook 最近宣布它正在投入大量资源进行针对深度造假的识别和检测。由于非常注重教育公众关于这种技术的存在和使用,只要公众能提高认识,恶意行为者成功传播有害的深度造假视频就将更加困难。

这绝并不是说深度造假不会造成任何新的伤害或威胁。与 Photoshop 不同,如今任何拥有智能手机的人都可以使用深度造假技术,这意味着可以生成和共享更多的逼真的假货。与20世纪90年代不同的是,今天有更多人使用互联网分享新闻和信息,以极快的速度在全球范围内传播内容,正因此,大多数观众来不及思考,只是为了寻求视觉刺激,给了假冒以广泛的空间。

但是,如果我们不采取措施来规范技术,我们就不应该认为社会会陷入欺骗和虚假信息的深渊。这项技术可以提供许多重要的好处,例如几十年前失踪儿童的成长后照片,或者为课堂上的学生们创造逼真的历史人物版本图像。立法者不应急于起草立法,而应该回顾过去,并认识到深度造假并非一些前所未有的问题。相反,深度假货仅仅代表了历史上一直使用的一系列欺骗性视听实践中的最新技术。
只要我们理解了这一事实,我们就可以确信社会会想出一些方法来减轻隐患和威胁。

Deep Fakes: Let’s Not Go Off The Deep End. Instead, deep fakes simply represent the newest technique in a long line of deceptive audiovisual practices that have been used throughout history. So long as we understand this fact, we can be confident that society will come up with ways of mitigating new harms or threats from deep fakes on its own.

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据