Taylor Swift 身陷不雅照风波:AI 越强、Deepfakes 越猖狂,微软和推特们无法推责
想象一下,你醒来发现有人在未经你同意的情况下制作了关于你的虚假不雅内容,而且它还在互联网上广泛流传……这样的事情就被流行乐巨星 Taylor Swift 遇上了。
上周三,未经同意的 Taylor Swift 的露骨 Deepfakes 在 X 上疯传,在发布这些图像的账户被暂停之前的 19 小时内,获得了超过 2700 万次观看和超过 26 万个点赞。由于内容过于露骨,这里就不展示涉事原图了。
X 上描绘 Swift 裸体场景的 Deepfakes 内容继续激增,其中包括病毒式传播的 Deepfakes 图像,后来甚至获得了高达千万级别的浏览量。图像上的水印表明它们来自一个已有多年历史的网站,该网站以发布假冒名人裸照而闻名。该网站的一部分标题为“AI Deepfakes”。
上周四,话题标签 #ProtectTaylorSwift 开始在 X 上流行。这些图像首先上传到 Telegram,随后迅速在社交媒体上转发,浏览量达数百万次,并且在某些平台上尚未被删除。
作为回应,X 似乎在图像出现几天后禁止了对 Swift 名字的搜索,但在过去两年里削减了三分之一的内容审核员之后 ,这种努力太少、太晚了。
这种未经当事人同意的疯狂行径,再次将 AI Deepfakes 问题推上了风口浪尖。其实在此次事件之前,人们就已经开始对网上流传的 Deepfakes 素人色情制品表达担忧。如今巨星 Taylor Swift 也被拖入泥潭,瞬间彻底引爆整个舆论场,而微软也被牵涉其中。
404 Media 的报告表明, 那些图片来自基于 Telegram 的非自愿色情制作社区,该社区建议使用 Microsoft Designer 图像生成器。设计师理论上拒绝生成名人的图像,但人工智能生成器很容易被欺骗,可以通过对提示进行小的调整来打破规则。虽然这并不能证明 Designer 被用于 Swift 图片,但这是 Microsoft 可以解决的技术缺陷。
微软首席执行官 Satya Nadella 对此做出了回应。Satya 称未经同意的模拟裸体的泛滥“令人震惊和可怕”,并表示,“保障网络世界的安全性对每个人都有好处。因此,我想没人愿意接受一个内容创作者和内容消费者都缺乏安全保障的网络环境。我们有必要以此事为契机迅速采取行动。”
Satya 称,已经成功地解决了漏洞,但回应中对具体技术问题的提及很少:
“我们需要在技术周围设置护栏,以确保生产出更多安全的内容。目前有很多工作正在进行中,但仍有更多事情需要我们去做。但这是全球社会需要在某些规范上达成共识,特别是当法律、执法和技术平台能够紧密结合时,人类有能力管理比自认为要多得多的问题。”
微软人工智能工程主管 Sarah Bird 证实称,“我们正在继续调查这些图像,并加强现有的安全系统,进一步防止我们的服务被滥用于生成类似的图像。”
对于马斯克的 X,虽然其已禁止可能对特定人群造成伤害的行为,但在解决平台上的露骨色情 Deepfakes 问题上却行动迟缓,甚至并未解决。
1 月初,一位 17 岁的漫威明星 公开表示,她在 X 上发现了自己的露骨色情 Deepfakes,但无法将其删除。2023 年 6 月,该平台上还流传着未经同意的 TikTok 明星露骨色情 Deepfakes,在联系 X 征求意见后,仅删除了部分材料。
随着 AI 技术变得更加复杂和普遍,这个问题似乎每年都变得更加严重。
Deeptrace Labs 2019 年 9 月的一份报告发现,未经同意的 Deepfakes 色情内容占所有在线 Deepfakes 视频的 96%。2023 年 10 月,《连线》 分享了一位匿名独立研究人员的调查结果,该研究发现 2023 年前 9 个月,有 113,000 个 Deepfakes 视频被上传到最受欢迎的 Deepfakes 色情网站,比 2022 年全年上传的 73,000 个大幅增加。
不少“霉粉”在举报这些不当图像之余,也纷纷表达了对于法律监管缺失的失望之情。
美国白宫新闻秘书 Karine Jean-Pierre 宣称国会“应采取立法行动”以杜绝伪造的不适宜工作场所(NFSW)图像。她在接受 ABC 新闻采访时表示,“我们对……此次色情图像广泛传播的报道感到震惊——更确切地说,应该叫伪造图像。”
与此同时,Jean-Pierre 还敦促包括 X 在内的各社交媒体应用删除这些图像,防止不当内容在网络上进一步扩散。她补充道,“虽然社交媒体公司在内容管理方面拥有独立的决策权,但我们相信,他们可以、也应当在执行管控规则、防止错误信息及未经本人同意的敏感图像传播等方面发挥重要作用。”
本月早些时候,美国众议院议员 Joe Morelle(纽约州民主党人)和 Tom Kean(新泽西州共和党人)重新提出了《防止敏感图像 Deepfakes 法案》。该法案旨在将生成和传播未经本人同意的露骨图像定性为刑事犯罪,且最高可判处十年监禁。
Dorota 本人就是 Deepfakes 色情图像的受害者,并因无法阻止不当内容的传播而深感痛苦。
Francesca 在发言中强调,“虽然我还年轻,但我的声音仍然充满力量。面对这样的事态,我绝不可能保持沉默。我们必须勇敢表达立场,反抗我们面临的不公。这件事已经对我本人和我的同学造成严重影响,我不会双手一摊、假装无事发生。”
“我在这里强烈呼吁推动变革,为立法而战,这样才能避免更多人像去年 10 月 20 号的我那样深陷迷茫和无助。我们的声音就是我们的武器,我和妈妈要求建立一个更安全的网络世界——这不只是要存留公义和希望,更是为了改善大家身处的现实环境。”
该法案已经于 2023 年被提交给国会,随后由众议院司法委员会接手,但当时并未采取任何行动。
我们并非没有对抗现实的武器,新的工具和法律有望遏止这类不当图像,并帮助我们有效追究肇事者的责任。
社交媒体平台会筛选上传到其网站上的帖子,并删除其中有违政策的内容。但从 X 上传播的 Swift 视频来看,整个管控过程其实不够完整,可能漏掉大量有害内容。此外,如何区分真实内容与 AI 生成内容也是个重大难题。
作为一种可行的技术解决方案,水印能够在图像中隐藏某些不可见信号,帮助计算机识别内容是否由 AI 生成。例如,谷歌就开发出名为 SynthID 的系统,该系统利用神经网络修改图像中的像素点,借此添加人眼无法察觉的水印。即使图像经过进一步编辑或截屏,该标记仍可被正确检测。理论上,这些工具能够帮助企业改进内容审核能力,更快发现包括未经同意 Deepfakes 图像在内的各类伪造内容。
这种方式的优点是:水印的实用性很强,有助于轻松、快速识别 AI 生成的内容,据此发现被删除的有毒帖子。Hugging Face 研究员 Sasha Luccioni 曾对 AI 系统中的偏见问题进行过系统研究,她表示默认在所有图像中包含水印,能够有效遏制不良分子生成 Deepfakes 内容的行为。
不足则是:这类系统仍处于实验阶段,尚未得到广泛使用。顽固的恶意人士也能找到回避水印的手段。相关企业并没有将水印技术应用于全部 AI 生成图像。例如,谷歌 Imagen AI 图像生成器的用户可以自主选择是否在 AI 生成图像中添加水印。种种现实因素,无疑限制了水印技术在打击 Deepfakes 色情内容方面的作用。
目前,互联网上现存的一切图像都可能被用于生成 Deepfakes 内容。而随着新型图像生成 AI 系统复杂度的提升和效果的持续改善,我们其实越来越难以分辨什么是真、什么是假。
但各种新型防护工具正尝试修改图像,扰乱 AI 系统对内容的理解和处理,从而保护个人免受 Deepfakes 伪造技术的侵扰。
以麻省理工学院研究人员开发的 PhotoGuard 工具为例,它就像是一层隐形护罩,能够以人眼不可见的方式改变照片中的像素。而一旦有人使用 Stable Diffusion 等 AI 图像生成器处理这些经 PhotoGuard 修改的图像,将无法得到预期中的输出结果。
芝加哥大学研究人员开发的 Fawkes 也属于同类工具,它会使用隐藏信号保护图像内容,保证人脸识别软件难以识别图像中的人脸。
另一款新型工具名为 Nightshade,同样可以保护人们免遭 AI 系统的影响。该工具也是由芝加哥大学研究人员开发,能够为图像添加看不见的“毒化”层。这款工具是为了保护受版权保护的艺术图像免受科技企业在未经创作者同意下的窃取和使用而开发的。但从理论上讲,这项技术也能帮助所有者的任何图像免受 AI 系统的戕害。一旦科技企业未经所有者同意从网上获取训练素材时,这些有毒图像将破坏 AI 模型,例如导致其将小猫、甚至是 Taylor Swift 的图像识别为小狗。
这种方式的优点是:这些工具能够提高恶意人士利用网络图像生成有害内容的难度。Ajder 表示,相关技术在个人防止 AI 图像滥用方面带来了希望,普及之后将大大增强约会应用和社交媒体公司对伪造内容的监管力度。
不足则是:这类护罩虽适用于最新一代 AI 模型,但无法保证在后续模型版本中继续稳定起效。另外,它们并不适用于已经存在于网络上的图像,更无法保护随处可见的名人素材,毕竟名人们无法控制自己的哪些照片会被传播到网上。
“这将掀起一场旷日持久的技术军备竞赛。”道德 AI 咨询与审计公司 Parity Consulting 创始人 Rumman Chowdhury 表示。
技术修复的力量是有限的,颠覆性的深远变化终究离不开严格监管的加持。
Taylor Swift 的 Deepfakes 事件不仅引发广泛关注,也给打击此类恶意行为注入了新的动力。美国白宫方面表示此次事件“令人震惊”,并敦促国会采取立法行动。
截至目前,美国仍然在以各州为单位分别出台监管法规。例如,加利福尼亚州和弗吉尼亚州已经禁止未经本人同意生成 Deepfakes 图像,纽约州和弗吉尼亚州还禁止传播此类内容。美国国会最近重新提出一项新的两党法案,要求将传播伪造裸照定性为刑事犯罪。新泽西州一所高中的 Deepfakes 丑闻也曾敦促立法者认真对待《防止敏感图像 Deepfakes 法案》。此番 Swift 事件引发的广泛关注,或将为法案吸引到更多来自两党的支持力量。
世界各地的立法机构正纷纷推动对 Deepfakes 技术的严格管控。英国去年通过的《在线安全法案》就禁止传播 Deepfakes 色情内容,但并未禁止相关创作。传播者可能面临最高六个月的监禁。
在欧盟方面,一系列新法案也尝试从不同角度解决这个难题。全面的《人工智能法案》要求 Deepfakes 创作者应明确披露相关素材是由 AI 生成,而《数字服务常规赛》则要求科技企业加快有害内容的删除速度。
中国在 2023 年生效的 Deepfakes 立法方面走得最远。在中国,Deepfakes 创作者须负责采取措施以防止其服务用于非法或有害目的,且在制作 Deepfakes 内容前必须征求用户同意、验证真实身份,并将输出的内容标记为 AI 生成。
这种方式的优点:监管机构将为受害者提供追索权,对未经同意制作和传播 Deepfakes 色情内容者追究责任,由此构成强大的威慑力。相关立法还发出了明确信号,即未经当事人同意制作 Deepfakes 属于违法行为。
Ajder 指出,随着法律和公众认知广泛将制作 Deepfakes 色情内容视为性犯罪活动,真正的转机也将由此出现。“这将改变一些人对此类内容的冷漠态度,打破内容无害或者不属于实际性虐待形式的错误认知。”
有不足则是:此类法律的执行难度很高。从目前的技术形式来看,受害者仍很难揪出始作俑者并对其提起诉讼。另外,Deepfakes 的实际制作者很可能身处不同司法管辖区,这也会进一步加大起诉难度。
Deepfakes 并非新鲜事物,多年之前就已相当猖獗。然而,生成式 AI 技术的兴起,正在不断降低利用 AI 生成图像和视频制作 Deepfakes 色情及性骚扰内容的门槛。
专门研究生成式 AI 与合成媒体的 AI 专家 Henry Ajder 表示,在与生成式 AI 相关的所有恶意行为当中,在非自愿情况下受 Deepfakes 影响的人数最多,而且女性在其中占极高比例。
针对 Deepfakes 的解决方案通常侧重于区分“真”和“假”,但对于大多数受害者来说,这没有帮助:无论哪种方式,许多受害者都表示感觉自己受到了侵犯。抑郁、性创伤和创伤后应激障碍是受害者的常见经历,他们很难在心理上感到安全。
因此,“技术向善”、“不作恶”是开发者、技术使用者共同的责任。
相关链接:
https://www.technologyreview.com/2024/01/29/1087325/three-ways-we-can-fight-Deepfakes-porn-taylors-version/
https://www.theregister.com/2024/01/30/nudes_taylor_swift_action/?td=rt-3a
https://www.theverge.com/2024/1/26/24052196/satya-nadella-microsoft-ai-taylor-swift-fakes-response
声明:本文由 InfoQ 翻译整理,未经许可禁止转载。
比VS Code快得多!用Rust重写,支持OpenAI、Copilot 的Zed编辑器开源了
淘宝启动鸿蒙开发,微信会跟进吗?马云抄底阿里;“哄女友挑战”上线即爆火,24 小时用户达 60 万 | Q 资讯
2024 年 InfoQ 技术会议 7 折特惠,最后 1 天!
线上聊千遍,不如线下见一面。咨询购票可联系票务经理 17310043226 。点击「阅读原文」可查看会议详情,期待与各位开发者现场交流。
微信扫码关注该文公众号作者