本文来自公众号南风窗(ID:SouthReviews)
在AI面前,“有图有真相”越发站不住脚,可当“有意造假”遇上“信以为真”和“无所谓真假”的暧昧态度,现实就变得微妙和有害。1月25日,数百张针对国际巨星泰勒·斯威夫特的不雅照、暴力图片流出,人们很快发现这些照片是假的,是心怀恶意和低俗趣味之人用AI生成的,但这些粗劣且卑劣的假货,还是在网上传播和被浏览了数亿次。社交平台X是这些虚假照片最主要的流传渠道。1月26日,在照片传播了十几个小时之后,X发布公告称,严格禁止发布非自愿的裸露图像,团队正积极删除所有已识别的图像,并对负责发布这些图像的账户采取行动。被问及此事,白宫发言人皮埃尔称,这些虚假的色情照片非常令人担忧,女性是网络骚扰和欺凌的主要目标,社交媒体需要起到规范作用,以防止错误讯息或未经同意的真人亲密图像扩散。1月26日,白宫发言人皮埃尔在记者会上回应泰勒·斯威夫特AI不雅照疯传事件X平台上,也的确一度无法以泰勒为关键词,检索出结果。恢复之后,刷屏的是粉丝的正面信息和寻常报道,那些虚假的不雅照似乎真的被抹去了。在大众场域里防色情是个老问题了,眼下它更显棘手,AI技术和互联网结合,让色情内容的生产、传播更加容易。但它的生成和传播是否获得了“同意”、出于自愿,是其中关键,却最容易被忽略,伤害也由此而来。在这个意义上,虚假泰勒色情照事件凸显了滥用AI技术带来的多重挑战,而如何让技术合乎规范和伦理,怎么降低技术滥用带来的伤害,再次成为一个议题。以泰勒为目标的虚假不雅照,是用名为“Deepfake”(深度伪造)的AI技术生成的。它最早出现在2017年,从一开始就用于色情。2017年,一个名为Deepfakes的网络用户出现,伪造出了一系列女性色情电影,包括《神奇女侠》女演员盖尔·加朵。可毕竟女明星从不缺八卦,这件事没有引起太多反响。此后,人们是在“换脸”的应用场景里感受到这项新技术的“新奇”,但移花接木的B面,是AI色情内容暗中滋长,加朵和泰勒不是仅有的受害者,这一技术最主要的用途就是生产色情内容。Home security heroes追踪Deepfake并进行统计和研究,研究者发现,2023年,Deepfake色情内容占所有在线Deepfake视频的98%。2022年,互联网上约有不到4000个Deepfake色情视频,2023年,这个数字上升到超过2万。尽管这项技术可以生成不存在于现实世界中的面孔,但技术的开源特性,也使得无法杜绝人们把它用在现实真人上。从它“深度伪造”的名字里,就能说明白它的技术原理:利用机器“深度学习”生成或伪造影像。通俗来理解,它就像婴儿刚开始学习,会把见到的所有物体都放到嘴里试吃,但经过一段时间的学习和反馈之后,婴儿会获得一种不必盲目试吃,就分辨物体能吃与否的能力。AI换脸技术通过不断获取更多的图像资料来学习和反馈Deepfake的伪造过程,涉及两种算法,一种算法生成真实图像的假副本,另一个算法来检测或辨别图像的真假。这两个模型不断训练、反馈迭代、相互竞争,最终得到一个能够生成“逼真但虚假”的图像的模型。很多时候,人们倾向于认为,AI技术有着很高的技术门槛,可一旦这个工具被人掌握和滥用,使用门槛其实很低,生产效率却奇高——甚至只需使用一张清晰的面部图像,就可以创建一条60秒的深度伪造色情视频,用时不到25分钟。以Deepfake为典型,滥用AI技术带来的一重挑战是色情内容生产前所未有的容易了,又因为亲密关系牵涉个人隐私和名誉,也成为伤害他人的武器。为了降低技术被滥用的风险,一些科技公司也在从源头上设置防线。OpenAI旗下的Dall-E,一个可以通过文本描述生成图像的AI程序,就尽可能减少了训练数据中的裸体图像,并且在实际使用过程中,阻止某些提示词的输入,以及在图片显示给用户之前扫描输出结果,以防范风险。但除非开发者社区、互联网平台更大程度地参与其中并协作,否则开源的技术仍可能让它失去控制。多份追踪报告中提及,Deepfake生成的造假色情内容中,主要针对女性。据Home security heroes的统计报告《2023年Deepfake现状》,锚定女性的比例占到99%。她们大多在娱乐行业工作,一半以上的内容针对韩国歌手和女演员。“明星的高知名度使得她们更有可能成为目标,并且她们广泛的影像资料,为Deepfake使用者提供了充足的素材。”该报告分析道。根据Sensity调查分析显示,Deepfake生成的造假内容中,娱乐业占比最大报告还提供一项数据:到2023年,用Deepfake生成的色情内容,占到了相关网站9成的份额——这告知了一个更让人诧异的现象:比起影视制作中给翻车的艺人换脸,Deepfake最先改变的是成人行业。暂且不论这是否有助于减少现实中女性被迫出卖身体,但Deepfake造假的色情内容却在更广泛的群体中,威胁着普通人的权益。或许这也是为什么,即便是成人产业的从业者,也认为“Deepfake”色情犯了禁忌。“我们以及成人产业所做的一切建立在‘同意’这个词的基础上。Deepfake从定义上来说是违背‘同意’的。”Evil Angel首席财务官亚当·格雷森说。同样追踪Deepfake视频的研究机构Sensity AI报告,Deepfake视频当中,90%以上是未经同意的色情内容,其中9成是关于女性的、未经同意的内容。这里的“未经同意”可以从被投喂给Deepfake这样的生成式AI开始算,延伸到传播环节。AI生成的假泰勒·斯威夫特带货广告在Facebook上传播相比从事成人行业的女性多少是迫于现实的无奈,不得已而卷入其中,Deepfake生成的色情内容,则更粗暴,它跳过了“获得同意”这关键一步,且让她们完全对生成的图像内容一无所知,脱离掌控。泰勒的遭遇中,Reality Defender(同样以对抗Deepfake为目标的机构)研究员发现,有数十种不同的AI生成图像,有的图片上,是泰勒被涂了颜料或浑身是血,不只将她物化,甚至对Deepfake照片上的她进行暴力伤害。这显示了新的风险:它可能演变成针对女性的暴力,而不只是人们通常以为的“满足生理需求”,基于此,有研究者把未经当事人同意而制作的Deepfake色情内容称为:基于图像的性虐待,另有一种说法称之为“数字强奸”。来自安纳伯格传播学院、一篇专门研究这个问题的文章认为:互联网虽然是探索“性”的方法,然而当未经人们同意而创建和传播虚假的裸体图像时,就会变得非常有害。作者索菲·马多克斯指出,这些算法经过训练可以从女性图像中去除衣服,替换为裸体身体部位的图像。尽管它们也可以“剥夺”男性,但这些算法通常是根据女性图像进行训练的,以至于遇到男性就无法正常合成,只是违和地贴上性器官……从他们的目标人群中可以看到,这些滥用Deepfake的人,试图通过传播有关女性的虚假信息来压制和羞辱女性。Deepfake滥用之后,类似的软件Deepnude“一键脱衣”也被开发出来不只是女明星,普通女性、甚至未成年女孩也会是目标对象。印度记者拉娜的脸被植入色情视频后,她的手机被骚扰信息淹没,她收到男性裸照,有人威胁要“撕开她的衣服,把她拖出国门”;18岁的女孩诺埃尔·马丁发现,那些伪造的照片和视频附有她的姓名和家庭地址。英国作家、广播员海伦·莫特发现,从2017年开始,就有人煽动其他网友,把她分享在社交媒体上的照片制作成暴力和露骨的影像,上传到色情网站上,还标注了她的名字,而她从未拍摄或分享过这类私密照。2020年,为了寻求更多支持,海伦在线请愿呼吁:“我的磨难让我感到害怕、羞愧、偏执和沮丧。但我不会沉默——我想请求政府迅速采取行动,将‘Deepfake’和类似的恶意内容定为非法,制定一项明确的法律来禁止拍摄、制作和伪造这些有害图像。”即便是今天,一些国家和地区已经宣布,未经同意生成和分享Deepfake色情内容属于非法行为,但实践中仍然需要更有效的、制度化的监管,对这些行为加以充分限制和追责。2020年,安妮·佩奇尼克在一篇专门分析Deepfake色情内容法律问题的评论文章中认为,当前的法律无法妥善应对Deepfake色情内容。因为使用者搜集的是在社交网络上公开过的图片,所以受害方难以“侵犯隐私”维权。肖像权索赔要求侵权者从肖像使用当中获得商业利益,但对那些仅为追求自我满足、并不从中获利的个人,却无法有效制约。安妮担心,面对那些只为个人满足、而并不试图让被Deepfake的对象发现的人,也会影响以“诽谤罪”来追责的力度。此外,无论用户发布什么内容,互联网平台都不对其内容和造成的损害承担责任,法律最多仅限于追究发布者承担伤害责任,也削弱了监管或治理的防线。Deepfake的确给诉讼维权带来了法律适用性方面的挑战,但中国台湾的一则案例及其判决提供了一些思路和希望。2020年,视频博主“小玉”朱玉宸就通过Deepfake,未经同意地将119名明星、网红的人像移植到AV女演员身上,制成色情影片,上传到云端,并通过招募会员、付费浏览的方式牟利。2021年,朱玉宸及其助理被逮捕。2022年7月,司法机关以其违反个人信息保护法作出刑事判决,朱玉宸及其助理,一审判处3~5年不等的有期徒刑。然而这一刑罚允许易科罚金,也就是通过缴纳罚金的方式代替坐牢——比起被没收的犯罪所得达1200万元,小玉的这笔易科罚金据估算不到200万元。2023年2月,受害方认为,被换脸合成的不雅影像已在网络上广为流传、无法完全删除,对受害者社会形象和精神造成极大损害与痛苦;且未与被告达成和解,之后检察官也以量刑过轻为由,提出上诉。2023年12月,当地法院审理认为,一审量刑过轻,朱玉宸改判五年刑期,不得易科罚金,另外一年零八个月的刑期可以易科罚金,朱玉宸的助理庄炘睿同为被告,二审加重改判四年零六个月刑期,允许易科罚金,案件可上诉。二审判决依据的仍然是《个人信息保护法》,通过这份判决书,个人姓名、艺名、网络昵称、人脸特征,显示出它不亚于个人隐私信息的重要性。法院审理认为,朱玉宸及其助理,收集和使用这些个人信息超出了必要范畴,让浏览淫秽视频的人得以识别特定个人,进而损害了他人名誉及社会评价。同时,他们还触犯了刑法对于贩卖淫秽影像罪。其实,这两项罪名也在一审判决中得以体现,与之相比,二审判决另外成立了一项罪名:加重诽谤罪,它和普通诽谤罪的区别在于,其以文字或影像的方式散播,而非口述传播。朱玉宸不仅滥用公众人物的名气,也严重影响了受害一方的名誉,且这一损害将在互联网上长久存在。同期作出的“侵权行为损害赔偿”的民事判决书中记录,法院同样没有聚焦于Deepfake合成视频的真假是否易于分辨的问题,直接以故意侵犯名誉权和人格权支持原告索赔。“将原告脸部特征合成于日本色情影片中的AV女演员的面部,制成猥亵影像上传至网络云端分享给付费会员浏览,社会上对于原告的评价当然有严重贬损。”判决书明确道。可即便如此,这些不雅影像既无法完全消除,被没收了非法所得,没有其他稳定收入的两名被告,也没有向受害方支付法院在更早之前支持的赔偿。
尽管Deepfake仍不够高明,技术手段或者肉眼都不难辨别AI仍显生硬的痕迹,法律也并非无法追责和惩戒。但受害者最需要的,是消除影响,我们也需要有效的手段阻断它的传播。
平台处在更有利的位置。就像X一度屏蔽对泰勒·斯威夫特的关键词检索,并删除相关内容。但事后弥补仍然不够理想,以至于,两条留言在X的声明下质疑道:为什么X上允许色情和裸体?为什么我们需要克服重重困难才能“正确”报告违规行为,为什么那么多清晰、明目张胆的非自愿创建的AI色情内容,举报之后的反馈是“未发现违规行为”,为什么要限制我们举报这些恶心帖子的数量?安妮指出其中的矛盾:这些平台是商业公司,他们的收入依赖于广告。事实上,无论是Facebook、X,还是国内的社交软件,主流社交平台都有自己的内容安全审核团队,还是员工需要提前签署保密协议的部门,其内部设有一套细致的过滤和屏蔽风险内容的指南,当然也包括色情内容,且有机器审核和人工审核多道把关。可即便如此,有引流需求的一方,也会设法以“擦边球”的方式绕过审核,这时平台监管的有效性,也就依赖于一般用户的举报,而举报的流程和成功率,又牵涉到言论表达的权利,也是需要审慎的,其间有复杂且微妙的拉扯。即便如此,更有效地防范技术滥用,仍是我们必须应对和解决的问题,而平台需要拿捏平衡,但不能免责。回到泰勒事件,尽管这位主人公尚无公开回应和维权,但粉丝给了事件一个下文。一个X用户,被认为是上传了这些Deepfake影像的造谣者之一,他一度发文挑衅:“不管泰勒的粉丝有多强大,他们永远找不到我,我就像戴着面具的小丑一样,使用假号码和地址。”一位把这个28岁的男子的个人信息人肉出来的泰勒粉丝隔空回应:我也希望我能在加拿大安大略省多伦多找到这座地址准确的漂亮房子。这是“我的”(被人肉男子的)电话号码,供任何可以提供帮助的人使用。这个男人后来发了另一段文字、举了白旗:“我们同处一个社会,在这里,泰勒的粉丝可以、并且将会把你人肉搜索到必须撤退求遗忘的地步。”这个账号的最后一条留言写道:“现在我正在和泰勒粉丝打交道,他们是一种完全不同的物种,我需要一次战术撤退。”——很快他的账号仅个人可见。对泰勒粉丝,这是一次反击,而对这项已经被滥用的技术,我们都将卷入一场竞赛,我们要比企图滥用者更早地对此抱有警惕,加以防范。同样深受其害的那位英国作家海伦,曾在请愿视频中朗诵了她的新诗,她说,将这种丑陋变成艺术是一种宣泄:“这是为了夺回权力。”