深伪色情背后被忽视的受害者
MIT Technology Review AI··作者 Jessica Klein
关键信息
Jennifer 是在 2023 年用人脸识别搜索自己早年的作品时发现这段被篡改的视频的;尽管视频里换成了别人的脸,软件仍凭她的部分面部特征把它识别了出来。文章还提到,成人表演者越来越担心自己的作品被用作 AI 生成身体的训练数据,而且有人可能会遭遇未经授权的数字复制品或冒用其形象的诈骗。
资讯摘要
文章以 Jennifer 的经历开头。她在 2023 年进入一家非营利组织做研究工作后,把自己的职业头像放进人脸识别软件里搜索,原本只是想看看系统会不会找出她十多年前拍过的成人视频。结果软件确实找到了那些旧内容,但更让她震惊的是,其中有一段视频被改过:她的身体上被换上了别人的脸。
起初,她还以为只是另一个人。直到她认出视频里那种非常显眼的背景,才发现那是自己大约在 2013 年拍摄的一段旧视频,她随即意识到“有人把我用进了深伪色情里”。她说,人脸识别之所以还能把她认出来,是因为视频里仍残留着她的一些面部特征,比如颧骨、眉骨和下巴形状。她形容这种感觉就像“我戴着别人的脸,就像一张面具”。
文章指出,关于性化深伪的讨论通常关注的是“被换上去的脸”,而很少关心“被拿来使用的身体”。这些内容属于非自愿亲密影像,简称 NCII,近年已经从名人目标扩展到更多普通女性,甚至包括一些未成年人,引发了恐惧、伤害和立法讨论。报道还回顾了“deepfakes”这个词的来源:2017 年 11 月,一名 Reddit 用户上传了把 Scarlett Johansson、Gal Gadot 等明星的脸贴到成人视频演员身体上的视频。
文章进一步说明,成人内容创作者正面临新的剥削形式。过去,他们的身体可能不再是以可识别的方式直接从性影像中“剪”出来,但这些作品仍然可能被用作训练数据,帮助 AI 生成新的身体动作和表现。这样一来,AI 生成的裸体和成人视频可能会抢走真人创作者的生意,也会侵蚀他们的权利。更严重的是,AI 现在还能在未经同意的情况下,完整复制这些表演者的形象,并让数字替身做出真人不会接受的性行为,甚至被用来欺骗粉丝。
Jennifer 和其他受访创作者都表示,知道自己的身体被未经同意地使用,会带来明显的心理压力。他们也担心盗版和 AI 复制会造成经济损失。专门研究成人行业的律师 Corey Silverstein 说,他几乎每天都会接到演员的咨询,大家都在担心自己的内容被 AI 滥用,并努力想办法自保。
文中还引用了一位研究针对女性暴力的法律教授,她把这些创作者称为 NCII 深伪中的“被遗忘的受害者”。文章最后指出,随着美国正在为打击网上非自愿性内容建立法律框架,成人表演者担心自己不但得不到保护,反而可能因为现有法律和执法方式没有充分考虑他们的处境而受到进一步伤害。

资讯正文
2023年,Jennifer找到一份为一家非营利机构做研究的工作后,她把自己新的职业头像放进了一个人脸识别程序。她想看看这项技术会不会调出她10多年前、20出头时拍摄的色情视频。结果它确实返回了其中一些内容,而且还显示出一件让她震惊、她此前从未见过的东西:她的一段旧视频,但她的身体上却换成了别人的脸。
“起初,我以为那只是另一个人,”Jennifer说。出于保护隐私,她使用的是化名。
但随后,她认出了视频里一个鲜艳得有些刺眼的背景——那是她大约在2013年拍摄的一段视频里的背景,她这才意识到:“有人把我做成了深度伪造。”
诡异的是,人脸识别技术之所以能识别出她,是因为图像里仍然保留着Jennifer的一些特征——她的颧骨、眉骨和下巴的形状。“就像我戴着别人的脸当面具,”她说。
关于带有性暗示的深度伪造——它们属于“非自愿亲密影像”(nonconsensual intimate imagery,简称 NCII)的范畴——的讨论,最常聚焦于那些脸被放到自己并未真正做过的事情上,或者被放到并不属于自己的身体上的人。这些人往往是知名公众人物;不过在过去几年里,越来越多的人(主要是女性,也有一些青少年)成为目标,引发了恐慌、担忧,甚至推动了立法。但这些讨论和社会回应通常并不会关注在这些图像和视频中,脸被贴上去的那些身体。
正如现年37岁、在纽约市担任心理治疗师的Jennifer所说:“从来没有人讨论过,这是谁的身体?”
多年来,这个问题的答案通常都是成人视频创作者。事实上,深度伪造(deepfake)这个名称早在2017年11月就出现了,当时一位用户名为“deepfakes”的 Reddit 用户上传了视频,把斯嘉丽·约翰逊(Scarlett Johansson)、加朵(Gal Gadot)等明星的脸贴到了色情演员的身体上。专门从事成人产业的律师 Corey Silverstein 说,在深度伪造中,未经同意使用这些演员身体的情况“总是会发生”。
色情演员的身体如今未必还会直接从性影像和视频中取用,至少不是以可识别的方式。相反,它们不可避免地会被用作训练数据,用来影响新生成的 AI 身体会长什么样、怎么移动、如何表现。这威胁着色情演员的生计和权利,因为他们的作品被用来训练 AI 裸体图像,而这些图像反过来又可能夺走他们的生意。事情还不止于此:AI 的进步也让人们能够在未经同意的情况下,完全重建这些表演者的外貌,而且这些 AI 山寨品还可能做出表演者在现实生活中不会做的事情。这可能意味着,他们的数字替身正在参与某些他们并未同意的性行为,甚至在对粉丝实施诈骗。
成人内容创作者本来就已经处于边缘地位;社会在很大程度上未能保护他们的安全和权利,而这些新发展又让他们处于更加脆弱的位置。Jennifer 发现了一段使用她身体制作的 deepfake 后,在社交媒体上发帖谈及其心理影响:“我从没见过有人问过,这对那个身体被未经同意使用的人来说会不会也是一种创伤。会的!”我采访的其他几位创作者也分享了这种痛苦:知道自己的身体被未经同意地使用,会带来沉重的精神负担;与此同时,随着别人盗版他们的作品,他们也担心自己会遭受经济损失。Silverstein 说,他每天都会接到成人演员的来电,他们“担心自己的内容正被通过 AI 牟利,并且他们正试图弄清楚该如何保护它”。
一位研究暴力侵害女性问题的法学教授称这些创作者是 NCII deepfake 的“被遗忘的受害者”。我采访的几个人还担心,随着美国制定打击网络上非自愿性内容的法律框架,成人演员只会面临进一步受害的风险;与其帮助他们,对 deepfake 的打击反而可能提供一个漏洞,使他们的内容和职业生涯被彻底从互联网上抹去。
deepfake 如何造成“具身伤害”
在 20 世纪 70 年代的少年时期,如今已是色情演员兼成人内容平台 XChatFans 总裁的 Spike Irons,曾经“深深迷恋”Farrah Fawcett。虽然 Fawcett 并没有拍过裸照,但 Jones 设法弄到了一些看起来像是她裸体照片的东西。“人们会把脸剪下来,再贴到身体上,”Irons 说,“在 AI 出现之前,deepfake 这种东西已经流传了相当长时间。只不过当时没有现在这么泛滥。”
早期的公共互联网充斥着各种网站,它们利用这样一种想法来牟利:你可以借助技术“看见”名人裸身的样子。“人们只会用 Microsoft Paint,”律师 Silverstein 说。这是一种把名人脸部与色情内容拼接起来的简单方法。
后来,人们又开始使用 Adobe After Effects 或 FakeApp 之类的软件;后者专门用于在图片或视频中互换两个人的脸。这些程序都不需要很高深的技术就能篡改内容,因此进入门槛很低。再加上网络上大量色情演员的视频,到了 2010 年代,使用真实身体的换脸 deepfake 便变得十分普遍。后来在那个 दशक末,Gal Gadot 和 Emma Watson 的 deepfake 引发了一定程度的更广泛恐慌,据称她们的脸分别被替换到了色情演员 Pepper XO 和 Mary Moody 的身体上。
但被使用的不只是像她们这样知名度很高的演员。Jennifer 说自己“只是个非常不起眼的表演者”。她说:“如果这事发生在我身上,我觉得任何拍过色情片的人都可能遇到这种事。” Silverstein 说,自 2006 年开始执业以来,他“有许多客户”联系他,报告说:“这是我的身体,出现在了某某人那里。”
脸出现在 NCII 深度伪造内容中的人,以及身体被这样利用的人,都会感到严重的痛苦。英国战略对话研究所的性别暴力研究员 Anne Craanen 说,专家把这种伤害称为“具身伤害”(embodied harms)。该机构分析极端主义内容、虚假信息和网络威胁。
这个术语反映出一个事实:即便内容存在于虚拟世界,也会造成生理影响,包括身体畸形恐惧。被换脸的形象占据了“恐怖谷”,扭曲了自我认知。专家告诉我,在发现自己的脸出现在性深度伪造内容中后,许多人会感到被噤声;正如 Craanen 所说,他们可能会“自我审查”,并从公众生活中退后。为受虐待幸存者提供法律服务的律师 Allison Mahoney 表示,脸出现在 NCII 内容中的人可能会经历抑郁、焦虑和自杀意念:“我有多位客户告诉我,他们晚上睡不着觉,头发也在掉。”
尽管对身体被使用者的影响并没有像这类内容那样经常被讨论或研究,但 Jennifer 说,“知道自己成了别人施虐的一部分,这种感觉真的非常糟糕。”她认为这类似于“一种新的性暴力形式”。
不知道自己的身体在网上被用来做什么,这种不确定性会让人极度不安。像 Jennifer 一样,许多成人演员其实并不知道网上流传着什么。不过,一些忠实粉丝对演员的身体非常熟悉——他们往往能认出纹身、疤痕或胎记——而且“他们会很快把[深度伪造内容]告诉那位成人电影演员”,Silverstein 说。演员们也可能偶然发现这些内容;例如大约 20 年前,Silverstein 接到的第一位告诉她自己的身体被用于深度伪造的客户,正是在网上搜索 Nicole Kidman 时,发现其中一条结果把 Kidman 的脸放到了她的色情内容上。“她显然非常崩溃,因为他们偷走了她的身体,”他说,“而且他们还在把它变现。”
否则,这类影像可能会被像 Takedown Piracy 这样的机构找到;这是为成人内容创作者提供服务的多家版权执法公司之一。Takedown Piracy 的首席运营兼营销官 Reba Rocket 说,如果某人的身体缺乏明显特征,美国的版权侵权会很难证明。但 Rocket 表示,她的团队已经在客户的素材中加入数字指纹技术,以帮助标记并移除有问题的视频,而且往往会在客户意识到它们已上线之前就先发现它们。
Rocket 说,数字指纹通过从视频中捕捉“数以万计极其微小的视觉数据点”,生成可用于识别它们的独特对应文件,有点像一种看不见的水印。即使盗版者篡改视频或替换表演者的脸,这些指纹仍然存在。Takedown Piracy 已经为超过 5 亿个视频做了数字指纹处理,而该组织仅从 Google 就下架了 1.3 亿个受版权保护的视频(不过,在这些视频中,Rocket 尚未统计有多少视频具体是把别人的脸放到了表演者的身体上)。
除了版权之外,还有一系列法律工具可用于尝试打击 NCII,圣克拉拉大学法学教授 Eric Goldman 说。例如,受害者可以主张隐私侵权。但使用这些工具并不特别简单,而且在涉及某人的身体时,它们甚至未必适用。如果深度伪造中的身体没有例如可识别出该身体属于其声称者的独特标记,美国法律“并不会真正把[这类内容]视为隐私侵权”,Goldman 说,“因为我们不知道该把它归到谁名下。”
在一项回顾涉及 NCII 案件“司法裁决”的 2018 年研究中,Goldman 发现,原告能够赢得案件的一种成功方式是主张“故意造成精神痛苦”。但同样,这取决于能否清楚地识别内容中的人物。他补充说,相关法规可能还要求“意图伤害该个人”,而对于那些仅有身体出现在内容中的人来说,这一点可能很难证明。
“AI 女孩会做你想让她们做的任何事”
Silverstein 说,在过去几年里,至少在深度伪造中以一种让人能够清楚识别的方式看到真实成人内容创作者的身体,已经变得越来越少见。
有时,这些身体是通过 AI 或更简单的编辑工具被篡改的。这种修改可以很基础,比如抹去一个胎记,或改变身体某个部位的大小——这些微小编辑会让人无法在合理怀疑之外识别出某人的影像,因此,即便色情演员能够看出一张被篡改的图像是以自己的身体为基础,他们在法律层面上也很难有什么作为。Silverstein 说:“很多人都会说,‘那看起来像我的身体。’”但当他问他们为什么时,他们会回答说,“就是像。”
与此同时,其他用户现在正在用完全由 AI 生成的身体制作 NCII。在“nudify”应用中,任何对技术有一点点了解的人都可以上传一张穿着衣服的人的照片,并让系统把它替换成一张假的裸体照片。Silverstein 说:“这类内容中有[很大一部分],其实就是把某个人的脸放在一个 AI 身体上。”
这类应用最近引起了大量关注,从 Grok 为未成年人“nudifying”,到 Meta 投放广告推广随后又起诉 nudify 应用 Crushmate。但人们对用来训练这些应用的内容关注相对较少。它们几乎肯定会利用超过 10,000 terabytes 的线上色情网内容,而表演者几乎没有任何补救途径。
原因之一是,创作者无法以任何确定性的方式证明,他们的内容被用来训练了像 nudify 应用所使用的那类 AI 模型。加州大学伯克利分校专攻数字取证的教授 Hany Farid 说:“这些东西全都是黑箱。”但他补充说,“鉴于”成人内容的普遍存在,在线色情网内容被用于 AI 训练是一个“合理的推断”。
“要在互联网上找色情数据集,简直一点都不难,”研究深度伪造技术的 MIT 计算机科学博士生 Stephen Casper 说。他还表示,许多隐秘的网络社群会提供如何利用这些数据训练 AI 的“用户指南”,尤其是用于生成裸照的程序。
目前尚不确定这种活动是否落入美国法律对“合理使用”的定义——这一问题正被其他类型内容创作者提起的多起诉讼所争议——但 Casper 认为,即便它属于合理使用,让10年前由同意拍摄的成年人创作的色情内容最终被纳入这些训练数据集,在伦理上仍然是模糊不清的。他说,当人们“把自己的东西以一种并不尊重,或者并不符合他们当时对于自己所创作内容以及其使用方式之合理预期的方式被使用”时,“从某种合法的意义上说,这多少有点……非自愿”。
那些多年前就开始工作的成人表演者,根本不可能同意任何与 AI 有关的事情;Jennifer 将 AI 相关风险称为“被追溯附加上的”。Silverstein 补充说,色情演员在 AI 出现之前签署的合同,可能会写明“发行方可以用技术去处理内容,而这种技术现在存在,或者今后才会被发明出来”。在当年制片人谈论从 VHS 转向 DVD 的变化时,这种说法显得没那么刺耳,因为那并没有改变内容本身,只是改变了传播方式。可如果有人把你的内容拿去训练一个程序,用来生成新内容——那就完全是另一回事了……这种内容甚至可能彻底取代你的工作。
当然,这一切最终都会影响创作者的收入——这与 Google 的 AI 概览对在线出版商收入的影响并无二致;当人们只看 AI 生成的摘要就满足时,这些出版商已经失去了点击量。Rocket 说,表演者的“担忧是……这又是一种盗用[他们]内容的方式”。
毕竟,独立创作者并不只是像成人视频创作者 Allie Eve Knox 所说的那样“在镜头前发生性行为”。他们要为拍摄设备和场地租赁付钱,还要花费数小时进行剪辑和营销。她说,后来有人为了“自己的娱乐或经济利益”去剽窃并扭曲这些内容,“真的他妈糟透了”。
长期从事成人视频创作的 Tanya Tate 向我讲述了另一种令人极度不安的 AI 伪造经历:她最近在 Mynx 这款调情短信应用上与一名粉丝聊天时,对方问她是否认识他。她告诉他不认识,Tate 说,“他的眼睛一下子就开始流泪了。”那个人很伤心,因为他以为她确实认识他。结果发现,他把 20,000 美元转给了一个骗子,而骗子用的是 Tate 的 AI 生成深度伪造形象来诱骗他。
Tate随后得知,有几名男子被她的AI版本骗了,其中一些人开始把自己的损失归咎于她,并在网上发布有关她的虚假言论。她说,当她把一名尤其具有攻击性的骚扰者报告给警方时,警方告诉她,对方只是在行使“言论自由”。Rocket也很熟悉AI被用来利用粉丝的情况。她说:“真正的内容创作者会收到这些被骗者发来的恶劣邮件。”
其他成人电影演员表示,她们担心自己的肖像被未经同意地用于做一些她们不会做的事情。其中一位Octavia Red告诉我,她不拍肛交场景,“但我敢肯定,有很多未经我同意制作的深度伪造肛交视频。”她担心,如果观众选择观看那些视频而不是订阅她的网站,这会让她蒙受损失。它还可能让粉丝对她会创作什么类型的色情内容产生错误期待。
Rocket说:“我看到过一个AI创作者说,‘AI女孩会照你想要的做任何事。她们不会说不。’”她说,“这让我感到恐惧……尤其是如果他们是在拿真人训练这些AI模型。我认为他们并不理解这会给心理健康或名誉造成多大的伤害。而一旦它上了互联网,就永远都在那里。”
“努力把成人内容从互联网上清除”
随着AI技术不断进步,人们越来越难仅凭自己分辨任何类型的真实视频和最好的AI生成视频之间的区别。在伯克利加州大学Farid于2025年开展的一项研究中,参与者正确识别AI生成声音的概率约为60%(只比随机猜测好一点),而诸如虚假的心跳等进展,让AI生成的人类比以往任何时候都更难被识别出来。
尽管如此,我采访的大多数律师和法律专家都表示,在美国法律体系中,版权法仍然是成人表演者最好的办法,至少在让被换脸的内容下架这件事上是如此。Silverstein说,对他的客户来说,他会先设法弄清内容的来源,然后依据1998年、为互联网时代调整版权法的《数字千年版权法案》(Digital Millennium Copyright Act)提出删除请求。“就连最近,我也遇到过一位表演者,她身上有一个极其有名的纹身,”他说,借助DMCA传票,他设法确认了该内容的发布者,而对方随后自愿将其删除。
但这种做法正变得越来越少见。
Silverstein说,如今要确定是谁制作了某个深度伪造内容,几乎“是不可能的”,因为许多托管盗版内容的平台都以匿名方式运作。Rocket则表示,这些平台往往还位于一些“在版权问题上并不真正关心美国法律”的地方——比如俄罗斯、塞舌尔和荷兰。
尽管欧盟、英国和澳大利亚的政府都表示将禁止或限制人们使用 nudify 应用,但这并不是一项容易执行的举措。正如 Craanen 所指出的,当应用商店下架这些服务时,它们往往只是换个名字重新出现,提供的仍是同样的服务。而 Rocket 认为,人们在社交平台上分享 NCII deepfakes 时,这些平台在删除内容方面也动作迟缓。“这永无止境,而且很荒唐,因为像 Twitter 和 Facebook 这样的平台拥有和我们一样的技术,”Rocket 说。“它们可以立刻识别出某样东西构成侵权,但它们选择不这么做。”
(苹果发言人 Adam Dema 通过电子邮件表示,App Store 中的“nudification”应用“违反我们的准则”,公司已经“主动拒绝了许多此类应用,并删除了其他许多应用”,并为用户标注了一个举报入口。谷歌发言人通过电子邮件表示,Google Play 不允许包含色情内容的应用,称公司会“采取主动措施检测并移除有害内容的应用”,并已因违反政策暂停了数百个应用。Meta 发言人分享了一篇关于其针对 nudify 应用所采取措施的博客文章,但未回应关于受版权保护材料的后续问题。X 未回应置评请求。)
当色情表演者被迫应对与 AI 相关的威胁时,目前唯一一部针对 deepfake 的联邦法律可能帮不上他们多少——甚至可能让情况更糟。去年成为美国法律的《Take It Down Act》将发布 NCII 定为犯罪,并要求网站在 48 小时内将其删除。但正如 Farid 所指出的,人们可以通过举报合法制作且经同意的色情内容,并声称它属于 NCII,来把这项法案武器化。这样做可能会导致内容被删除,从而伤害制作这些内容的表演者。圣克拉拉的 Goldman 指向 Heritage Foundation 为第二个特朗普政府制定的政策蓝图 Project 2025,该蓝图旨在把色情内容从网络上清除。他认为,《Take It Down Act》“允许协调一致地把成人内容从互联网中抹去”。
美国立法者在试图监管网络露骨内容时,一直有伤害性工作者的历史。州一级的年龄验证法律就是一个例子;访问者其实很容易绕过这些措施,但它们仍然会导致成人表演者收入减少(因为这些网站的流量下降,而且他们不得不购买高价的年龄验证服务)。
“他们总是在搞些事情来折腾色情产业,但不是以真正帮助性工作者的方式,”Jennifer 说。“如果他们真要做点什么,那就是再次拿走你的收入——而不是像赋予你对自己影像更多权利这种事,[那]会非常有帮助。”
但随着生成式 AI 在 NCII deepfakes 中扮演越来越重要的角色,成人表演者拥有权利的那些图像类型正进一步滑入灰色地带。演员能否主张对可能是基于他们身体训练出来的 AI 图像拥有权利?那种伪装成他们的 AI 生成视频呢,比如骗过 Tanya Tate 粉丝的那一段?
最大的挑战将是制定“合法、有效的法律,绝对保护内容创作者免于其肖像被滥用于训练和创建 AI”,Rocket 说。“如果做不到这一点,我们就只能继续把互联网上那些假的内容下架。”
与此同时,几位色情演员告诉我,他们正试图利用并非真正为他们设计的版权法;他们已经与托管其 AI 生成复制体的平台签约,粉丝可以在那里付费聊天,部分原因是这样他们就会有合同来保护自己 AI 肖像的所有权。2025 年 9 月,我为一篇关于成人创作者“AI 双胞胎”的报道采访演员 Kiki Daire 时,她说,因为她与托管成人表演者 AI 复制体的网站 Spicey AI 签了合同,所以她“拥有[她的] AI”。她补充说,如果另有公司或个人创建了她的 AI 生成肖像,“我就站得住脚,至少可以把它下架。”
不过,即便如此也并不稳妥;例如,在我与 Daire 谈完几个月后,Spicey AI 就关闭了,因此她的合同很可能也无法继续有效。而当我在 10 月采访另一位成人演员 Rachael Cavalli 时,她也曾与一个 AI 复制体网站签约,希望这能帮助保护她的 AI 形象。她承认:“我没有时间坐在那里,寻找那些使用了我的形象,或者把某些东西变成了我实际上并没有拍过的视频的公司……这太费工夫了。”换句话说,即便在纸面上拥有自己 AI 形象的权利,也并不会让你更容易在网上追踪所有那些可能无限多的权利侵害。
Jennifer 说,如果她早知道自己如今对技术的了解,她觉得自己大概不会去拍色情片。风险已经变得太大,而且太难以预测。她现在做的是线下性工作;她说这“未必更安全”,“但风险类型不同,我觉得自己更有能力去应对。”
此外,她认为,AI 不太可能像取代色情演员那样取代线下性工作者:“我不觉得会出现脱衣舞机器人。”
Jessica Klein 是一位常驻费城的自由撰稿记者,报道亲密伴侣暴力、加密货币以及其他主题。
来源与参考
收录于 2026-05-15