数以千计的虐童图像正在被人工智能制作出来。随着犯罪分子交易数据集,旧受害者的新图像也不断出现。
专家警告说,一个由人工智能生成的超逼真儿童性虐待图像的可怕新时代正在到来。犯罪分子正在使用可下载的开放源码生成人工智能模型,这种模型可以生成图像,并产生破坏性影响。这项技术正被用于制作数百张以前曾被虐待过的儿童的新图像。犯罪分子正在共享可用于定制人工智能模型的虐待图像数据集,他们开始按月销售人工智能生成的儿童性虐待材料(CSAM)。
互联网观察基金会(Internet Watch Foundation,简称 IWF)发布了一份内容广泛的新报告,详细介绍了这项技术是如何被滥用的。今年 6 月,IWF 称已在公开网络上发现了 7 个URL,其中包含疑似人工智能制作的材料。现在,该组织对一个暗网 CSAM 论坛进行了调查,发现了近 3000 张人工智能生成的图片,IWF 认为这些图片违反了英国法律。
根据 IWF 的研究,人工智能生成的图片包括强奸婴幼儿、虐待著名的未成年儿童以及以青少年为主角的 BDSM 内容。IWF 首席技术官丹-塞克斯顿(Dan Sexton)说:”我们已经看到了以名人为主角的儿童性虐待材料的需求、讨论和实际案例。塞克斯顿说,有时,名人被去年龄化,看起来像儿童。在其他情况下,成年名人被描绘成虐待儿童的人。”
虽然与网上发现的真实虐待图片和视频数量相比,人工智能生成的 CSAM 报告仍然相形见绌,但塞克斯顿表示,他对人工智能的发展速度及其为新型虐待图片带来的可能性感到震惊。这些发现与其他调查 CSAM 网络传播的团体的发现是一致的。加拿大儿童保护中心(Canadian Centre for Child Protection)信息技术主管劳埃德-理查森(Lloyd Richardson)告诉《WIRED》,在一个共享数据库中,世界各地的调查人员已经标记了 13500 张人工智能生成的儿童性虐待和性剥削图片。理查德森说:”这只是冰山一角。”
现实的噩梦
目前的人工智能图像生成器能够制作出引人注目的艺术作品、逼真的照片和离奇的设计,提供了一种新的创造力,并有望永远改变艺术。它们还被用来制造令人信服的赝品,如巴伦西亚加教皇和唐纳德-特朗普被捕的早期版本。这些系统在海量的现有图像上进行训练,这些图像通常都是未经许可从网上搜来的,只需简单的文字提示就能生成图像。输入 “戴帽子的大象”,就能得到这样的图像。
制作 CSAM 的罪犯采用图像生成工具并不令人惊讶。塞克斯顿说:”这些图像的生成方式通常是使用公开的软件。国际妇女论坛见过的罪犯经常使用英国公司 Stability AI 提供的人工智能模型 Stable Diffusion。” 该公司没有回应 WIRED 的置评请求。在去年年底发布的第二版软件中,该公司改变了模型,使人们更难创建 CSAM 和其他裸体图像。
塞克斯顿说,犯罪分子正在使用旧版本的人工智能模型,并对其进行微调,以制作非法的儿童材料。这包括向模型输入现有的虐待图像或人脸照片,让人工智能创建特定个人的图像。塞克斯顿说:”我们看到经过微调的模型可以为现有受害者创建新的图像。” 他说,犯罪者正在 “交换数百张现有受害者的新图像”,并提出有关个人的请求。研究称,暗网论坛上的一些主题分享了一组受害者的面孔,其中一个主题名为 “用于人工智能和深度伪造特定女孩的照片资源”。
把握问题的规模具有挑战性。在 9 月份,IWF 的分析师们重点关注了一个暗网 CSAM 论坛,该论坛通常以 “软核图片” 和女孩图片为主,IWF 并未对其命名。研究人员发现,在该论坛较新的人工智能版块中,上个月共发布了 20254 张人工智能生成的照片。该组织的一个由 12 名分析师组成的团队花了 87.5 个小时对其中的 11108 张图片进行了评估。
IWF 共判定 2,978 张图片为犯罪图片。其中大部分–2562 张–都足够逼真,可以与非人工智能 CSAM 进行同等对待。半数图片被列为 C 类,即不雅图片,其中 564 张图片显示了最严重的虐待类型。国际妇女论坛称,这些图片中的儿童年龄可能在 7 到 13 岁之间,99.6% 是女性儿童。(在研究人员审查的数千张非犯罪人工智能生成的图片中,大多数都以儿童为主角,但不包括性活动,IWF 称)。
德克萨斯大学圣安东尼奥分校助理教授尼尚-维什瓦米特拉(Nishant Vishwamitra)说:”此类图像的制作规模令人担忧。IWF 的报告指出,该组织开始看到一些滥用内容的创建者宣传图像创建服务,包括制作 “定制” 图像和提供包月服务。”
随着图像越来越逼真,这种情况可能会增加。加拿大儿童保护中心的劳埃德-理查森(Lloyd Richardson)说:”有些图像越来越逼真,以至于分析人员很难辨别它们是否真的是人工智能生成的。” 加拿大儿童保护中心的劳埃德-理查森(Lloyd Richardson)说,”这种逼真度也给调查人员带来了潜在的问题,因为他们要花费数小时浏览虐待图像,对其进行分类并帮助识别受害者。根据国际妇女论坛的新报告,该组织的分析师表示,图像质量已经得到了迅速改善–尽管仍有一些简单的迹象表明图像可能并不真实,例如多余的手指或不正确的光线。” 报告援引一位不愿透露姓名的分析师的话说:”我还担心,未来的图像质量可能会好到我们根本不会注意到。“
IWF 报告中引用了一位不愿透露姓名的分析师的话:”我怀疑是否有人会怀疑这些照片不是真实女孩的真实照片”。另一条评论说:”我已经有几个月没有查看男孩 AI 了。天哪,它变得真不错!”