“AI生成的虐待儿童”噩梦来了

文章目录

  • 现实的噩梦
  • 护栏和缝隙

数以千计的虐童图像正在被人工智能制作出来。随着犯罪分子交易数据集,旧受害者的新图像也不断出现。

102423-security-csam-generative-ai

专家警告说,一个由人工智能生成的超逼真儿童性虐待图像的可怕新时代正在到来。犯罪分子正在使用可下载的开放源码生成人工智能模型,这种模型可以生成图像,并产生破坏性影响。这项技术正被用于制作数百张以前曾被虐待过的儿童的新图像。犯罪分子正在共享可用于定制人工智能模型的虐待图像数据集,他们开始按月销售人工智能生成的儿童性虐待材料(CSAM)。

互联网观察基金会(Internet Watch Foundation,简称 IWF)发布了一份内容广泛的新报告,详细介绍了这项技术是如何被滥用的。今年 6 月,IWF 称已在公开网络上发现了 7 个URL,其中包含疑似人工智能制作的材料。现在,该组织对一个暗网 CSAM 论坛进行了调查,发现了近 3000 张人工智能生成的图片,IWF 认为这些图片违反了英国法律。

根据 IWF 的研究,人工智能生成的图片包括强奸婴幼儿、虐待著名的未成年儿童以及以青少年为主角的 BDSM 内容。IWF 首席技术官丹-塞克斯顿(Dan Sexton)说:”我们已经看到了以名人为主角的儿童性虐待材料的需求、讨论和实际案例。塞克斯顿说,有时,名人被去年龄化,看起来像儿童。在其他情况下,成年名人被描绘成虐待儿童的人。”

虽然与网上发现的真实虐待图片和视频数量相比,人工智能生成的 CSAM 报告仍然相形见绌,但塞克斯顿表示,他对人工智能的发展速度及其为新型虐待图片带来的可能性感到震惊。这些发现与其他调查 CSAM 网络传播的团体的发现是一致的。加拿大儿童保护中心(Canadian Centre for Child Protection)信息技术主管劳埃德-理查森(Lloyd Richardson)告诉《WIRED》,在一个共享数据库中,世界各地的调查人员已经标记了 13500 张人工智能生成的儿童性虐待和性剥削图片。理查德森说:”这只是冰山一角。”

现实的噩梦

目前的人工智能图像生成器能够制作出引人注目的艺术作品、逼真的照片和离奇的设计,提供了一种新的创造力,并有望永远改变艺术。它们还被用来制造令人信服的赝品,如巴伦西亚加教皇和唐纳德-特朗普被捕的早期版本。这些系统在海量的现有图像上进行训练,这些图像通常都是未经许可从网上搜来的,只需简单的文字提示就能生成图像。输入 “戴帽子的大象”,就能得到这样的图像。

制作 CSAM 的罪犯采用图像生成工具并不令人惊讶。塞克斯顿说:”这些图像的生成方式通常是使用公开的软件。国际妇女论坛见过的罪犯经常使用英国公司 Stability AI 提供的人工智能模型 Stable Diffusion。” 该公司没有回应 WIRED 的置评请求。在去年年底发布的第二版软件中,该公司改变了模型,使人们更难创建 CSAM 和其他裸体图像。

塞克斯顿说,犯罪分子正在使用旧版本的人工智能模型,并对其进行微调,以制作非法的儿童材料。这包括向模型输入现有的虐待图像或人脸照片,让人工智能创建特定个人的图像。塞克斯顿说:”我们看到经过微调的模型可以为现有受害者创建新的图像。” 他说,犯罪者正在 “交换数百张现有受害者的新图像”,并提出有关个人的请求。研究称,暗网论坛上的一些主题分享了一组受害者的面孔,其中一个主题名为 “用于人工智能和深度伪造特定女孩的照片资源”。

把握问题的规模具有挑战性。在 9 月份,IWF 的分析师们重点关注了一个暗网 CSAM 论坛,该论坛通常以 “软核图片” 和女孩图片为主,IWF 并未对其命名。研究人员发现,在该论坛较新的人工智能版块中,上个月共发布了 20254 张人工智能生成的照片。该组织的一个由 12 名分析师组成的团队花了 87.5 个小时对其中的 11108 张图片进行了评估。

IWF 共判定 2,978 张图片为犯罪图片。其中大部分–2562 张–都足够逼真,可以与非人工智能 CSAM 进行同等对待。半数图片被列为 C 类,即不雅图片,其中 564 张图片显示了最严重的虐待类型。国际妇女论坛称,这些图片中的儿童年龄可能在 7 到 13 岁之间,99.6% 是女性儿童。(在研究人员审查的数千张非犯罪人工智能生成的图片中,大多数都以儿童为主角,但不包括性活动,IWF 称)。

德克萨斯大学圣安东尼奥分校助理教授尼尚-维什瓦米特拉(Nishant Vishwamitra)说:”此类图像的制作规模令人担忧。IWF 的报告指出,该组织开始看到一些滥用内容的创建者宣传图像创建服务,包括制作 “定制” 图像和提供包月服务。”

随着图像越来越逼真,这种情况可能会增加。加拿大儿童保护中心的劳埃德-理查森(Lloyd Richardson)说:”有些图像越来越逼真,以至于分析人员很难辨别它们是否真的是人工智能生成的。” 加拿大儿童保护中心的劳埃德-理查森(Lloyd Richardson)说,”这种逼真度也给调查人员带来了潜在的问题,因为他们要花费数小时浏览虐待图像,对其进行分类并帮助识别受害者。根据国际妇女论坛的新报告,该组织的分析师表示,图像质量已经得到了迅速改善–尽管仍有一些简单的迹象表明图像可能并不真实,例如多余的手指或不正确的光线。” 报告援引一位不愿透露姓名的分析师的话说:”我还担心,未来的图像质量可能会好到我们根本不会注意到。

IWF 报告中引用了一位不愿透露姓名的分析师的话:”我怀疑是否有人会怀疑这些照片不是真实女孩的真实照片”。另一条评论说:”我已经有几个月没有查看男孩 AI 了。天哪,它变得真不错!”

护栏和缝隙

在许多国家,创建和共享人工智能 CSAM 都属于现行儿童保护法的管辖范围。荷兰监管机构–在线恐怖主义和儿童色情材料管理局主席阿尔达-格肯斯(Arda Gerkens)说:”拥有这种材料以及传播、观看和制作都是非法的。” 美国检察官呼吁国会加强与 AI CSAM 相关的法律。更广泛地说,研究人员呼吁采取多管齐下的方法来处理网上共享的 CSAM。

科技公司和研究人员也在研究各种技术和措施,以阻止人工智能生成的 CSAM 被创造出来,并阻止它从暗网论坛流向公开互联网。格肯斯说,创建人工智能模型的科技公司有可能建立保障措施,”所有科技开发人员都需要意识到他们的工具被滥用的可能性”。

这些措施包括给图像加水印、创建更好的检测工具,以及检测可能导致创建人工智能 CSAM 的提示。斯坦福互联网观察站的首席技术专家大卫-蒂尔(David Thiel)表示,除了使用现有工具外,大科技公司还希望利用机器学习模型来帮助检测可能在其平台上共享的新的人工智能生成的 CSAM 图像。

蒂尔与儿童保护组织 Thorn 的梅丽莎-斯特罗贝尔(Melissa Stroebel)和丽贝卡-波特诺夫(Rebecca Portnoff)最近就如何减少人工智能 CSAM 发表了研究报告。该研究称,开发者应从训练数据中删除有害内容,对模型进行 “红队” 训练以找出可能被滥用的方法,在模型中加入偏差以阻止它们生成儿童裸体或包括儿童在内的性内容,并对训练数据保持透明。报告称,开源模型的创建者应评估可下载其模型的平台,并删除对历史模型的访问权限。

但许多人认为,这些安全措施来得太晚了。这种技术已经被用来创建有害内容。劳埃德-理查森说:”任何事后采取的措施都只是创可贴。” 蒂尔补充说:”我们仍在处理人们试图率先将特定型号推向市场的清理工作。”

与此同时,技术在不断进步,人工智能生成的视频很可能会在未来出现。”我们从未真正意识到–如果有人可以在家里的电脑上安装一些东西,然后在硬盘上创建尽可能多的(照片)会怎么样?现有受害者和新受害者的全新图像,国际妇女论坛的塞克斯顿说。”互联网上已经有太多关于儿童的内容。这不会让事情变得更容易。”

微海报