互联网观察基金会发现 3,000 张人工智能制作的虐待图片违反英国法律。
一家安全监督机构警告说,人工智能生成的儿童性虐待图像正在成为 “最可怕的噩梦”,并有可能使互联网不堪重负。
互联网观察基金会(IWF)称,它已经发现了近 3000 张人工智能制作的虐待图片,这些图片违反了英国法律。
这家总部位于英国的组织称,现实生活中现有的虐待受害者图像正被植入人工智能模型,然后产生新的描述。
该组织还补充说,这种技术还被用于制作名人图像,这些名人被 “去年龄化”,然后被描绘成性虐待场景中的儿童。儿童性虐待材料(CSAM)的其他例子包括使用人工智能工具 “裸化” 网上发现的穿着衣服的儿童图片。
国际妇女论坛曾在今年夏天警告说,人工智能制造虐待的证据已经开始出现,但它说最新的报告显示这种技术的使用正在加速。IWF 首席执行官苏西-哈格里夫斯(Susie Hargreaves)说,监督机构 “最可怕的噩梦成真了”。
今年早些时候,我们曾警告说,人工智能图像可能很快就会变得与真实的儿童遭受性虐待的照片难以区分,我们可能会开始看到这种图像以更大的数量扩散。她说:”我们现在已经过了这个阶段。”
她说,令人不寒而栗的是,我们看到犯罪分子故意将他们的人工智能训练在已经遭受虐待的真实受害者的图像上。过去曾被强奸的儿童现在正被纳入新的场景中,因为有人,在某个地方,想要看到它。
国际妇女论坛表示,它还看到了人工智能生成的图像在网上出售的证据。
最新的调查结果是基于对暗网虐待儿童论坛长达一个月的调查。
它调查了该论坛上的 11108 张图片,其中 2978 张图片因描述儿童性虐待而触犯了英国法律。
根据《1978 年儿童保护法》,人工智能生成的 CSAM 是非法的,该法将拍摄、传播和拥有儿童的 “不雅照片或伪照片” 定为犯罪。国际妇女论坛说,它发现的绝大多数非法材料都违反了《儿童保护法》,其中五分之一以上的图片被归类为 A 类,即最严重的一类内容,可以描述强奸和性虐待。
2009 年《验尸官和司法法案》还将儿童的非摄影违禁图像(如漫画或图画)定为犯罪。
国际妇女论坛担心,人工智能生成的 CSAM 浪潮会分散执法机构的注意力,使其无法侦查真正的虐待行为并帮助受害者。
哈格里夫斯说:”如果我们不控制这种威胁,这种材料就有可能淹没互联网。”
IWF 首席技术官丹-塞克斯顿(Dan Sexton)说,图像生成工具 “稳定扩散”(Stable Diffusion)是一个公开可用的人工智能模型,可以通过调整来帮助生成 CSAM,这也是论坛上讨论的唯一一个人工智能产品。
“我们看到围绕使用 Stable Diffusion 创建内容的讨论,这是一款公开可用的软件。”
Stable Diffusion 背后的英国公司 Stability AI 表示,它 “禁止在我们的平台上出于非法或不道德的目的滥用,我们的政策明确规定这包括CSAM”。
政府表示,即将成为法律的网络安全法案将涵盖人工智能生成的 CSAM,并要求社交媒体公司防止其出现在自己的平台上。