一家监管机构警告称,数千张描绘儿童性虐待真实受害者的人工智能图像可能会“淹没”互联网。

互联网观察基金会(IWF)是一家负责从互联网上发现和删除儿童性虐待图像的英国组织,该组织表示,其“最糟糕的噩梦”已经成真。

IWF表示,犯罪分子现在正在利用真实儿童的脸和身体,通过人工智能技术创造新的性虐待图像。这些儿童出现在已确认的虐待图像中。

IWF公布的数据显示,即使是训练有素的分析师也很难将最具说服力的图像与实际照片区分开来,而且根据英国法律,一些内容现在已经足够真实,可以被视为真实图像。

IWF警告说,人工智能只是在进步,会给监管机构和执法机构解决问题带来更多障碍。

IWF在其研究中表示,它还发现了人工智能生成图像商业化的证据,并警告称,这项技术正被用于“裸露”儿童的图像,这些儿童的穿着照片是出于合法原因上传到网上的。

此外,该公司还表示,人工智能图像技术被用来制作“去年龄化”的名人图像,并将其描绘成性虐待场景中的儿童。

IWF表示,在一个月内,他们调查了11108张在暗网虐待儿童论坛上分享的人工智能图片。

其中,2978张被确认为违反了英国法律,2562张是如此真实,以至于他们需要像对待真实的虐待照片一样对待。

IWF首席执行官苏西?哈格里夫斯(Susie Hargreaves)表示:“我们最糟糕的噩梦成真了。今年早些时候,我们警告说,人工智能图像可能很快就会与遭受性虐待的儿童的真实照片无法区分,我们可能会开始看到这种图像的数量激增。我们现在已经越过了这一点。

“令人不寒而栗的是,我们看到犯罪分子故意用已经遭受虐待的真实受害者的图像来训练他们的人工智能。

“过去被强奸的儿童现在被纳入新的场景,因为有人在某个地方想看到它。

“似乎让受害者知道他们的虐待可能在互联网的某个黑暗角落被分享还不够,现在他们冒着面对新图像的风险,他们被以前所未有的新的可怕方式虐待。”

“这不是一个假设的情况。我们现在看到这种情况正在发生。我们看到数字在上升,我们看到这些图像的复杂性和现实性达到了新的水平。

“国际合作至关重要。这是一个迫切需要立即采取行动的问题。如果我们不控制这一威胁,这些材料可能会淹没互联网。”

IWF表示,它担心大量人工智能生成的内容可能会转移资源,无法检测和消除真正的滥用行为。