恋童癖者使用人工智能将名人变成孩子,并生成更多现实世界受害者的图像

2025-07-23 09:28来源:本站

  

  

  据互联网观察基金会(IWF)称,恋童癖者正在利用人工智能(AI)来制作名人小时候的形象。

  该慈善机构注意到,在某些暗网论坛上,一位知名女歌手被重新想象成一个孩子的照片被分享,以及对儿童演员照片的令人不安的处理。

  为了解决这个问题,定制的图像生成器被用来生成数百张以儿童性虐待的实际受害者为特征的图像。

  这些令人不安的揭露是IWF最近报告的一部分,该报告旨在揭示恋童癖者利用能够根据简单文本命令创建图像的人工智能系统所带来的风险。

  故事有限公司

  广告后继续

  随着公众越来越容易获得这些强大的图像生成工具,研究人员越来越担心它们可能被滥用来生成非法内容。

  今年5月,英国内政大臣苏拉·布雷弗曼和美国国土安全部部长亚历山德罗·马约卡斯发表联合声明,承诺打击“由人工智能生成的儿童被恋童癖者性剥削的卑鄙图像的惊人增长”。

  IWF的报告强调了研究人员的努力,他们花了一个月的时间监控一个与虐待儿童有关的暗网网站上人工智能生成的图像。

  令人震惊的是,他们发现了近3000张合成照片,根据英国法律,这些照片是非法的。

  故事有限公司

  广告后继续

  分析人士还发现了一个令人不安的趋势,即捕食者正在拍摄众所周知的儿童虐待受害者的单张照片,并在各种虐待场景中制作多张露点的照片。

  在一个案例中,发现了一个文件夹,里面有501张真实世界受害者的照片,这名受害者在遭受性虐待时大约9-10岁。在这个文件夹中,捕食者还共享了一个精炼的人工智能模型文件,使其他人能够生成受害者的其他图像。

  IWF强调,一些人工智能生成的图像,包括名人小时候的描绘,非常逼真,很容易被未经训练的观察者当作真迹。

  故事有限公司

  广告后继续

  虽然该报告没有具体说明哪些名人被针对,但该慈善机构发布这项研究是为了在即将在布莱切利公园举行的英国政府人工智能峰会上引发讨论。

  在一个月的时间里,IWF调查了11108张人工智能生成的图片,这些图片分享在一个与虐待儿童有关的暗网论坛上。令人不安的是,根据英国法律,其中2978张图片被确认为非法,这表明它们描绘了儿童性虐待。

  超过五分之一的图片(564张)被归类为A类,即最严重的露骨内容。

  超过一半(1372张)的照片以小学学龄儿童(7至10岁)为主题。

  此外,143张图片描绘了3至6岁的儿童,两张图片描绘了两岁以下的婴儿。

  故事有限公司

  广告后继续

  今年6月,IWF最初警告说,恋童癖者开始探索使用人工智能来制作儿童的露骨图像。可悲的是,IWF的担忧现在已经变成了残酷的现实。

  IWF首席执行官苏西?哈格里夫斯(Susie Hargreaves)表示:“我们最糟糕的噩梦已经成真。”

  “今年早些时候,我们警告说,人工智能生成的图像可能很快就会与遭受性虐待的儿童的真实照片无法区分,我们可能会开始看到这种图像的数量激增。我们现在已经越过了这一点。”

  IWF的报告强调了人工智能生成的图像造成的切实伤害。

  虽然这些内容的制作并没有直接伤害到儿童,但这些图像使掠夺性行为正常化,并在警方调查不存在的儿童时转移了他们的资源。

  此外,新的犯罪类型正在出现,给执法机构带来了新的挑战。

  例如,IWF发现了数百张两名女孩的照片,这些照片来自模特公司拍摄的非裸体照片,被篡改成a级性虐待场景。

  这些人现在被认为是从未实际发生过的A类罪行的受害者。

边互网声明:未经许可,不得转载。