放大(来源: Aitor Diago | Moment )
斯坦福互联网观测站 (SIO) 研究员 David 在一个名为 LAION-5B 的大型开放数据集中发现了 1,000 多个已知的儿童性虐待材料 (CSAM),该数据集用于训练流行的文本到图像生成器,例如 Stable Diffusion蒂尔周三透露。
据彭博社报道,SIO 的报告似乎证实了自 2022 年以来互联网上流传的 LAION-5B 包含非法图像的谣言。在给 Ars 的一封电子邮件中,蒂尔警告说,“人工智能模型训练数据中包含虐待儿童材料,可以教会人们使用工具将儿童与非法性活动联系起来,并使用已知的虐待儿童图像来生成新的、可能真实的虐待儿童内容。”
蒂尔在 6月份发现人工智能图像生成器被用来创建数千张虚假但真实的人工智能儿童性爱图像,并在暗网上迅速传播,随后,泰尔于 9 月份开始了他的研究。他的目标是找出 CSAM 在人工智能模型的训练过程中可能扮演什么角色,为图像生成器提供非法内容。