国际看点 2024-05-24 00:41

最近的一份报告揭示了人工智能图像生成器发展中的一个令人担忧的趋势,揭示了在其训练数据集中使用儿童的露脸照片。

据美联社报道,斯坦福互联网观测站与加拿大儿童保护中心和其他反虐待慈善机构合作,进行了一项研究,在人工智能数据库LAION中发现了3200多张涉嫌儿童性虐待的图片。LAION是一个在线图像和字幕索引,在培训Stable Diffusion等领先的人工智能图像制作公司方面发挥了重要作用。

这一发现引起了包括学校和执法部门在内的各个部门的警觉。儿童色情使人工智能系统能够生成明确而逼真的假儿童图像,并将社交媒体上真实青少年的照片转换为深度假裸体。此前,人们认为人工智能工具通过将成人色情内容与儿童的良性照片结合在一起,产生了滥用图像。然而,在训练数据集中直接包含明确的儿童图像呈现出更直接和令人不安的现实。

这一问题再加上人工智能市场的激烈竞争,导致人工智能工具在没有充分安全措施的情况下仓促发布。尽管LAION在报告发布后立即做出了暂时删除其数据集的反应,但人们仍然担心这些工具的持久影响和广泛可及性。

稳定AI,一个著名的用户的数据集,已经在其稳定扩散模型的新版本中实施了更严格的控制。然而,没有这些保护措施的旧版本继续传播,并被用于生成显式内容。该研究强调,由于许多人工智能模型的开源性质以及它们的易于分发,纠正这一问题很困难。

布莱巴特新闻网(Breitbart)去年11月报道了人工智能生成的未成年人深度色情内容如何影响他们的生活。一桩深度造假丑闻震惊了新泽西州的一所高中:

美联社有限公司这是本报告的内容