最大的人工智能公司同意打击虐待儿童图像

导读 谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其儿童性虐待材料(CSAM)的人工智能训练数据,并将其从未来的任何模型中删除。这些...

谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其儿童性虐待材料(CSAM)的人工智能训练数据,并将其从未来的任何模型中删除。

这些公司签署了一套旨在限制CSAM扩散的新原则。他们承诺确保训练数据集不包含CSAM,避免包含CSAM的高风险数据集,并从数据源中删除CSAM图像或CSAM链接。两家公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何CSAM图像,并且仅在经过儿童安全评估后才发布模型。

其他签署者包括Anthropic、Civita、Metaphysical、MistralAI和StabilityAI。

生成式AI加剧了人们对深度伪造图像的担忧,包括网上虚假CSAM照片的激增。斯坦福大学研究人员于12月发布了一份报告,发现用于训练某些AI模型的流行数据集包含CSAM图像的链接。研究人员还发现,国家失踪和受虐儿童中心(NCMEC)运营的举报热线已经难以处理大量报告的CSAM内容,但很快就会被人工智能生成的CSAM图像淹没。

反儿童虐待非营利组织Thorn帮助制定了AllTechIsHuman原则,该组织表示,人工智能图像生成可能会阻碍识别受害者的工作,对CSAM产生更多需求,允许采用新的方式来伤害和再次伤害儿童,并使得更容易找到有关如何共享有问题的材料的信息。

谷歌在博客文章中表示,除了遵守这些原则之外,它还增加了对NCMEC的广告补助,以宣传其举措。谷歌负责信任和安全解决方案的副总裁苏珊·贾斯珀(SusanJasper)在帖子中表示,支持这些活动可以提高公众意识,并为人们提供识别和报告滥用行为的工具。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。