close
正在加载
谷歌、Meta、OpenAI联合其他行业巨头反对人工智能虐待儿童图像
互联网 · 2024-04-24 05:52:22
币界网报道:

为了遏制儿童性虐待材料(CSAM)的传播,包括谷歌、Meta和OpenAI在内的顶级人工智能开发者联盟发誓要在这项新兴技术周围实施防护措施。

该组织由两个非营利组织组成:儿童科技组织Thorn和总部位于纽约的All tech is Human。Thorn前身为DNA基金会,于2012年由演员黛米·摩尔和阿什顿·库彻发起。

周二宣布了这一集体承诺,同时Thorn发布了一份新的报告,倡导在生成性人工智能开发中采用“设计安全”原则,以防止在人工智能模型的整个生命周期中创建儿童性虐待材料(CSAM)。

Thorn在一份声明中表示:“我们敦促所有开发、部署、维护和使用生成性人工智能技术和产品的公司承诺采用这些设计安全原则,并表明他们致力于防止CSAM、AIG-CSAM以及其他儿童性虐待和性剥削行为的产生和传播。”。

AIG-CSAM是人工智能生成的CSAM,报告显示创建起来相对容易。

图片:Thorn

Thorn开发工具和资源,重点保护儿童免受性虐待和性剥削。该组织在2022年的影响报告中表示,发现了超过824466份包含虐待儿童材料的文件。去年,Thorn报告称,仅在美国就报告了超过1.04亿份疑似CSAM的文件。

随着不需要云服务的独立人工智能模型在暗网论坛上传播,深度伪造的儿童色情作品在网上已经成为一个问题,在生成的人工智能模型公开后,深度伪造儿童色情作品激增。

Thorn说,生成人工智能使创建大量内容比以往任何时候都更容易。一个儿童掠夺者可能会产生大量的儿童性虐待材料,包括将原始图像和视频改编成新内容。

Thorn指出:“AIG-CSAM的涌入对已经征税的儿童安全生态系统构成了重大风险,加剧了执法部门在识别和救助现有虐待受害者以及扩大更多儿童的新受害范围方面面临的挑战。”。

Thorn的报告概述了生成型人工智能开发人员将遵循的一系列原则,以防止他们的技术被用于创建儿童色情作品,包括负责任地获取培训数据集,纳入反馈循环和压力测试策略,使用内容历史或“出处”并考虑到对抗性滥用,以及负责任地托管各自的人工智能模型。

其他签署承诺的公司包括微软、Anthropic、Mistral AI、亚马逊、Stability AI、Civit AI和Metaphysics,它们今天分别发布了声明。

Metaphysics首席营销官Alejandro Lopez告诉Decrypt:“我们Metaphysich的部分精神是在人工智能世界中负责任地开发,对吧,这是关于授权,但这是关于责任。”。“我们很快认识到,开始和发展这意味着真正保护我们社会中最脆弱的群体,即儿童,不幸的是,这项技术最黑暗的一端已经发生了,它被用于以深度虚假色情形式的儿童性虐待材料。”

Metaphysics于2021年推出,去年曝光了包括汤姆·汉克斯、奥克塔维亚·斯宾塞和安妮·海瑟薇在内的几位好莱坞明星正在使用MetaphysicPro技术将他们的肖像特征数字化,以保留对训练人工智能模型所需特征的所有权。

OpenAI拒绝对该倡议发表进一步评论,而是向Decrypt提供了其儿童安全负责人切尔西·卡尔森的公开声明。

卡尔森在一份声明中表示:“我们非常关心工具的安全性和负责任的使用,这就是为什么我们在ChatGPT和DALL-E中建立了强有力的护栏和安全措施。”。“我们致力于与Thorn、All Tech is Human和更广泛的科技界合作,维护设计安全原则,并继续努力减轻对儿童的潜在伤害。”

Decrypt联系了联盟的其他成员,但没有立即得到回复。

Meta在一份事先准备好的声明中表示:“在Meta,我们花了十多年的时间来保护人们的网络安全。在这段时间里,我们开发了许多工具和功能来帮助预防和对抗潜在的伤害——随着捕食者适应了试图逃避我们的保护,我们也在继续适应。”。

谷歌负责信任和安全解决方案的副总裁苏珊·贾斯珀在一篇帖子中写道:“在我们的产品中,我们通过哈希匹配技术、人工智能分类器和人工评论的组合,主动检测和删除CSAE材料。”。“我们的政策和保护旨在检测各种CSAE,包括人工智能生成的CSAM。当我们发现剥削性内容时,我们会将其删除并采取适当行动,包括向NCMEC报告。”

10月,英国监管组织互联网观察基金会警告称,人工智能生成的虐待儿童材料可能会“淹没”互联网。

由Ryan Ozawa编辑。

s_logo
App内打开