【西弗吉尼亚州起诉Apple,指控其允许通过iCloud分发儿童性虐待材料

卡盘阿说商业 2026-02-20 09:03:36

【西弗吉尼亚州起诉 Apple,指控其允许通过 iCloud 分发儿童性虐待材料】

西弗吉尼亚州总检察长 JB McCuskey 今日宣布对 Apple 提起诉讼,指控该公司明知 iCloud 被用于传播和存储儿童性虐待材料(CSAM),却仍然允许其存在。JB McCuskey 表示,多年来 Apple 对此“置之不理”。

“保护恋童癖者的隐私是绝对不可原谅的。更重要的是,这违反了西弗吉尼亚州的法律。鉴于 Apple 迄今为止拒绝自我约束并采取道德上正确的做法,我提起这项诉讼,要求 Apple 遵守法律,举报这些图像,并停止允许存储或分享这些图像,从而停止对儿童造成二次伤害,”总检察长 JB McCuskey 说。

根据诉讼文件,Apple 内部称自己是“传播儿童色情内容的最大平台”,但其提交的有关儿童性虐待材料的报告数量远少于 Google 和 Meta 等同行。

在 2021 年,Apple 宣布了新的儿童安全功能,其中包括可以检测存储在 iCloud 照片中的已知儿童性虐待材料(CSAM)的系统。在遇到用户、数字权利组织、儿童安全倡导者和安全研究人员的强烈反对后,Apple 决定取消在 iCloud 照片中检测 CSAM 的计划。

Apple 在宣布不会实施该功能时表示:“无需企业梳理个人数据,即可保护儿童。我们将继续与政府、儿童权益倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为对儿童和我们所有人来说更安全的地方。”

Apple 后来解释说,创建用于扫描私人 iCloud 数据的工具会“为数据窃贼发现和利用创造新的威胁途径”。

西弗吉尼亚州总检察长表示,Apple 以用户隐私为幌子,逃避了保护儿童的责任,并且 Apple 选择不部署检测技术并非被动监管,而是其自身选择。诉讼指出,由于 Apple 对硬件、软件和云基础设施拥有端到端的控制权,因此它不能声称自己是“不知情的、被动的儿童性虐待材料传播渠道”。

该诉讼寻求惩罚性赔偿和禁令,要求 Apple 实施有效的儿童性虐待材料检测措施。

2024 年,Apple 因取消儿童性虐待材料(CSAM)检测而被起诉。一项代表 2680 名潜在受害者的诉讼称,Apple 未能实施 CSAM 监控工具,给受害者造成了持续的伤害。该诉讼索赔金额为 12 亿美元。

0 阅读:1
卡盘阿说商业

卡盘阿说商业

感谢大家的关注