苹果因 2022 年取消 CSAM 检测功能被起诉,原告称其违背了保护受害者的承诺
IT之家最新消息,苹果公司因取消 2022 年的 儿童性虐待材料(CSAM)检测计划而遭到起诉。一名曾遭受性虐待的 27 岁女性使用化名起诉苹果,指责其违背了保护受害者的承诺。
苹果之前宣布通过设备端哈希值系统在 iCloud 中扫描图片,以阻止 CSAM 传播,并在用户发送或接收裸露内容的照片时警告。尽管裸露内容检测功能(Communication Safety)仍在,但因隐私专家、儿童安全组织和政府广泛反对,CSAM 检测功能被取消。
起诉者称,她在 CSAM 检测功能存在时曾被执法部门通知发现她遭受性虐待的图片通过一台在佛蒙特州查获的 MacBook 上传至 iCloud。她声称苹果取消这一功能导致这些材料广泛传播,因此苹果向消费者销售了 “有缺陷的产品”,对像她这样的用户造成了伤害。
据该女子的一名律师称,原告要求苹果改变做法,并向可能多达 2680 名其他符合条件的受害者提供赔偿,其们有权按法律获得至少每人 15 万美元的赔偿。如果所有受害者成功获得赔偿,苹果的赔偿金额可能超过 12 亿美元(IT之家备注:当前约 87.28 亿元人民币)。
类似的案件也发生在北卡罗来纳州。一名 9 岁的 CSAM 受害者指控苹果,称她通过 iCloud 收到陌生人发送的非法视频,并受到上传类似内容的鼓励。苹果提出了一项动议以驳回该案件,称联邦法规第 230 条保护其免责。然而,最近法院裁定此法律保护仅适用于积极内容审核,可能削弱了苹果的辩护理由。
苹果发言人弗雷德・塞恩兹表示:“苹果认为儿童性虐待材料令人发指,我们致力于积极打击相关犯罪,不损害用户隐私和安全。”他提到苹果已扩展了信息应用中的裸露内容检测功能,并允许用户举报有害材料。然而,原告及其律师玛格丽特・马比认为,苹果的措施远远不够。
马比表示,通过执法报告和相关文件她发现了 80 多起与受害者图像及苹果产品有关的案例,其中一位分享这些图像的湾区男子的 iCloud 账户中存储有 2,000 多张非法图片和视频。
广告声明:文中包含的跳转链接(如超链接、二维码、口令等)旨在传递信息,节省筛选时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。