苹果回应解释放弃儿童性虐待材料(CSAM)检测计划的原因

业界
2023
09/01
10:44
IT之家
分享
评论

9 月 1 日消息,苹果公司在遭到媒体、非营利机构和消费者的诸多反对之后,于去年 12 月宣布,iCloud 云服务停止儿童性虐待材料(CSAM)检测计划。

这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。

Illustration: Jacqui VanLiew

Illustration: Jacqui VanLiew

苹果最初表示,CSAM 检测将在 2021 年底之前在 iOS15 和 iPadOS15 的更新中实现,但该公司最终根据 "客户、宣传团体、研究人员和其它方面的反馈" 推迟了这项功能。

一家名为 Heat Initiative 的儿童安全组织本周告知苹果公司,正组织一项活动,要求公司从 iCloud 中“检测、报告和删除”CSAM,并要求为用户提供更丰富的工具,来向苹果公司举报 CSAM 内容。

IT之家援引 Wired 报道,苹果公司罕见地回应了 Heat Initiative,苹果公司用户隐私和儿童安全总监 Erik Neuenschwander 在回应中概述了放弃开发 iCloud CSAM 扫描功能的原因:

儿童性虐待材料是令人憎恶的,我们致力于打破使儿童易受其影响的胁迫和影响链。

不过扫描每个用户私人存储的 iCloud 数据,会成为数据窃贼发现和利用创造新的威胁载体。

而且这种方式会导致很多预期之外的严重后果,例如扫描一种类型的内容为批量监控打开了大门,并可能产生跨内容类型搜索其他加密消息传递系统的愿望。

苹果公司此前在关闭 CSAM 计划时表示:

在广泛征求专家意见,收集我们去年提出的儿童保护举措的反馈后,我们正加大对 2021 年 12 月上线的 Communication Safety 功能的投资。我们决定不再推进我们之前提出的 iCloud 照片的 CSAM 检测工具。

儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导者和其它公司合作,帮助保护年轻人,维护他们的隐私权,让互联网成为儿童和我们所有人更安全的地方。

【来源:IT之家】

THE END
广告、内容合作请点击这里 寻求合作
苹果公司
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

9 月 1 日消息,不少人都希望能够加入苹果公司,不仅在于该公司的品牌知名度,而是该公司往往提供高薪、丰厚的福利待遇、豪华的办公环境等因素。
业界
7月25日消息,据外媒报道,苹果已向美国专利商标局 (USPTO) 申请了一项可卷曲显示屏专利 (US-20230221766-A1)。
业界
北京时间7月25日消息,周二,1500多名英国开发者因App Store抽成问题对苹果公司提起集体诉讼,索赔7.85亿英镑(约合72亿元人民币)。
业界
7 月 21 日消息,根据国外科技媒体 TechCrunch 报道,在今年 3 月举办的 Capture The Flag(CTF)黑客竞赛中,一位苹果员工发现了谷歌 Chrome 浏览器中的漏洞,但该员工并未及时向谷歌报告,而是将其隐瞒...
业界
7 月 18 日消息,苹果公司近日从其在线商店下架了 mophie 3 合 1 旅行充电器,已无法购买。
业界

相关推荐

1
3