苹果宣布iCloud放弃儿童性虐待材料(CSAM)检测计划

业界
2022
12/08
11:05
IT之家
分享
评论

12 月 8 日消息,在分享给 WIRED 的一份声明中,苹果今天宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。

Illustration: Jacqui VanLiew

苹果最初表示,CSAM 检测将在 2021 年底之前在 iOS15 和 iPadOS15 的更新中实现,但该公司最终根据 "客户、宣传团体、研究人员和其它方面的反馈" 推迟了这项功能。现在,经过一年的沉默,苹果已经完全放弃了 CSAM 检测计划。

IT之家了解到,苹果的计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政治家、政策团体、大学研究人员,甚至还包括一些苹果员工。

一些批评者认为,该功能将为设备创造一个 "后门",政府或执法机构可以利用它来监视用户。另一个担忧是误报,包括有人可能故意将 CSAM 图像添加到另一个人的 iCloud 账户中,使其账户被标记。

苹果公司在声明中表示:

在广泛征求专家意见,收集我们去年提出的儿童保护举措的反馈后,我们正加大对 2021 年 12 月上线的 Communication Safety 功能的投资。我们决定不再推进我们之前提出的 iCloud 照片的 CSAM 检测工具。 儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导者和其它公司合作,帮助保护年轻人,维护他们的隐私权,让互联网成为儿童和我们所有人更安全的地方。

【来源:IT之家】

THE END
广告、内容合作请点击这里 寻求合作
苹果iCloud
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

8月6日消息,据外媒报道,美国当地时间周三,苹果公司的系统状态(System Status)页面显示,部分用户无法使用其某些服务,如游戏中心和各种iCloud功能。
业界
据美国科技媒体AppleInsider报道,苹果云服务出现宕机事件,包括Apple News、Photos、找到我的iPhone(Find My iPhone)及许多关键iCloud功能受到影响。
业界

相关推荐

1
3