IT之家 9 月 1 日消息,苹果公司在遭到媒体、非营利机构和消费者的诸多反对之后,于去年 12 月宣布,iCloud 云服务停止儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。苹果公司用户隐私和儿童安全总监 Erik Neuenschwander 在回应中概述了放弃开发 iCloud CSAM 扫描功能的原因。他表示,虽然打击儿童性虐待材料非常重要,但是扫描每个用户私人存储的 iCloud 数据会带来严重的隐私问题。此外,他还提到了另外一个潜在的问题,即这种方法可能会导致大规模监控,从而引发更多的问题。因此,经过深思熟虑,苹果公司决定不再推进 iCloud 照片的 CSAM 检测工具。尽管如此,苹果公司仍然致力于保护儿童免受网络暴力的侵害。他们正在加大对 2021 年 12 月上线的 Communication Safety 功能的投资,以帮助保护年轻人的隐私。同时,苹果公司将继续与政府、儿童倡导者和其他公司合作,共同努力维护儿童的安全和权益。
【来源】https://www.ithome.com/0/716/194.htm
Views: 1