苹果公司(Apple)最近宣布计划在今年推出新功能,该功能将扫描用户的照片,以找出儿童性虐待材料(CSAM),但引起争议。现在,该公司宣布将延迟推出该功能,因为顾客、诉求团体、研究人员和其他人都“强烈批评”该功能可能有损用户隐私。
苹果公司接受《The Verge》访问时表示:“上个月,我们宣布了一些计划,旨在帮助保护儿童,让他们免受利用通讯工具招募和剥削儿童的掠夺者的侵害,同时限制儿童性虐待材料的传播…… 根据顾客、诉求团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后才发布该儿童安全功能。”
掠夺者会利用通讯工具招募和剥削儿童,苹果计划推出该功能是为了保护他们,以及限制儿童性虐待材料的传播。这些功能包括Messages应用程序的新工具,以便在接收或发送色情照片时向儿童及父母发出警告;将照片存到iCloud照片时,采用新技术检测CSAM图像;以及扩大Siri和Search的指导。
虽然这些功能听起来有良好的意图,但有人担心该技术可能被扩大到扫描手机的违禁内容,甚至是政治言论。电子前沿基金会( Electronic Frontier Foundation)发声明表示,新系统将 “打破messenger加密本身的关键承诺,为更广泛的滥用打开大门。”
本汤普森(Ben Thompson)在Stratechery写道:“苹果正在损害你我拥有和使用的手机,而我们任何人都没有发言权。”
苹果公司表示,他们将拒绝政府将其技术作为监视顾客手段的任何请求,以及这些功能将 “只影响顾客上传到iCloud帐号的照片。” 不过,该公司也曾证实,他们已经扫描iCloud Mail,以找出CSAM,而且自2019年以来一直在这样做。
该功能计划在今年底前生效,同时更新iPhone、iPad、AirPods和Mac。如果延迟生产苹果手表不影响发布的话,苹果公司还计划推出新系列苹果手表。