📱 2022-08-13 22:52:15 – 巴黎/法国。
自 Apple 宣布推出三项新的儿童安全功能计划以来已经过去一年多,其中包括检测存储在 iCloud 照片中的已知儿童性虐待图像 (CSAM) 的系统、在消息应用程序中模糊色情照片的选项以及儿童剥削Siri 的资源。 这最后两个功能现已可用,但 Apple 对其 CSAM 检测计划保持沉默。
苹果最初表示将在 15 年底之前在 iOS 15 和 iPadOS 2021 的更新中实施 CSAM 检测,但该公司最终基于“客户反馈、倡导团体、研究人员和其他人”推迟了该功能。
2021 年 XNUMX 月,Apple 对其儿童安全页面发布了以下更新:
此前,我们宣布了一些功能计划,以帮助保护儿童免受使用通信工具招募和利用他们的掠夺者的侵害,并帮助限制儿童性虐待材料的传播。 根据客户、倡导团体、研究人员和其他人的反馈,我们决定在接下来的几个月里花更多时间收集反馈并进行改进,然后再发布这些至关重要的儿童安全功能。
2021 年 XNUMX 月,苹果从其儿童安全页面中删除了上述更新以及所有对其 CSAM 检测计划的引用,但苹果发言人建议 边缘 苹果对该功能的计划没有改变。 然而,据我们所知,自那以后,苹果公司没有公开评论过这些计划。
我们联系了 Apple,询问该功能是否仍在计划中。 苹果没有立即回应置评请求。
随着 15.2 年 2021 月 iOS 15.5 和其他软件更新的发布,Apple 在为 Messages 应用和 Siri 实施儿童安全功能方面取得了进展,并将该应用的功能扩展到了澳大利亚、加拿大、新西兰和英国。 IOS。 2022 年 XNUMX 月发布 XNUMX 和其他软件版本。
苹果表示,其 CSAM 检测系统“在设计时考虑了用户隐私”。 该系统将使用来自儿童安全组织的已知 CSAM 图像哈希数据库执行“设备上匹配”,Apple 会将其转换为“一组不可读的安全存储哈希”。用户设备的安全性。
Apple 计划向与美国执法部门合作的非营利组织国家失踪和受虐儿童中心 (NCMEC) 报告具有已知 CSAM 图像哈希值的 iCloud 帐户。 苹果表示,将设置一个“门槛”,以确保系统误报帐户的“每年不到万亿分之一的机会”,以及对人工报告的帐户进行人工审查。
苹果的计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会 (EFF)、政治家、政治团体、学术研究人员甚至是苹果的一些员工。
一些批评人士认为,苹果的儿童安全功能可能会为设备创建一个“后门”,政府或执法部门可以利用该后门来监控用户。 另一个问题是误报,包括有人故意将 CSAM 图像添加到其他人的 iCloud 帐户以标记他们的帐户的可能性。
注意:由于有关此主题的讨论的政治或社会性质,可以在我们的政治新闻论坛中找到该主题。 欢迎所有论坛成员和网站访问者阅读和关注该主题,但发帖仅限于拥有至少 100 个帖子的论坛成员。
来源: 评论 新闻
不要犹豫,在社交网络上分享我们的文章,给我们一个坚实的推动力。 📲