✔️ 2022-04-20 19:17:00 – 巴黎/法国。
苹果公司宣布,一项使用人工智能技术分析儿童收发信息的安全功能将很快出现在英国 iPhone 上。
该功能称为“消息中的通信安全”,允许父母为孩子的 iPhone 启用警告。 启用后,孩子使用“信息”应用发送或接收的所有照片都将被扫描是否有裸露。
如果启用该设置的孩子收到的照片中发现裸露,照片将被模糊,并警告孩子可能包含敏感内容并推送到儿童安全组资源。 如果在孩子发送的照片中发现裸露,类似的保护措施就会发挥作用,并鼓励孩子不要发送图像,并且可以选择“给大人发消息”。
他宣称,所有扫描都是“在设备上”完成的,这意味着图像是由 iPhone 本身分析的,Apple 永远不会看到正在分析的照片或扫描结果。
该公司在一份声明中表示:“Messages 会分析附加图像并确定照片是否包含裸露内容,同时保持端到端的消息加密。” “该功能的设计使设备不会出现任何裸露检测迹象。 Apple 无权访问这些消息,也不会向家长或其他任何人发送通知。
苹果还在发布前从更新中删除了几个有争议的选项。 在最初的计划公告中,该公司建议如果 13 岁以下的幼儿发送或接收此类图像,则会自动提醒父母; 在最终版本中,找不到这些警报。
该公司还引入了一组功能,旨在在 Spotlight、Siri 或 Safari 中搜索与儿童剥削相关的内容时进行干预。
正如最初在 2021 年夏天宣布的那样,消息中的通信安全和搜索警告是定于今年秋季与 iOS 15 一起推出的三项功能之一。其中第三项功能将在照片上传到 iCloud 之前对其进行扫描并标记任何匹配的内容众所周知的儿童性虐待图片引起了极大的争议,苹果公司在与保护儿童隐私和安全的团体进行谈判时推迟了这三张图片的发布。
来源: 评论 新闻
不要犹豫,在社交网络上分享我们的文章,给我们一个坚实的推动力。 🧐