Apple reste silencieux sur les projets de détection de CSAM connus stockés dans les photos iCloud

Les opérateurs de réseau britanniques ciblent le relais privé iCloud dans une plainte au régulateur - MacRumors

📱 2022-08-13 22:52:15 – Paris/France.

Cela fait maintenant plus d’un an qu’Apple a annoncé des plans pour trois nouvelles fonctionnalités de sécurité pour les enfants, y compris un système pour détecter les images connues d’abus sexuels sur des enfants (CSAM) stockées dans iCloud Photos, une option pour brouiller les photos sexuellement explicites dans l’application Messages, et ressources sur l’exploitation des enfants pour Siri. Ces deux dernières fonctionnalités sont désormais disponibles, mais Apple reste silencieux sur ses projets de détection de CSAM.

Apple a initialement déclaré que la détection de CSAM serait implémentée dans une mise à jour d’iOS 15 et d’iPadOS 15 d’ici la fin de 2021, mais la société a finalement reporté la fonctionnalité en fonction des « commentaires des clients, des groupes de défense, des chercheurs et autres ».

En septembre 2021, Apple a publié la mise à jour suivante sur sa page Sécurité des enfants :

Auparavant, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter et à aider à limiter la propagation du matériel d’abus sexuel d’enfants. Sur la base des commentaires des clients, des groupes de défense, des chercheurs et d’autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir les commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité pour enfants d’une importance cruciale.

En décembre 2021, Apple a supprimé la mise à jour ci-dessus et toutes les références à ses plans de détection de CSAM de sa page Sécurité des enfants, mais un porte-parole d’Apple a informé Le bord que les plans d’Apple pour la fonctionnalité n’avaient pas changé. À notre connaissance, cependant, Apple n’a pas commenté publiquement les plans depuis lors.

Nous avons contacté Apple pour lui demander si la fonctionnalité est toujours prévue. Apple n’a pas immédiatement répondu à une demande de commentaire.

Apple a avancé dans la mise en œuvre de ses fonctionnalités de sécurité pour les enfants pour l’application Messages et Siri avec la sortie d’iOS 15.2 et d’autres mises à jour logicielles en décembre 2021, et il a étendu la fonctionnalité de l’application Messages à l’Australie, au Canada, à la Nouvelle-Zélande et au Royaume-Uni avec iOS. 15.5 et autres versions logicielles en mai 2022.

Apple a déclaré que son système de détection CSAM était « conçu en tenant compte de la confidentialité des utilisateurs ». Le système effectuerait « une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus » d’organisations de sécurité des enfants, qu’Apple transformerait en un « ensemble illisible de hachages stockés en toute sécurité sur les appareils des utilisateurs ».

Apple prévoyait de signaler les comptes iCloud avec des hachages d’images CSAM connus au National Center for Missing and Exploited Children (NCMEC), une organisation à but non lucratif qui travaille en collaboration avec les forces de l’ordre américaines. Apple a déclaré qu’il y aurait un « seuil » qui garantirait « moins d’un sur un billion de chances par an » qu’un compte soit mal signalé par le système, ainsi qu’un examen manuel des comptes signalés par un humain.

Les plans d’Apple ont été critiqués par un large éventail d’individus et d’organisations, y compris des chercheurs en sécurité, l’Electronic Frontier Foundation (EFF), des politiciens, des groupes politiques, des chercheurs universitaires et même certains employés d’Apple.

Certains critiques ont fait valoir que les fonctionnalités de sécurité des enfants d’Apple pourraient créer une « porte dérobée » dans les appareils, que les gouvernements ou les forces de l’ordre pourraient utiliser pour surveiller les utilisateurs. Une autre préoccupation concernait les faux positifs, y compris la possibilité que quelqu’un ajoute intentionnellement des images CSAM au compte iCloud d’une autre personne pour que son compte soit signalé.

Remarque : En raison de la nature politique ou sociale de la discussion concernant ce sujet, le fil de discussion se trouve dans notre forum Actualités politiques. Tous les membres du forum et les visiteurs du site sont invités à lire et à suivre le fil de discussion, mais la publication est limitée aux membres du forum ayant au moins 100 messages.

SOURCE : Reviews News

N’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 📲

Quitter la version mobile