Pour une raison quelconque, Apple a supprimé la mention de son système controversé de détection de la pédopornographie de son Child Safety site Internet.

En tant que MacRumors fait remarquerle site Web incluait auparavant une brève description du système de détection d’Apple “Child Sexual Abuse Material (CSAM)”, ainsi que des liens vers des documents techniques sur la façon dont la technologie est censée fonctionner.

Cependant, le site Web d’Apple sur la sécurité des enfants a été modifié ces derniers jours pour supprimer toutes les mentions du système de détection CSAM, selon aux archives Internet. (Cela dit, l’original de l’entreprise liens au Les documents techniques sur la technologie restent en ligne.)

À quoi ressemblait le site de sécurité des enfants d'Apple le 10 décembre.

À quoi ressemblait le site de sécurité des enfants d’Apple le 10 décembre.
À quoi ressemble le site de sécurité des enfants d'Apple maintenant.
À quoi ressemble le site de sécurité des enfants d’Apple maintenant.

La suppression suggère qu’Apple renonce à sa controverse plan utiliser les iPhones pour lutter contre la pédopornographie en ligne. Mais un porte-parole d’Apple a déclaré à PCMag que “rien n’a changé” depuis septembre, quand Apple a déclaré que c’était faire une pause sur le système de détection de CSAM pour obtenir plus de retours et mettre en œuvre des améliorations.

Par conséquent, il est possible qu’Apple se prépare à une nouvelle tentative de vente du système de détection de pornographie enfantine à un public sceptique.

La société a créé le système de détection CSAM pour aider à sévir contre les images d’abus sexuels sur des enfants stockées sur les comptes iCloud. D’autres entreprises le font actuellement en analysant leurs propres serveurs à la recherche de pornographie juvénile sur les comptes d’utilisateurs. Cependant, Apple a proposé une approche qui impliquait d’utiliser le propre iPhone du consommateur pour signaler toute pédopornographie téléchargée sur iCloud.

La proposition s’est immédiatement heurtée résistance des défenseurs de la vie privée et des consommateurs craignant que le même système ne soit utilisé à des fins de surveillance ou de signalement incorrect de photos. En réponse, Apple a essayé de Explique pourquoi son approche était meilleure pour la confidentialité des utilisateurs que l’analyse à l’échelle du serveur. Néanmoins, les réactions sévères ont suffi à amener Apple à retarder son projet de lancement du système de détection CSAM, qui devait initialement arriver avec iOS 15.

“Sur la base des commentaires des clients, des groupes de défense, des chercheurs et autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité pour enfants d’une importance cruciale”, a déclaré la société en septembre.

La même déclaration a également été placée en évidence sur le site Web de la sécurité des enfants d’Apple. Mais elle aussi a été supprimée.


Source link