Les militants de la protection de la vie privée du monde entier ont exhorté Apple à abandonner son projet d’analyser automatiquement le contenu des messages à la recherche d’images de matériel pédopornographique (CSAM) et d’empêcher les enfants de visionner du contenu répréhensible.
Bien que les 90 signataires d’une lettre coordonnée par le Center for Democracy & Technology (CDT) aient reconnu les intentions positives d’Apple, ils craignent que la technologie conçue pour surveiller les messages et informer les autorités des abus sape les principes du cryptage de bout en bout. .
Plus précisément, ils craignent que si les gouvernements savent que la technologie existe, ils pourraient exiger qu’Apple l’utilise à d’autres fins que son utilisation prévue.
Sommaire
Cryptage Apple
« Bien que les nouvelles fonctionnalités soient conçues pour protéger les enfants et réduire la propagation du CSAM, elles créeront de nouveaux risques pour les enfants et pourraient être utilisées pour censurer la parole et menacer la vie privée et la sécurité des personnes dans le monde », ont déclaré les signataires.
« Les messages n’offriront plus de confidentialité et de confidentialité à ces utilisateurs via un système de messagerie crypté de bout en bout dans lequel seuls l’expéditeur et les destinataires prévus ont accès aux informations envoyées.
« Une fois cette fonctionnalité de porte dérobée intégrée, les gouvernements pourraient obliger Apple à étendre la notification à d’autres comptes et à détecter les images répréhensibles pour des raisons autres que sexuellement explicites. »
La lettre exprime également des inquiétudes concernant une modification des comptes familiaux qui informera les parents si une image répréhensible est détectée. Bien que cela soit conçu pour empêcher la propagation de la pornographie, on craint que les jeunes utilisateurs des ménages moins tolérants se voient refuser l’accès au matériel éducatif. Par exemple, cela pourrait avoir un impact sur le bien-être des jeunes LGBTQ+ avec des parents antipathiques.
« Les algorithmes conçus pour détecter le matériel sexuellement explicite sont notoirement peu fiables. Ils sont enclins à signaler par erreur des œuvres d’art, des informations sur la santé, des ressources éducatives, des messages de plaidoyer et d’autres images », explique la lettre. « Un adulte violent peut être l’organisateur du compte, et les conséquences de la notification parentale pourraient menacer la sécurité et le bien-être de l’enfant. »
Apple a été un fervent partisan du cryptage et la confidentialité est devenue une caractéristique clé d’iOS. En effet, des versions plus récentes permettent aux utilisateurs d’empêcher les annonceurs de suivre leur activité sur diverses applications.
En réponse aux préoccupations exprimées depuis son annonce, Apple a publié un document décrivant les différentes politiques qu’il envisage de mettre en place pour prévenir les abus et a déclaré qu’il n’accepterait aucune demande d’un gouvernement pour accéder à du matériel au-delà du cas d’utilisation indiqué. .
Apple a été approché pour commentaires par TechRadar Pro.
Par CDT