Apple a annoncé qu’il adopterait un nouveau protocole : scanner automatiquement les iPhones et iPads pour vérifier les photos des utilisateurs à la recherche de matériel d’agression sexuelle d’enfants (CSAM). L’entreprise fait cela pour limiter la propagation du CSAM, mais ajoute également d’autres fonctionnalités « pour protéger les enfants des prédateurs qui utilisent des outils de communication pour les recruter et les exploiter », a expliqué Apple dans un article de blog. Pour l’instant, les fonctionnalités ne seront disponibles qu’aux États-Unis.
Apple instituera une nouvelle fonctionnalité dans iOS 15 et iPadOS 15 (les deux devraient être lancés dans les prochains mois) qui numérisera automatiquement les images sur l’appareil d’un utilisateur pour voir si elles correspondent au contenu CSAM précédemment identifié, qui est identifié par des hachages uniques ( par exemple un ensemble de nombres cohérents entre des images en double, comme une empreinte digitale).
La vérification des hachages est une méthode courante pour détecter CSAM que la société de sécurité de site Web CloudFare institué en 2019 et utilisé par l’organisation à but non lucratif anti-trafic sexuel d’enfants Thorn, l’organisation co-fondée par Ashton Kutcher et Demi More.
En outre, Apple a ajouté deux systèmes que les parents peuvent activer en option pour les enfants de leur réseau familial : d’abord, l’analyse sur l’appareil dans l’application Messages qui analyse les photos entrantes et sortantes pour le matériel qui pourrait être sexuellement explicite, qui sera flou par défaut, et un paramètre facultatif peut informer les parents liés au compte si le contenu est consulté.
Apple permet également à Siri et à la recherche de faire apparaître des ressources utiles si un utilisateur pose des questions sur le signalement de CSAM ; les deux interviendront également lorsque les utilisateurs rechercheront des requêtes relatives à CSAM, informant le chercheur du potentiel nocif du matériel et pointant vers des ressources pour obtenir de l’aide.
C’est un aperçu de la façon dont, selon la propre description d’Apple, il intégrera un logiciel pour suivre la CSAM et aider à protéger les enfants de la prédation en intervenant lorsqu’ils reçoivent (et envoient) des photos potentiellement inappropriées. Mais la perspective qu’Apple analyse automatiquement votre matériel a déjà soulevé des inquiétudes chez les experts en technologie et les défenseurs de la vie privée – nous y reviendrons ci-dessous.
Sommaire
Cela m’affectera-t-il ?
Si vous n’avez pas de photos avec CSAM sur votre iPhone ou iPad, rien ne changera pour vous.
Si vous ne faites pas de demande Siri ou de recherche en ligne liée à CSAM, rien ne changera pour vous.
Si le compte de votre iPhone ou iPad est configuré avec une famille dans iCloud et que votre appareil est désigné comme un enfant dans ce réseau, vous verrez des avertissements et des photos floues si vous recevez des photos sexuellement explicites. Si votre appareil n’est pas lié à un réseau familial comme appartenant à un enfant, rien ne changera pour vous.
Enfin, votre appareil ne bénéficiera d’aucune de ces fonctionnalités si vous ne passez pas à iOS 15, iPadOS 15 ou macOS Monterey. (Ce dernier analysera vraisemblablement les photos iCloud pour CSAM, mais il n’est pas clair si l’intervention Messages pour les photos sexuellement explicites se produira également lorsque les utilisateurs de macOS Monterey utiliseront l’application.)
Ces mises à jour ne sont destinées qu’aux utilisateurs aux États-Unis, et on ne sait pas quand (ou si) elles seront étendues ailleurs – mais étant donné qu’Apple les positionne comme des mesures de protection, nous serions surpris qu’elles ne les étendent pas aux utilisateurs. dans d’autres pays.
Pourquoi Apple fait-il cela ?
D’un point de vue moral, Apple donne simplement aux parents les moyens de protéger leurs enfants et de rendre un service à la société en limitant la CSAM. Comme l’entreprise l’a déclaré dans son article de blog, « ce programme est ambitieux et la protection des enfants est une responsabilité importante ».
Apple a défendu à plusieurs reprises les fonctionnalités de confidentialité de ses appareils et les soutient avec des mesures telles que l’optimisation de l’analyse sur l’appareil (plutôt que le téléchargement de données sur les serveurs de l’entreprise dans le cloud) et des communications cryptées de bout en bout, ainsi que des initiatives telles que Transparence du suivi des applications qui a fait ses débuts dans iOS 14.5.
Mais Apple a également fait l’objet de nombreuses poursuites au fil des ans qui ont apparemment poussé l’entreprise à renforcer la protection de la vie privée – par exemple, un défenseur des droits des consommateurs dans l’UE a poursuivi le géant de la technologie en novembre 2020 pour la pratique d’Apple d’attribuer chaque iPhone un identifiant pour les annonceurs (IDFA) pour suivre les utilisateurs à travers les applications, par Le gardien. Cela a peut-être poussé Apple à donner aux consommateurs plus de contrôle grâce à la transparence du suivi des applications, ou au moins à s’aligner sur les actions en cours de l’entreprise.
TechRadar n’a pas pu trouver de poursuite en particulier qui aurait poussé Apple à instituer ces changements, mais il est tout à fait possible que l’entreprise se protège de manière proactive en offrant aux jeunes utilisateurs davantage d’outils d’autoprotection et en éliminant CSAM sur ses propres serveurs iCloud et iPhones. en général, ce qui pourrait éventuellement limiter la responsabilité d’Apple à l’avenir.
Mais si vous pouvez supprimer du matériel CSAM, pourquoi ne le feriez-vous pas ?
Qu’en pensent les chercheurs en sécurité ?
Peu de temps après qu’Apple ait présenté ses nouvelles initiatives, les experts en sécurité et les défenseurs de la vie privée se sont alarmés – non pas, bien sûr, pour défendre l’utilisation de CSAM, mais par souci des méthodes d’Apple pour le détecter sur les appareils des utilisateurs.
Parce que la fonction de scan CSAM ne semble pas être facultative – elle sera presque certainement incluse dans iOS 15 par défaut, et une fois téléchargée, inextricable du système d’exploitation. À partir de là, il numérise automatiquement les photos d’un utilisateur sur son appareil avant de les télécharger sur un compte iCloud. Si une certaine quantité de photo correspond à ces hachages CSAM lors d’une numérisation, Apple examine manuellement l’image signalée et, s’il le détermine être valide CSAM, le compte de l’utilisateur est fermé et ses informations sont transmises au Centre national pour les enfants disparus et exploités (NCMEC), qui collabore avec les forces de l’ordre.
Apple fait très attention à ce que les données des utilisateurs restent cryptées et illisibles par les employés de l’entreprise, à moins qu’elles ne dépassent un seuil de similitude avec le CSAM connu. Et selon Apple, « le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné ».
Mais c’est l’analyse automatique qui a incité les défenseurs de la vie privée. « Une porte dérobée est une porte dérobée », à but non lucratif de confidentialité numérique Fondation de la frontière électronique (EFF) a écrit dans son article de blog en réponse à l’initiative d’Apple, estimant que même l’ajout de cette technologie d’analyse automatique ouvrait la porte à des abus d’accès potentiellement plus larges :
« Tout ce qu’il faudrait pour élargir la porte dérobée étroite qu’Apple construit est une extension des paramètres d’apprentissage automatique pour rechercher des types de contenu supplémentaires, ou un ajustement des indicateurs de configuration à analyser, pas seulement les comptes des enfants, mais ceux de n’importe qui. Ce n’est pas une pente glissante ; c’est un système entièrement construit qui n’attend que la pression externe pour apporter le moindre changement », a écrit l’EFF, soulignant les lois adoptées dans d’autres pays qui exigent que les plates-formes analysent le contenu des utilisateurs, comme Indeles récentes règles de 2021.
D’autres acteurs de l’industrie technologique se sont également opposés à l’initiative d’analyse automatique d’Apple, notamment Will Cathcart, responsable du service de messagerie WhatsApp appartenant à Facebook. Dans un fil Twitter, il pointu à la pratique de WhatsApp de permettre aux utilisateurs de signaler plus facilement le CSAM, ce qui, selon lui, a conduit le service à signaler plus de 400 000 cas au NCMEC l’année dernière, « le tout sans casser le cryptage ».
Il s’agit d’un système de surveillance conçu et exploité par Apple qui pourrait très facilement être utilisé pour analyser le contenu privé à la recherche de tout ce qu’ils ou un gouvernement décide de contrôler. Les pays où les iPhones sont vendus auront des définitions différentes de ce qui est acceptable.6 août 2021
En toute justice, Facebook a essayé de contourner la transparence du suivi des applications d’Apple : après avoir été contraint de divulguer la quantité de données utilisateur auxquelles son application mobile (et l’application de WhatsApp) accède, Facebook a essayé d’inciter les utilisateurs à autoriser cet accès tout en critiquant Apple pour la transparence du suivi des applications. nuire aux petites entreprises (et, vraisemblablement, à Facebook) qui dépendent de ces revenus publicitaires.
D’autres experts technologiques attendent qu’Apple donne plus d’informations avant de se rallier pleinement au point de vue de l’EFF.
« L’inquiétude de l’EFF et d’autres défenseurs de la vie privée concernant les abus par des régimes autoritaires peut être effrayante ou une réaction excessive – Apple doit fournir plus de détails sur la mise en œuvre », Avi Greengart, fondateur d’une société de recherche et d’analyse technologique. Techsponentiel, a déclaré TechRadar via un message Twitter. «Cependant, en tant que parent, j’aime l’idée qu’iMessage signalera le sexting des mineurs avant de l’envoyer; tout ce qui ralentit même temporairement le processus et donne aux enfants une chance de réfléchir aux conséquences est une bonne chose.