Alors qu’Apple se prépare à analyser les iPhones et iPads à la recherche de matériel d’agression sexuelle sur enfants (CSAM) avec la sortie d’iOS 15, de nouveaux détails sont apparus, révélant que la société analyse déjà iCloud Mail pour CSAM.
Selon un nouveau rapport de 9to5Mac, le fabricant d’iPhone numérise iCloud Mail pour CSAM depuis 2019, bien qu’il n’ait pas encore commencé à numériser des photos iCloud ou des sauvegardes iCloud pour ce type de matériel.
Le média a décidé d’approfondir l’enquête après Le bord a repéré un fil iMessage lié au procès d’Epic contre Apple dans lequel le chef de la lutte contre la fraude de l’entreprise, Eric Friedman, a déclaré qu’il s’agissait de « la plus grande plate-forme de distribution de pornographie juvénile ».
Bien que la déclaration de Friedman ne soit certainement pas destinée à être vue publiquement, elle soulève la question de savoir comment Apple pourrait le savoir sans numériser les photos iCloud.
Sommaire
Analyser le courrier iCloud
9to5MacBen Lovejoy a contacté Apple pour en savoir plus à ce sujet et la société a confirmé qu’elle numérisait les pièces jointes iCloud Mail sortantes et entrantes pour CSAM depuis 2019. Comme les e-mails envoyés à l’aide d’iCloud Mail ne sont pas cryptés, l’analyse des pièces jointes que le courrier passe par les serveurs d’Apple n’est pas une chose difficile à faire.
En plus d’analyser les pièces jointes, Apple a également déclaré 9to5Mac qu’il effectue une analyse limitée d’autres données, bien que la société n’ait pas précisé en quoi consistent ces données. Il a cependant précisé que ces « autres données » n’incluent pas les sauvegardes iCloud.
En janvier de l’année dernière, Jane Horvath, responsable de la confidentialité chez Apple, a déclaré lors d’une conférence technique que la société utilisait une technologie de filtrage pour rechercher des images illégales et qu’elle désactivait les comptes si des preuves de CSAM étaient trouvées.
Alors que la déclaration de Friedman semblait initialement basée sur des données concrètes, ce n’était probablement pas le cas. Au lieu de cela, il a déduit que, puisque la société ne numérisait pas auparavant les photos iCloud ou les sauvegardes iCloud, il existerait probablement plus de CSAM sur la plate-forme d’Apple que d’autres services de cloud computing qui numérisent activement des photos pour CSAM.
Nous en saurons probablement plus sur la façon dont Apple prévoit de lutter contre CSAM sur sa plate-forme une fois que la société aura déployé la numérisation de photos Apple Child Safety avec la sortie d’iOS 15 cet automne.
Via 9to5Mac