Connectez-vous avec nous

Gadgets

La mise à jour d’Apple vérifiera les iPhones pour des images d’abus sexuels sur des enfants

La nouvelle technologie permettra aux systèmes d’exploitation des iPhones de comparer les photos abusives à une base de données d’images connues d’abus sexuels sur des enfants.

Apple a déclaré jeudi que les iPhones et les iPads commenceraient bientôt à détecter des images contenant des abus sexuels sur des enfants et à les signaler au fur et à mesure qu’elles sont téléchargées sur son stockage en ligne aux États-Unis, une décision qui, selon les défenseurs de la vie privée, soulève des inquiétudes.

« Nous voulons aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de matériel pédopornographique (CSAM) », a déclaré Apple dans un article en ligne.

La nouvelle technologie permettra aux logiciels alimentant les appareils mobiles Apple de comparer les photos abusives sur le téléphone d’un utilisateur à une base de données d’images CSAM connues fournies par des organisations de sécurité de l’enfance, puis de signaler les images au fur et à mesure qu’elles sont téléchargées sur le stockage en ligne iCloud d’Apple, selon la société.

Cependant, plusieurs organisations de droits numériques affirment que les modifications apportées aux systèmes d’exploitation d’Apple créent une « porte dérobée » potentielle vers des gadgets qui pourraient être exploités par des gouvernements ou d’autres groupes.

Apple répond qu’il n’aura pas un accès direct aux images et souligne les mesures prises pour protéger la confidentialité et la sécurité.

Le géant de la technologie basé dans la Silicon Valley a déclaré que la correspondance des photos serait « propulsée par une technologie cryptographique » pour déterminer « s’il y a une correspondance sans révéler le résultat », à moins que l’image ne contienne des représentations d’abus sexuels sur des enfants.

Apple signalera ces images au Centre national pour les enfants disparus et exploités, qui travaille avec la police, selon un communiqué de la société.

India McKinney et Erica Portnoy du groupe de droits numériques Electronic Frontier Foundation ont déclaré dans un article que « le compromis d’Apple sur le cryptage de bout en bout peut apaiser les agences gouvernementales aux États-Unis et à l’étranger, mais c’est une volte-face choquante pour les utilisateurs qui se sont appuyés sur le leadership de l’entreprise en matière de confidentialité et de sécurité. »

Messages d’attention

La nouvelle fonctionnalité de surveillance d’image fait partie d’une série d’outils destinés aux appareils mobiles Apple, selon la société.

L’application de SMS d’Apple, Messages, utilisera l’apprentissage automatique pour reconnaître et avertir les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites, a indiqué la société dans le communiqué.

« Lors de la réception de ce type de contenu, la photo sera floue et l’enfant sera prévenu », a déclaré Apple.

« Par mesure de précaution supplémentaire, on peut également dire à l’enfant que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’ils le voient. »

Des précautions similaires sont déclenchées si un enfant essaie d’envoyer une photo sexuellement explicite, selon Apple.

Les messages utiliseront la puissance de l’apprentissage automatique sur les appareils pour analyser les images jointes aux missives afin de déterminer si elles sont sexuellement explicites, selon Apple.

La fonctionnalité est destinée au dernier système d’exploitation informatique Macintosh, ainsi qu’à iOS.

L’assistant personnel Siri, quant à lui, apprendra à « intervenir » lorsque les utilisateurs essaieront de rechercher des sujets liés aux abus sexuels sur enfants, selon Apple.

Greg Nojeim du Center for Democracy and Technology à Washington, DC a déclaré qu’« Apple remplace son système de messagerie crypté de bout en bout standard par une infrastructure de surveillance et de censure.

Cela, a-t-il déclaré, rendrait les utilisateurs « vulnérables aux abus et à la dérive non seulement aux États-Unis, mais dans le monde entier ».

« Apple devrait abandonner ces changements et restaurer la confiance de ses utilisateurs dans la sécurité et l’intégrité de leurs données sur les appareils et services Apple. »

Apple a bâti sa réputation sur la défense de la vie privée sur ses appareils et services malgré la pression des politiciens et de la police pour accéder aux données des personnes au nom de la lutte contre le crime ou le terrorisme.

« L’exploitation des enfants est un problème sérieux et Apple n’est pas la première entreprise technologique à modifier sa position de protection de la vie privée pour tenter de la combattre », ont déclaré McKinney et Portnoy de l’EFF.

« En fin de compte, même une porte dérobée soigneusement documentée, soigneusement réfléchie et à portée étroite est toujours une porte dérobée », ont-ils ajouté.


Apple présente un nouveau logiciel pour iPhone et d’autres gadgets


© 2021 AFP

Citation: La mise à jour d’Apple recherchera sur les iPhones des images d’abus sexuels sur des enfants (2021, 6 août) récupérées le 6 août 2021 sur https://techxplore.com/news/2021-08-apple-iphones-images-child-sexual.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.


Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES