Connectez-vous avec nous

Smartphones et Tablettes

Numérisation de photos Apple Child Safety : ce que vous devez savoir

Apple a annoncé qu’il adopterait un nouveau protocole : scanner automatiquement les iPhones et iPads pour vérifier les photos des utilisateurs à la recherche de matériel d’agression sexuelle d’enfants (CSAM). L’entreprise fait cela pour limiter la propagation du CSAM, mais ajoute également d’autres fonctionnalités « pour protéger les enfants des prédateurs qui utilisent des outils de communication pour les recruter et les exploiter », a expliqué Apple dans un article de blog. Pour l’instant, les fonctionnalités ne seront disponibles qu’aux États-Unis.

Apple instituera une nouvelle fonctionnalité dans iOS 15 et iPadOS 15 (les deux devraient être lancés dans les prochains mois) qui numérisera automatiquement les images sur l’appareil d’un utilisateur pour voir si elles correspondent au contenu CSAM précédemment identifié, qui est identifié par des hachages uniques ( par exemple un ensemble de nombres cohérents entre des images en double, comme une empreinte digitale).


Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES