Connectez-vous avec nous

Internet

Les autorités fédérales utilisent de plus en plus les systèmes de reconnaissance faciale malgré les appels à un moratoire

Crédit : Pixabay/CC0 domaine public

Malgré une opposition croissante, le gouvernement américain est en passe d’augmenter son utilisation de la technologie controversée de reconnaissance faciale.

Le US Government Accountability Office a publié un rapport le 24 août 2021, détaillant l’utilisation actuelle et prévue de la technologie de reconnaissance faciale par les agences fédérales. Le GAO a interrogé 24 départements et agences – du ministère de la Défense à la Small Business Administration – et a constaté que 18 ont déclaré utiliser la technologie et 10 ont signalé des plans pour étendre leur utilisation.

Le rapport intervient plus d’un an après que le Comité américain de politique technologique de l’Association for Computing Machinery, la plus grande société d’informatique éducative et scientifique au monde, ait appelé à l’arrêt immédiat de pratiquement toute utilisation gouvernementale de la technologie de reconnaissance faciale.

Le US Technology Policy Committee est l’un des nombreux groupes et personnalités éminentes, dont l’ACLU, l’American Library Association et le Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, à appeler à des restrictions sur l’utilisation de la technologie. Un thème commun de cette opposition est le manque de normes et de réglementations pour la technologie de reconnaissance faciale.

Il y a un an, Amazon, IBM et Microsoft ont également annoncé qu’ils cesseraient de vendre la technologie de reconnaissance faciale aux services de police en attendant la réglementation fédérale de la technologie. Le Congrès envisage un moratoire sur l’utilisation de la technologie par le gouvernement. Certaines villes et certains États, notamment le Maine, ont introduit des restrictions.

Pourquoi les experts en informatique disent non

Le comité de politique technologique américain de l’Association for Computing Machinery, qui a lancé l’appel à un moratoire, comprend des professionnels de l’informatique du monde universitaire, de l’industrie et du gouvernement, dont un certain nombre ont été activement impliqués dans le développement ou l’analyse de la technologie. En tant que président du comité au moment de la publication de la déclaration et en tant que chercheur en informatique, je peux expliquer ce qui a poussé notre comité à recommander cette interdiction et, peut-être plus important encore, ce qu’il faudrait pour que le comité annule son appel.






Joy Buolamwini du MIT explique son étude sur les préjugés raciaux et sexistes dans la technologie de reconnaissance faciale.

Si votre téléphone portable ne reconnaît pas votre visage et vous oblige à taper votre mot de passe, ou si le logiciel de tri de photos que vous utilisez identifie mal un membre de la famille, aucun mal n’est fait. D’un autre côté, si vous devenez responsable d’une arrestation ou d’un refus d’entrée dans une installation parce que les algorithmes de reconnaissance sont imparfaits, l’impact peut être drastique.

La déclaration que nous avons rédigée décrit les principes d’utilisation des technologies de reconnaissance faciale dans ces applications conséquentes. Le premier et le plus critique d’entre eux est la nécessité de comprendre la précision de ces systèmes. L’un des principaux problèmes de ces algorithmes est qu’ils fonctionnent différemment pour différents groupes ethniques.

Une évaluation des fournisseurs de reconnaissance faciale par l’Institut national américain des normes et de la technologie a révélé que la majorité des systèmes testés présentaient des différences claires dans leur capacité à faire correspondre deux images de la même personne lorsqu’un groupe ethnique était comparé à un autre. Une autre étude a révélé que les algorithmes sont plus précis pour les hommes à la peau plus claire que pour les femmes à la peau plus foncée. Les chercheurs explorent également comment d’autres caractéristiques, telles que l’âge, la maladie et le statut d’invalidité, affectent ces systèmes. Ces études font également apparaître des disparités.

Un certain nombre d’autres caractéristiques affectent les performances de ces algorithmes. Considérez la différence entre votre apparence sur une belle photo de famille que vous avez partagée sur les réseaux sociaux et une photo de vous prise par une caméra de sécurité granuleuse ou une voiture de police en mouvement, tard par une nuit brumeuse. Un système formé sur le premier fonctionnerait-il bien dans le second contexte ? Comment l’éclairage, la météo, l’angle de la caméra et d’autres facteurs affectent ces algorithmes reste une question ouverte.

Dans le passé, les systèmes qui correspondaient aux empreintes digitales ou aux traces d’ADN devaient être formellement évalués et des normes définies avant d’être utilisés par la police et d’autres. Jusqu’à ce que les algorithmes de reconnaissance faciale puissent répondre à des normes similaires – et que les chercheurs et les régulateurs comprennent vraiment comment le contexte dans lequel la technologie est utilisée affecte sa précision – les systèmes ne devraient pas être utilisés dans des applications qui peuvent avoir de graves conséquences sur la vie des gens.

Transparence et responsabilité

Il est également important que les organisations utilisant la reconnaissance faciale fournissent une forme d’avis public avancé et continu. Si un système peut vous faire perdre votre liberté ou votre vie, vous devez savoir qu’il est utilisé. Aux États-Unis, cela a été un principe pour l’utilisation de nombreuses technologies potentiellement dangereuses, des radars à la surveillance vidéo, et la position de l’USTPC est que les systèmes de reconnaissance faciale doivent être soumis à la même norme.

Pour obtenir la transparence, il doit également y avoir des règles qui régissent la collecte et l’utilisation des informations personnelles qui sous-tendent la formation des systèmes de reconnaissance faciale. La société Clearview AI, qui dispose désormais de logiciels utilisés par les services de police du monde entier, en est un exemple. L’entreprise a collecté ses données – des photos de visages d’individus – sans notification.






PBS Nova explique la base de données massive d’images de personnes de Clearview AI.

Clearview AI a collecté des données à partir de nombreuses applications, fournisseurs et systèmes différents, tirant parti des lois laxistes contrôlant une telle collecte. Les enfants qui publient des vidéos d’eux-mêmes sur TikTok, les utilisateurs qui identifient des amis sur des photos sur Facebook, les consommateurs qui effectuent des achats avec Venmo, les personnes qui téléchargent des vidéos sur YouTube et bien d’autres créent tous des images qui peuvent être liées à leur nom et extraites de ces applications par des entreprises comme Clearview AI.

Êtes-vous dans l’ensemble de données utilisé par Clearview ? Vous n’avez aucun moyen de savoir. La position de l’ACM est que vous devriez avoir le droit de savoir, et que les gouvernements devraient mettre des limites sur la façon dont ces données sont collectées, stockées et utilisées.

En 2017, l’Association for Computing Machinery US Technology Policy Committee et son homologue européen ont publié une déclaration conjointe sur les algorithmes de prise de décision automatisée concernant les individus pouvant entraîner une discrimination préjudiciable. En bref, nous avons demandé aux décideurs politiques de maintenir les institutions utilisant l’analyse aux mêmes normes que pour les institutions où les humains ont traditionnellement pris des décisions, qu’il s’agisse d’application de la loi sur la circulation ou de poursuites pénales.

Cela implique de comprendre les compromis entre les risques et les avantages des technologies informatiques puissantes lorsqu’elles sont mises en pratique et d’avoir des principes clairs sur qui est responsable en cas de préjudice. Les technologies de reconnaissance faciale appartiennent à cette catégorie et il est important de comprendre comment mesurer leurs risques et leurs avantages et qui est responsable en cas d’échec.

Protéger le public

L’un des principaux rôles des gouvernements est de gérer les risques technologiques et de protéger leurs populations. Les principes énoncés par l’USTPC de l’Association for Computing Machinery ont été utilisés pour réglementer les systèmes de transport, les produits médicaux et pharmaceutiques, les pratiques de sécurité alimentaire et de nombreux autres aspects de la société. En bref, l’USTPC de l’Association for Computing Machinery demande aux gouvernements de reconnaître le potentiel des systèmes de reconnaissance faciale à causer des dommages importants à de nombreuses personnes, par le biais d’erreurs et de préjugés.

Ces systèmes sont encore à un stade précoce de maturité, et il y a beaucoup de choses que les chercheurs, le gouvernement et l’industrie ne comprennent pas à leur sujet. Tant que les technologies de reconnaissance faciale ne seront pas mieux comprises, leur utilisation dans des applications conséquentes devrait être interrompue jusqu’à ce qu’elles puissent être correctement réglementées.


Amazon va étendre l’interdiction d’utiliser la technologie de reconnaissance faciale par la police


Fourni par La Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.La conversation

Citation: Les autorités fédérales utilisent de plus en plus les systèmes de reconnaissance faciale malgré les appels à un moratoire (2021, 2 septembre) récupérés le 3 septembre 2021 sur https://techxplore.com/news/2021-09-feds-facial-recognition-moratorium.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.


Les offres de produits Hi-tech en rapport avec cet article

Continuer la lecture
Cliquez pour commenter

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ARTICLES POPULAIRES