Google a une opération massive d’apprentissage automatique, il n’est donc pas surprenant que l’entreprise l’applique à chaque bit de données que nous lui fournissons – mais il y a quelque chose dans le fait de gâcher nos photos qui semble transgressif, quel que soit le sourire que Google essaie. mettre dessus.
Il y avait beaucoup de choses dans le discours d’ouverture de Google I / O 2021 qui ont frappé une note étrange, comme la célébration de ses «principes d’IA» après avoir traité son ancien éthicien principal en IA, le Dr Timnit Gebru, ce qui a incité l’entreprise à diriger ses scientifiques. «être plus positif» à propos de l’IA.
Mais c’est la partie de la keynote donnée par Shimrit Ben-Yair, responsable de Google Photos, qui a été particulièrement énervante. Au cours de sa présentation, elle a montré comment la technologie d’apprentissage automatique de Google était capable d’analyser toutes vos photos, d’identifier les similitudes moins reconnues dans toute votre collection de photos et de rassembler vos photos en groupes en conséquence.
C’est-à-dire que Google exécute chaque photo que vous lui donnez via des algorithmes d’apprentissage automatique très spécifiques et identifie des détails très spécifiques sur votre vie, comme le fait que vous aimez voyager à travers le monde avec un sac à dos orange spécifique, par exemple.
Heureusement, Google reconnaît au moins que cela pourrait être problématique si, par exemple, vous êtes transgenre et que l’algorithme de Google décide qu’il souhaite créer une collection contenant des photos de vous qui incluent celles qui ne correspondent pas à votre identité de genre. Google comprend que cela pourrait être douloureux pour vous, vous avez donc totalement la possibilité de supprimer la photo incriminée des collections à l’avenir. Vous pouvez également lui demander de supprimer toutes les photos prises à une date précise qui pourraient être douloureuses, comme le jour du décès d’un être cher.
Tout cela vaut mieux que ne pas avoir cette option du tout, mais la responsabilité incombe toujours à vous, l’utilisateur, ce qui est toujours, toujours le cas. Qu’est-ce qu’un peu de douleur pour certains à endurer lorsque Google a de nouvelles fonctionnalités à déployer que personne ne demandait même?
Ensuite, nous sommes arrivés à la partie de la présentation où Google prendrait une sélection de deux ou trois photos prises ensemble, comme lorsque vous prenez beaucoup de photos d’affilée pour en capturer une où personne ne clignote dans une photo de groupe, et appliquez-leur l’apprentissage automatique pour générer une petite «photo cinématographique» avec eux.
Cette fonctionnalité, introduite pour la première fois en décembre 2020, utilisera l’apprentissage automatique pour insérer des cadres entièrement fabriqués entre ces photos afin de générer essentiellement un GIF, recréant un événement en direct d’une manière qui est un fac-similé de l’événement tel qu’il s’est produit. Accent mis sur la télécopie.
Google présente cela comme vous aidant à vous remémorer de vieilles photos, mais ce n’est pas ce que c’est – c’est le début de la fin de la réminiscence telle que nous la connaissons. Pourquoi compter sur votre mémoire alors que Google peut simplement en générer une pour vous? Peu importe le fait qu’il crée un enregistrement de quelque chose qui ne s’est pas réellement produit et vous le présente efficacement comme si c’était le cas.
Bien sûr, vos yeux ont peut-être cligné des yeux « quelque chose comme ça » entre ces deux photos et ce n’est pas comme si Google vous faisait faire des lignes de coca lors d’une fête alors que vous ne faisiez pas une telle chose. Mais lorsqu’il s’agit de ce qui est éthique et de ce qui ne l’est pas, il n’y a pas de place pour le «genre». Ce sont les types de choix qui mènent sur des chemins que nous ne voulons pas emprunter, et chaque pas sur un chemin rend plus difficile pour nous de revenir en arrière.
S’il y a une chose que nous aurions vraiment, vraiment dû apprendre au cours de la dernière décennie, c’est de ne pas mettre une telle confiance aveugle dans les algorithmes d’apprentissage automatique qui ont le pouvoir de déformer notre perception de la réalité. QAnon est autant un produit de l’apprentissage automatique que Netflix, mais maintenant nous allons mettre nos albums photo sur l’autel de l’IA et appeler tout ce qui en sort « Memories ». Tout en dépensant une énorme quantité d’énergie réelle pour exécuter tous ces algorithmes dans des centres de données alors que le changement climatique progresse sans cesse.
À chaque nouvelle avancée de la plate-forme d’apprentissage automatique de Google, il devient de plus en plus évident qu’elle devrait vraiment écouter ce que des éthiciens comme le Dr Gebru essaient de lui dire – et il est d’autant plus évident qu’il n’a aucun intérêt à le faire.