Malgré toutes ses promesses au sujet de la puissance des systèmes de modération automatisés de l'IA, Facebook a échoué lors du tir de masse à Christchurch, où un suprémaciste blanc a tué 51 personnes dans deux mosquées en Nouvelle-Zélande, envoyant les images directement sur le site.
La vidéo a ensuite été partagée plus de 1,5 million de fois sur Facebook avant que le site puisse détecter son contenu et enrayer la propagation.
Facebook tente de former ses systèmes d’intelligence artificielle pour s’assurer que cela ne se reproduise plus et a conclu un partenariat avec la police britannique et américaine pour le faire. Il est prévu d’alimenter les images de première personne d’Amnesty International tirées de programmes de formation aux armes à feu afin que les systèmes automatisés de la société puissent faire la différence entre les atrocités du monde réel et le contenu de films et de jeux.
“La vidéo de l'attaque à Christchurch n'a pas déclenché nos systèmes de détection automatique car nous n'avions pas assez de contenu illustrant des images prises à la première personne d'événements violents pour former efficacement notre technologie d'apprentissage automatique », a expliqué la société dans" un article de blog.
Apparenté, relié, connexe: Comment supprimer Facebook
Comment Facebook convainc-il la police de partager ces images? Bien, le Financial Times a quelques idées à ce sujet, signalant que même si Facebook ne paiera pas la métropole à la police métropolitaine, elle fournira les caméras sans frais. Les images seront également partagées avec le Home Office, et éventuellement avec d'autres sociétés ayant des plans similaires pour arrêter la diffusion en masse de tournages de masse ailleurs.
“La technologie que Facebook cherche à créer pourrait aider à identifier les attaques par armes à feu à leurs débuts et aider potentiellement la police du monde entier à réagir à de tels incidents », a déclaré au journal Neil Basu, le plus haut policier de la police antiterroriste. "Une technologie qui arrêterait automatiquement la diffusion en direct des attaques une fois identifiées, contribuerait également de manière significative à empêcher la glorification de tels actes et la promotion des idéologies toxiques qui les animent."
Etes-vous satisfait de partager avec Facebook des séquences d’entraînement du Met avec cet objectif? Faites-nous savoir ce que vous pensez sur Twitter: @TrustedReviews.