Quiconque s’inquiète de la menace d’une montée Skynet-esque des machines pourrait se reposer un peu plus facilement après la publication de nouvelles mesures de protection conçues pour éviter un soulèvement potentiel de l’IA.
L’organisation à but non lucratif MITER Corporation s’est associée à 12 entreprises technologiques de premier plan, dont Microsoft, IBM et Nvidia, pour lancer Adversarial ML Threat Matrix.
Le groupe affirme que le système est un cadre ouvert créé pour aider les analystes de sécurité à détecter, alerter, réagir et traiter les menaces ciblant les systèmes d’apprentissage automatique (ML).
Sommaire
Matrice ML
Microsoft affirme que la publication était motivée par une croissance continue du nombre d’attaques contre les systèmes commerciaux de ML dans le monde. La société a sondé une sélection de 28 grandes entreprises, constatant que presque toutes ne sont toujours pas conscientes de la menace que peut représenter l’apprentissage automatique contradictoire, avec vingt-cinq sur 28 affirmant ne pas disposer des bons outils pour sécuriser leur Systèmes ML.
Afin de rassurer et de conseiller ces organisations, la matrice des menaces de ML Adversarial cherche à aider les équipes de sécurité à se défendre contre les attaques sur les systèmes de ML.
La matrice contient un certain nombre de vulnérabilités et de comportements adverses passés repérés par Microsoft et MITRE au fil des ans, ainsi que toute une panoplie d’expertise de Microsoft dans le secteur de la sécurité.
«Nous avons également constaté que lorsqu’ils attaquent un système ML, les attaquants utilisent une combinaison de« techniques traditionnelles »comme le phishing et les mouvements latéraux aux côtés de techniques ML contradictoires», a déclaré Microsoft dans un article de blog.
Le référentiel GitHub Adversarial ML Threat Matrix est maintenant ouvert aux entreprises souhaitant en savoir plus.
«En ce qui concerne la sécurité du Machine Learning, les barrières entre les efforts et les responsabilités publics et privés s’estompent; Les défis du secteur public comme la sécurité nationale nécessiteront la coopération d’acteurs privés autant que des investissements publics », a noté Mikel Rodriguez, directeur de la recherche sur l’apprentissage automatique, MITRE.
«Par conséquent, pour aider à relever ces défis, chez MITRE, nous nous engageons à travailler avec des organisations comme Microsoft et la communauté au sens large pour identifier les vulnérabilités critiques dans la chaîne d’approvisionnement de l’apprentissage automatique. Ce cadre est une première étape pour aider à rassembler les communautés pour permettre aux organisations de réfléchir aux défis émergents liés à la sécurisation des systèmes d’apprentissage automatique de manière plus globale. »