Europe Solidaire
CultureEconomieEducationEnvironnementInstitutionsInternationalSciencesSécurité/DéfenseSocialTechnologiesValeurs
Aggrandir Réduire Reinitialiser

Eviter les usages malveillants de l'apprentissage automatique

L'apprentissage automatique (en anglais machine learning), est un domaine de l'Intelligence artificielle en plein développement. Il repose sur la capacité donnée aux ordinateurs d'utiliser des approches statistique concernant un domaine déterminé, tel la reconnaissance des visages.

A partir de ces données, le programme construit un modèle informationnel approximatif d'un modèle de visage simple. Il s'agit de la phase d'apprentissage.

Ce modèle est ensuite utilisé pour, dans le cas évoqué, essayer de reconnaître des visages réels, tels que ceux photographiés par une caméra. En fonction du résultat obtenu, le modèle est alors perfectionné pour reconnaître des visages dans des conditions plus difficiles. Il s'agit de la phase de production. Le cycle peut être poursuivi le nombre de fois nécessaires pour le rendre capable d'éviter le maximum d'erreurs.

La procédure est déjà largement utilisée pour permettre aux caméras de surveillance utilisées par la police d'identifier une personne suspecte dans un groupe. Mais les usages seront bien plus nombreux. Il en sera ainsi de la capacité donnée aux systèmes de pilotage automatique ou sans chauffeur qui équiperont prochainement de plus en plus de véhicules d'identifier seuls les différents signaux de circulation et même d'éviter les obstacles nécessairement imprévus parce qu'imprévisible qu'ils rencontreront.

Il en résulte que plus les système d'apprentissage automatique seront perfectionnés et utilisés, plus en contrepartie ils feront apparaître ce que l'on nomme des domaines de vulnérabilité. Autrement dit, les risques souvent graves découlant d'une augmentation de leurs usages se multiplieront. Cette vulnérabilité sera le plus souvent inhérente au système. Ainsi une voiture sans chauffeur pourrait confondre une personne en mouvement dans un passage piéton avec une personne immobile. Il ne s'arrêtera donc pas et l'accident sera inévitable.

Mais les domaines de vulnérabilité de plus en plus fréquents proviendront d'interventions malveillantes. Ce que l'on craindra en premier lieu sera l'intrusion de hackers dans les systèmes afin de les détourner. Les logiciels seront très vulnérables et pourront facilement être piratés. Il en sera ainsi de piratages « ludiques ». Les piratages les plus fréquents seront cependant à but délictueux, voire criminels. Il en sera ainsi des procédés destinés à induire en erreur des dispositifs de fermeture des magasins quand ceux-ci se généraliseront afin d'économiser du personnel.

C'est bien évidemment dans les domaines intéressant la défense que les systèmes d'apprentissage automatique seront le plus souvent détournés. Aux Etats-Unis, l'agence nationale de défense, la DARPA, vient de prendre conscience du risque. Elle développe dorénavant un projet spécifique dit Guaranteeing AI Robustness against Deception (GARD). GARD visera à protéger les systèmes d'une façon générale et non spécifique à tel ou tel domaine. Mais des informations plus précises ne sont évidemment pas disponibles.

Pour en savoir (un peu) plus, on se reportera à l'article de la Darpa Defending Against Adversarial Artificial Intelligence
 

11/02/2019


A LIRE AUSSI
Les articles sur les mêmes thèmes
Europe Solidaire