Europe Solidaire
CultureEconomieEducationEnvironnementInstitutionsInternationalSciencesSécurité/DéfenseSocialTechnologiesValeurs
Aggrandir Réduire Reinitialiser

L'interdiction des armes létales autonomes

Dans une lettre ouverte publiée lundi 27 juillet, à l'occasion de l'IJCAI, une conférence internationale sur l'intelligence artificielle, qui se tient du 25 au 31 juillet à Buenos Aires, un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l'interdiction des armes létales autonomes ALA, capables de sélectionner et de combattre des cibles sans intervention humaine.

Parmi les signataires, on trouve le milliardaire Elon Musk, le constructeur des voitures électriques Tesla et du lanceur SpaceX, l'astrophysicien britannique Stephen Hawking, le cofondateur d'Apple Steve Wozniak, le linguiste américain Noam Chomsky ou Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l'intelligence artificielle rachetée par Google.

La lettre dénonce un "danger imminent" découlant du niveau aujourd'hui atteint par l'intelligence Artificielle (AI ou IA)) et de ses progrès prévisibles.: L'intelligence artificielle a atteint un point où le déploiement de tels systèmes d'ALA sera faisable d'ici quelques années si les enjeux militaires et plus généralement politiques sont importants. Les ALA ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires.

D'ores et déjà, en pratique, l'armée américaine, qui sera bientôt suivie d'autres, déploie sur le terrain, notamment dans la lutte contre les djihadistes islamiques, des drones capables de nombreuses décisions autonomes, notamment sélectionner avec le plus de pertinence possible  les cibles et diriger vers elles des tirs précis. Mais l'ordre final de tir est réservé à des opérateurs humains à distance, opérant dans des postes de commandement souvent situés à des centaines de kilomètres, sinon aux Etats-Unis mêmes. Ce qui n'empêche pas de nombreuses erreurs de se produire, produisant des victimes civiles comptabilisées comme « risques collatéraux ».

Ce fut Barack Obama lui-même qui a pris la décision de généraliser de telles opérations, pour remplacer des troupes sur le terrain. Les pays touchés, notamment le Pakistan et l'Afghanistan, ont protesté, mais sans effets. Il semble aujourd'hui que le Pakistan soit de son côté en train de se doter de telles armes acquises auprès des Etats-Unis.

La pétition craint que les Etats ne se lancent dans une course à l'armement, justifiée par le fait que  remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède. Mais ce ne sont pas seulement les Etats qui le feront. Tous les groupes d'opposition militarisés pourront suivre cet exemple. Ils seront suivis par des individus opérant pour leur compte. En effet, ces armes ne nécessitent pas beaucoup de matériels de base coûteux ou difficile à obtenir. Elles pourront être réalisés souvent à partir de produits  disponibles « sur étagère ». Des modes de savoir-faire et modes d'emploi circuleront sur le Net.  Très vite ces armes apparaitront sur les marchés parallèles, à la disposition de groupes terroristes souhaitant imposer leurs objectifs et leurs religions aux populations.

Le texte ne se veut pas une charge contre l'intelligence artificielle. Les chercheurs qui l'ont signé redoutent au contraire qu'une telle application de l'IA ne ne suscite un rejet  du grand public contre l'IA qui couperait court à tous ses bénéfices sociétaux futurs. La question de l'interdiction des ALA  a fait l'objet d'une réunion de l'ONU en avril 2015. Le rapporteur spécial de l'ONU Christof Heyns plaide depuis plus de deux ans pour un moratoire sur le développement de ces systèmes, en attendant la définition d'un cadre juridique adapté. L'ONG Human Rights Watch a quant à elle dénoncé, dans un rapport publié en avril, « l'absence de responsabilité légale » s'appliquant aux actes de ces « robots tueurs ».

La Lettre Ouverte a été publiée par le Future of Life Institute (FLI), un organisme américain à but non lucratif qui qui étudie notamment les risques potentiels du développement d'une intelligence artificielle de niveau humain vue d'atténuer les risques « existentiels 'auxquels doit selon lui faire face l'humanité ». Le FLI avait récemment annoncé le financement de 37 projets visant à prévenir les risques de l'IA et financés par un don d'Elon Musk.

Nos commentaires

* L'initiative est évidemment louable. Plus on s'interrogera sur les risques de l'IA, notamment sous sa forme autonome, mieux cela vaudra. Plus les pouvoirs publics, voire l'ONU ou d'autres instances, pourront interdire certaines armes, comme ce fut le cas précédemment des gaz de combat, mieux cela vaudra.

* Mais il ne faudra pas se faire d'illusion. La recherche et le développement en matière d'ALA se poursuivra dans tous les Etats disposant du niveau technologique suffisant. Ce sera notamment le cas au Etats-Unis, dont les stratèges ont toujours affiché la volonté de se donner une avance de quelques années sur le reste du monde. Les Etats présentés comme une menace contre l'Amérique, notamment la Russie et la Chine, réagiront à leur tour. Il y aura nécessairement des fuites profitant, comme indiqué ci-dessus, à divers groupes terroristes.

* Le développement d'ALA se fera d'autant plus nécessairement qu'il sera inévitablement un aspect dérivé d'une marche mondiale vers ce que l'on nomme le post-humain. En pratique, ce concept n'intéressera que ceux ayant les moyens financiers nécessaires pour le financer. Ce sera inévitablement le cas des Etats-Unis en premier lieu. En termes géostratégiques, quand on évoque les Etats-Unis, il ne pas seulement évoquer le Département de la Défense et son Agence scientifique, la Darpa. Il faut aussi mentionner les grands du Web américain, notamment Google qui a racheté pratiquement toutes les start-up(s) investissant dans le domaine de la robotique autonome et de l'IA en réseaux intelligents et dont un des directeurs, Ray Kurzweil, se fait le champion du post-humanisme .

* Des systèmes de décision autonomes se construisent déjà en utilisant notamment les « big data » collectées dans le monde entier à partir des services en ligne offerts par ces Grands du Net et l'appui multiforme de la NSA et de la CIA américaines. Il ne s'agira pas, dira-t-on, d'ALA. Mais en ce domaine, la nuance entre systèmes d'IA autonomes, armes autonomes et armes létales autonomes sera difficile à faire. En guerre, tous les moyens sont bons. Le danger de débordement sera plus grand en ce domaine que celui souvent évoqué par la littérature résultant de prises de pouvoir par des robots autonomes s'érigeant en adversaires de l'humanité.


Faut-il enfin limiter le concept d'ALA à des systèmes technologiques? Une mine qui explose aveuglément aux dépends de tous véhicules passant à proximité n'est-il pas l'ancêtre des ALA? Plus gravement, quand on considère aujourd'hui la façon dont des groupes islamistes terroristes conditionnent des gamines de 14 ans afin de les transformer en bombes vivantes, la différence d'avec les ALA n'est pas grande. Pour se défendre contre de telles armes vivantes autonomes, dont le nombre inévitablement se multipliera, les pays refusant de transformer des enfants en robots tueurs ne seront-ils pas en droit d'utiliser des ALA?


Référence

http://futureoflife.org/AI/open_letter_autonomous_weapons


28/07/2015


A LIRE AUSSI
Les articles sur les mêmes thèmes
Europe Solidaire