Europe Solidaire
CultureEconomieEducationEnvironnementInstitutionsInternationalSciencesSécurité/DéfenseSocialTechnologiesValeurs
Aggrandir Réduire Reinitialiser

Rapport sur les perspectives d'utilisation criminelle de l'Intelligence Artificielle avancée

Les experts provenant d'un certain nombre d'organisations universitaires 1) étudiant les « risques existentielles » que comportent les progrès rapide de l'Intelligence Artificielle (AI) et de la robotique autonome viennent de publier un rapport de mise en garde auquel il sera important de se référer à l'avenir. 2).

Il montre comment des dictateurs, des criminels et des terroristes pourront utiliser ces nouvelles ressources pour manipuler les élections, utiliser des drones dans des attaques terroristes et plus généralement poursuivre désormais leurs activités illégales avec des moyens renouvelés.

Le rapport présente une dizaine de scénarios selon lesquels la technologie risque désormais d'être utilisée pour renouveler en profondeur le champ et les méthodes des activités criminelles.

Dans l'immédiat les dangers viendront d'une généralisation des méthodes dites de "phishing", consistant à s'introduire dans les ordinateurs et les applications à l'occasion de messages comportant des malwares. Aujourd'hui ces attaques peuvent être relativement facilement évitées, en faisant appel à des précautions simples, notamment éviter d'ouvrir de tels messages. Mais avec le développement de l'AI, ces messages deviendront indétectables et porteront des atteintes en bien plus grande profondeur.

Plus généralement, la généralisation de l'Internet dans tous les rapports sociaux permettraa aux dictatures et aux criminels d'identifier avec précision leurs cibles et mettre au point des méthodes sophistiquées, allant de la cyber-guerres au cyber-crimes, pour arriver à leurs fins.

L'autre danger majeur signalé par le rapport concerne la multiplication de drones et de robots qui seront utilisés pour accidenter des véhicules (notamment quand il s'agira de véhicules à conduite autonome), envoyer des missiles ou mettre en danger des infrastructures critiques. Ceci contre la demande de rançons mais aussi dans des buts de destruction obéissant à des motifs politiques.

Ces drones et robots seront dotés de capacités leur permettant sans contrôle humain de procéder de façon autonome aux diverses activités. Mais ils ne seront que des applications « civiles » des armes létales automatiques en cours de développement par les militaires.

Les auteurs du rapport en appellent aux gouvernements et aux entreprises, notamment les GAFA (grands de l'Internet) pour s'assurer que les nouvelles applications de l'AI et de la robotique seront protégées contre le piratage (hacking) et respecteront des normes de sécurité rigoureuses.

Mais il y a quelque naïveté à penser que tous les gouvernements respecteront cette déontologie. Quand aux GAFA, il est amplement démontré aujourd'hui qu'elles utilisent des méthodes proches de celles redoutées par les experts pour pirater les données des utilisateurs et plus généralement pour se donner à leur profit le contrôle du monde de demain. Elles le font en collaboration avec les Agences de recherche de l'armée américaine. Il en sera nécessairement de même dans d'autres pays.

Références
https://www.eff.org/deeplinks/2018/02/malicious-use-artificial-intelligence-forecasting-prevention-and-mitigation

https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf

Notes

1) Future of Humanity Institute, University of Oxford Centre for the Study of Existential Risk, University of Cambridge Center for a New American Security, Electronic Frontier Foundation, OpenAI

2) Executive Summary

Artificial intelligence and machine learning capabilities are growing at an unprecedented rate. These technologies have many widely beneficial applications, ranging from machine translation to medical image analysis. Countless more such applications are being developed and can be expected over the long term.

Less attention has historically been paid to the ways in which artificial intelligence can be used maliciously. This report surveys the landscape of potential security threats from malicious uses of artificial intelligence technologies, and proposes ways to better forecast, prevent, and mitigate these threats. We analyze, but do not conclusively resolve, the question of what the long-term equilibrium between attackers and defenders will be. We focus instead on what sorts of attacks we are likely to see soon if adequate defenses are not developed.

In response to the changing threat landscape we make four high-level recommendations:

1. Policymakers should collaborate closely with technical researchers to investigate, prevent, and mitigate potential malicious uses of AI.

2. Researchers and engineers in artificial intelligence should take the dual-use nature of their work seriously, allowing misuserelated considerations to influence research priorities and norms, and proactively reaching out to relevant actors when harmful applications are foreseeable.

3. Best practices should be identified in research areas with more mature methods for addressing dual-use concerns, such as computer security, and imported where applicable to the case of AI.

4. Actively seek to expand the range of stakeholders and domain experts involved in discussions of these challenges.

21/02/2018
Vos réactions
Dernières réactions
Actuellement, pas de réaction sur cet article!
Votre réaction
Vérification anti-spam
Nom/pseudo*


Email*


Titre*


Commentaire*


* champs obligatoires
Europe Solidaire