Le débat sur la Stratégie antiterroriste mondiale met l’accent sur l’utilisation de l’IA pour lutter contre le terrorisme. L’Intelligence Artificielle pourrait aider à détecter les « loups solitaires », comme neutraliser certaines attaques. Elle est ainsi devenue le nouveau cheval de Troie des services secrets. Paradoxalement, le terrorisme constitue la menace asymétrique la plus directe de l’intelligence artificielle pour la sécurité des peuples. Son développement, symbolisé ces derniers mois par l'engouement suscité par ChatGPT, intéresse aussi les terroristes. L’outil peut être utilisé pour recruter, répandre la haine et même soutenir des insurrections, ce qui inquiète Europol, l’agence européenne de police criminelle qui facilite l'échange de renseignements entre polices nationales en matière de stupéfiants, de terrorisme, de criminalité internationale et de pédocriminalité au sein de l'UE. Le potentiel de l’IA est gigantesque, mais il faut aussi agir pour ne pas le rendre destructeur. Et les textes de loi ne sont pas armés …
Les services de contre-terrorisme ont pour habitude de sous-estimer la capacité des groupes terroristes à s’emparer des technologies émergentes, à en maîtriser l’utilisation et à les mettre au service de leur lutte. Or, l’essor de Daech nous l’a suffisamment prouvé. Les terroristes se sont avérés particulièrement habiles dans le maniement de ces technologies, en particulier celles de l’information et de la communication (TIC), pour les détourner de leurs fins premières à leur avantage. En témoignent leur intense activité sur les réseaux sociaux au cœur de la conflagration syrienne et leur aptitude à attirer nombre de combattants étrangers sur les champs de bataille. Aujourd’hui, les industries criminelles sont aussi prêtes à tirer parti de l’IA, comme le robot conversationnel ChatGPT, pour commettre leurs méfaits, avertit l’agence de police européenne dans un récent rapport. « ChatGPT est déjà en mesure de faciliter un nombre important d’activités criminelles, […] comme le terrorisme et l’exploitation sexuelle des enfants », détaille Europol, soulignant que les truands sont « généralement prompts à exploiter les nouvelles technologies ».
Une source d’informations
D’abord, on peut imaginer aisément que ces groupes sauront utiliser l’IA pour améliorer leurs capacités de renseignement. Mais, plus généralement, dans la mesure où ChatGPT peut générer des informations prêtes à l’emploi, Europol prévient aussi que cette technologie émergente peut accélérer le processus de recherche par un acteur malveillant sans connaissance préalable d’un domaine criminel potentiel. Ainsi, un citoyen lambda pourrait apprendre grâce à ce logiciel à pénétrer dans une maison, fabriquer une bombe, produire de la cocaïne ou s’adonner à la cybercriminalité. Pour éviter les dérives, OpenAI a mis en place des filtres et des garde-fous. Mais, il est possible de contourner ces limitations avec une attaque de « prompt injection ». Ce type d’attaques, connues d’OpenAI, consiste à discuter avec ChatGPT pour le convaincre d’ignorer sa programmation, changer de comportement et répondre.
Des interrogations plurielles
Et pour Europol, le défi posé par ces systèmes ne fera qu’augmenter à mesure qu’ils deviendront de plus en plus disponibles et sophistiqués, par exemple, avec la génération de deep fakes très convaincants. Un autre risque est que ces grands modèles de langage deviennent disponibles sur le dark web sans aucune protection et qu’ils soient entraînés avec des données particulièrement nuisibles. Le type de données qui alimenteront ces systèmes et la manière dont ils pourraient être contrôlés sont des points d’interrogation majeurs pour l’avenir.
Des textes de loi pas armés
Et au niveau du droit ? Jonathan KC Hall, juriste, est l’actuel examinateur indépendant de la législation antiterroriste du Parlement britannique. Il affirme : « Je pense qu’il est tout à fait concevable que des chatbots IA soient programmés – ou, pire encore, décident – de propager une idéologie extrémiste violente », affirme-t-il dans un article du Daily Mail, ajoutant que, sans cadre légal, « les attaques fondées sur l’IA sont probablement à nos portes ».
Ainsi, récemment, une start-up américaine a pris le parti de donner un accès public à une IA sans limites éthiques, arguant que ce n’était pas à l’outil de limiter l’utilisateur dans son usage. « Pendant les quelques heures où j’ai joué avec lui, le programme s’est fait un plaisir d’accéder à toutes mes demandes. Il a fait l’éloge d’Hitler, a rédigé un article d’opinion préconisant d’abattre les personnes non logées de San Francisco pour résoudre la crise des sans-abris de la ville et a essayé de me convaincre que l’élection présidentielle de 2020 était truquée », décrit un journaliste de Buzzfeed, qui a effectué quelques tests sur cette IA nommée FreedomGPT.
Le cadre légal actuel est-il suffisamment adapté à l’arrivée de ces nouvelles technologies ? Force est de constater que non. « Quand ChatGPT commencera à encourager le terrorisme, qui y aura-t-il matière à poursuivre devant les tribunaux ? », s’interroge Jonathan KC Hall. Une question qui reste globalement sans réponse pour le moment.