Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Général Patrick Perrot, Gendarmerie nationale : L’Intelligence Artificielle au service de l’humain et de la Cybersécurité, notamment pour contrer les Deepfakes

septembre 2023 par Valentin Jangwa, Global Security Mag

L’équipe de la Gendarmerie nationale, avec son projet Authentik IA, a reçu le prix du projet ayant le plus gros impact sociétal potentiel, à l’occasion de la première édition des « datacraft awards ». La cérémonie était animée par Isabelle Hilali, Fondatrice et CEO de datacraft, et Claudine Pons, CEO de l’Agence Les Rois Mages, dans le cadre de la « Nuit de l’IA », Salle Wagram à Paris. L’occasion pour le Général Patrick Perrot, Coordonnateur pour l’Intelligence Artificielle au sein de la Gendarmerie nationale et Chargé de mission « Stratégie de la Donnée », titulaire de la Chaire IA et Sécurité de s’entretenir ensuite avec Global Security Mag, afin de relater ce projet et de nous donner un éclairage.

De droite à gauche, le Général Patrick Perrot, Mahmoud Mike Gbadamassi, Ingénieur en IA, Aurelle Youego, Ingénieure en IA, Ysens de France PhD Docteur en Droit.

Global Security Mag : Général Patrick Perrot, merci de nous accorder cet entretien. Pouvez-vous vous présenter ?

Patrick Perrot : Je suis Coordonnateur pour l’Intelligence Artificielle au sein de la Gendarmerie nationale. J’ai une carrière d’officier de gendarmerie assez classique, avec un prisme scientifique, puisque je suis ingénieur télécoms. J’ai commencé en escadron de gendarmerie mobile, ensuite j’ai travaillé dans le domaine de la police technique et scientifique à l’IRCGN (Institut de recherche criminelle de la Gendarmerie nationale) dans le domaine de l’audio, de l’image et de la modélisation 3D des scènes de crime. Durant ce temps, j’ai fait une thèse de doctorat dans le domaine de l’Intelligence Artificielle appliquée à la reconnaissance de locuteur (identification de l’individu par la voix) sur des problématiques de spoofing (attaque par usurpation d’identité, imposture vocale). À l’époque, les réseaux génératifs adverses et les Deepfakes n’existaient pas encore. Ensuite, j’ai pris le commandement d’un arrondissement administratif, avant de rejoindre le SCRCGN (Service Central de Renseignement Criminel de la Gendarmerie nationale), et j’ai appliqué des méthodes d’Intelligence Artificielle pour essayer de mieux comprendre l’organisation des réseaux criminels de la criminalité organisée et d’anticiper les phénomènes de délinquance.

L’Intelligence Artificielle ayant l’avantage d’apporter un élément prédictif objectif, j’ai mis en place ces méthodes, avant d’accéder en 2020 à ce poste de Coordonnateur pour l’Intelligence Artificielle. Cette fonction consiste à élaborer la stratégie de l’institution en matière d’Intelligence Artificielle et de tracer une feuille de route. Le postulat de base est que l’IA n’est pas un projet informatique, mais un « animal » beaucoup plus pluriel, un concept beaucoup plus polysémique qui nécessite de s’interroger sur des aspects de formation, de partenariat et de valorisation de ce que nous faisons, tout en tenant compte de la transparene dont la Gendarmerie doit faire preuve vis-à-vis des citoyens et citoyennes.

Il y a également un aspect d’éthique, de règlementation et de conformité au niveau européen. Par ailleurs, nous agissons beaucoup autour des Jeux Olympiques qui arrivent, pour déterminer comment utiliser l’IA de façon responsable dans ce cadre. Nous travaillons également sur la normalisation, en vérifiant que nos applications sont conformes à la Charte éthique que nous avons publiée.

L’autre pilier, c’est la Recherche et le Développement (R&D). L’Intelligence Artificielle permet de mettre un certain nombre d’outils à la disposition des gendarmes. Nous devons déterminer quels types de travaux nous pouvons mener pour être plus efficaces comme gendarmes dans la protection des citoyens et des citoyennes, dans sa dimension collective et individuelle.

Global Security Mag : Pouvez-vous nous présenter le projet Authentik IA et son équipe ?

Patrick Perrot : Le projet Authentik IA fait partie de la « bulle » R&D. Il a vocation à être ensuite déployé sur le théâtre opérationnel, à disposition des gendarmes.
L’idée, c’est que l’IA ne doit pas s’imposer à nous et être perçue comme une boîte noire, elle doit être appréhendée par des gendarmes qui lui sont aculturés.

D’où la revue Culture ’IA, éditée tous les deux mois, et un MOOC (Massive Open Online Course, ou Cours en ligne) conçu pour faire passer 93 % des gendarmes sur l’IA. Celle-ci doit être connue par l’institution et permettre de développer nos propres algorithmes sans négliger d’autres solutions, car si nous ne pouvons évidemment pas rivaliser avec un certain nombre d’industriels, nous pouvons « benchmarker » leurs solutions et mieux comprendre ce que nous utilisons.
Le projet Authentik IA relève de cette démarche.

On a beaucoup entendu parler de l’IA générative avec l’avènement de ChatGPT fin 2022. Cette technique n’est pas nouvelle, elle est fondée sur les Larges Langage Models (LLM) résultant de méthodes génératives qui existaient déjà en 2014.
Nous avons avec nous un « thésard » de chez Google, qui avait créé des réseaux génératifs adverses (GAN, Generative Adversarial Networks) pour notamment contrer les Deepfakes (Hypertrucages) que l’on peut voir dans certaines parodies d’hommes politiques dont on remplace les visages.

Cela fait plus de trois ans que nous travaillons sur les Deepfakes et les LLM mais on se rend compte qu’avec ChatGPT, la technologie a rencontré l’usage et la bulle a explosé. Alors que jusqu’ici, au sein de la Gendarmerie, on travaillait plus sur la notion d’identification des éléments de preuve, des individus, des véhicules, on s’interroge aujourd’hui sur l’authentification de l’information, qui est le véritable enjeu, d’où le nom Authentik IA (rien à voir avec le titre de l’album du groupe de rap NTM !).
Tous les supports doivent d’abord passer par une étape d’authentification car la vraie question est de savoir si la source qui est devant nous est authentique ou pas.

Nous nous sommes dit que les réseaux génératifs adverses étaient la première étape pour travailler sur ces sujets, et il existe différentes méthodes telles que le GAN. La méthode que nous appliquons est de créer nos propres Deepfakes et de voir si nous sommes capables de détecter une fausse image. Quand on voit le Pape en doudoune, cela a fait le buzz sur les réseaux mais on ne s’en inquiète pas beaucoup. C’est beaucoup plus grave dans un contexte de guerre comme en Ukraine, de déstabilisation politique, de complotisme, dans des affaires de pédopornographie, d’atteinte à la vie privée, d’atteinte à des entités numériques ou encore de faux ordres de virement où on se fait passer pour un dirigeant ou d’entreprise pour demander des transferts de fonds.

En tant que force de sécurité intérieure, la Gendarmerie nationale travaille pour identifier et authentifier ces supports vidéo, ces images et audio. Car associer une « fake » image et un « fake » audio sur une même vidéo peut permettre de faire parler une personne à la place d’une autre et c’est problématique. De plus, avec ChatGPT, nous nous sommes aperçus que le texte pouvait également poser un problème d’authentification. Nous avons créé nos modèles et choisi de ne pas utiliser nos propres algorithmes, mais plutôt d’utiliser ChatGPT. Nous sommes aussi en train de faire des tests avec LLama, le modèle de langage de Meta, en créant toute une base de données de textes générés par ces modèles de langage, que nous comparons avec d’autres textes générés sur des blogs ou sur des sites Web. L’intérêt est de savoir distinguer dans un texte ce qui est original et ce qui généré par le model de langage.

C’est donc ce que regroupe Authentik IA, c’est-à-dire l’ensemble de ces modalités, images, textes et voix.

Global Security Mag : Comment la Gendarmerie nationale s’est-elle organisée pour gérer ce projet Authentik IA ?

Patrick Perrot : Nous avons mis en place une équipe qui travaille sur le projet depuis deux ans : Mahmoud Mike Gbadamassi et Aurelle Youego, deux jeunes ingénieurs en IA, ainsi que deux ingénieur.e.s en alternance et Ysens de France, PhD, Docteur en droit spécialisé en IA et en robotique militaire. Nous nous posons en effet constamment la question du cadre juridique de l’utilisation des applications, quelle responsabilité nous incombe par rapport à l’utilisation de ces outils, quelles données à caractère personnel ou pas nous utilisons. Nous associons donc une valeur juridique à chacun de nos projets, et il est important d’avoir l’accompagnement d’Ysens de France. Quant à moi, je coordonne ces différents travaux.

Global Security Mag : Pourquoi avez-vous intégré deux jeunes ingénieur.e.s en cursus d’études en Alternance dans ce projet ?

Patrick Perrot : Cela a été un choix pragmatique et rationnel. En France, de nos jours, avoir une ingénieur.e spécialisé.e en IA est un vrai défi et l’État a beaucoup de mal à être concurrentiel face au secteur privé. En revanche, dès lors que nous avons la compétence en interne, nous pouvons prendre des alternant.e.s et les former en Intelligence Artificielle en complément de la formation dispensée par leurs écoles.
Les deux jeunes ingénieur.e.s font partie d’une plus grande équipe de jeunes que nous avons ainsi intégrée dans nos travaux plus génériques en IA, et qui sont vraiment passionné.e.s par les sujets sur lesquels ils et elles travaillent. Ces jeunes se rendent compte du côté concret, contrairement aux travaux de dashboard ou d’analyses qu’ils peuvent effectuer dans certaines entreprises sans vraiment faire de l’IA. Quand nous avons commencé à les mettre sur des travaux de réseaux génératifs adverses en 2020, ce domaine n’était pas aussi connu qu’aujourd’hui, si ce n’est dans la sphère de la recherche.

Mais c’est aussi une démarche pédagogique, car il est intéressant d’avoir d’emblée des jeunes sensibilisé.e.s à la notion de Service public. Ils et elles feront leurs carrières librement, mais nous leur aurons mis dès leur très jeune âge « une puce , ou plutôt un « ADN », car on est toujours marqué par ce que l’on fait entre 20 et 25 ans et c’est déterminant pour la suite. Ces jeunes feront sans doute de belles carrières, mais ils et elles auront commencé par cette idée du Service public, et cela leur donnera un regard différent.

Autre point intéressant dans le même esprit, c’est qu’avec l’apport d’Ysens de France, nous accueillons aussi des jeunes apprenti.e.s juristes. Nous avons ainsi en interne ce mélange entre l’ingénieur.e et le ou la juriste, qui font normalement partie de deux communautés qui se parlent peu. Nous leur donnons l’occasion de se rencontrer et de se parler sans difficultés, étant toutes et tous jeunes. Leurs confrontations sont riches car le ou la juriste ne sait souvent pas de quoi on parle quand il s’agit d’’IA et a un langage spécifique, tandi que l’ingénieur.e qui parle d’IA ne mesure pas l’impact sociétal et juridique de ces applications. Ces échanges sont aussi l’une des raison de prendre de jeunes ingénieur.e.s en Alternance… sans oublier évidemment que ces jeunes apprenti.e.s coûtent financièrement moins qu’un.e ingénieur.e formé.e et ayant terminé ses études.

Global Security Mag : Pourquoi la Gendarmerie nationale a-t-elle pris le risque de s’exposer à ce concours datacraft, et quel est votre message pour nos lectrices, lecteurs ?

Patrick Perrot : Pour moi, il n’y avait pas de risques, car cela n’aurait pas été grave de perdre. Nous avons besoin d’organisations telles que datacraft pour porter ce genre d’initiatives et il est important de faire participer les jeunes à ce concours car c’est déjà une valorisation les concernant. C’était aussi l’occasion de les mettre en situation de voir ce qu’ils ou elles étaient capables de faire face à des entreprises ou à des start-ups.

L’autre enjeu était la redevabilité que nous avons vis-à-vis de nos citoyens et citoyennes. C’est important pour la Gendarmerie nationale d’être transparente par rapport aux applications que nous mettons en place et de montrer nos compétences, avec un haut niveau de technicité scientifique, dans ce type de domaines technologiques.

Le message, c’est qu’il ne faut pas craindre l’Intelligence Artificielle, dès lors qu’on prend le chemin de l’effort et de la connaissance, et qu’on ne la subit pas.
L’Intelligence Artificielle ne prend que la place que l’humain lui laisse et elle n’a aucune intention de dépasser l’humain. Elle a vocation à élever l’humain et pourra accomplir beaucoup de tâches, mais c’est à l’humain d’en décider.

Je suis convaincu qu’il est nécessaire de faire confiance aux forces de sécurité intérieure, notamment à la Gendarmerie nationale, pour en maitriser les développements et gérer les inquiétudes autour de la manipulation de l’information. C’est ainsi que nous arriverons à protéger collectivement et individuellement les citoyens et citoyennes. La coopération européenne est aussi nécessaire et très importante dans ce domaine : nous travaillons par exemple au sein de l’institut EuropIA, car il est important que sur ces sujets, le monde public rencontre le monde privé.


Voir les articles précédents

    

Voir les articles suivants