Pendant que certains créent des IA, d’autres tentent de les réguler. C’est le cas de la France où vendredi 31 janvier 2025, Clara Chappaz, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a annoncé le lancement d’un organisme public dédié à l’étude des impacts et des risques liés à l’expansion de l’IA : l’« Institut national pour l’évaluation et la sécurité de l’intelligence artificielle » (INESIA).

Sa mission est claire mais pas simple : garantir la sécurité nationale dans ce domaine. Ce qui inclut : sécurité militaire, sécurité des usages, sécurité des utilisateurs et de leurs données, mais aussi développement de son utilisation.

Ce nouvel acteur est d’ailleurs chapeauté par une double tutelle, militaire et économique, avec d’un côté le Secrétariat général de la défense et de la sécurité nationale (SGDSN), rattaché au Premier ministre, et de l’autre la Direction générale des Entreprises (DGE), liée au ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique.

Fédérer 4 entités existantes pour mieux détecter les incidences de l’IA

Cette entité ne vient pas grossir les rangs des près de 1400 agences que compte déjà l’État français, puisque, sans être une structure juridique, elle fédère 4 entités existantes déjà chargées de l’évaluation et de la sécurité :

  • L’Agence nationale de la sécurité des systèmes d’information (ANSSI),
  •  L’Institut national de recherche en sciences et technologies du numérique (Inria),
  • Le Laboratoire National de Métrologie et d’Essais (LNE)
  •  Le Pôle d’expertise de la régulation numérique (PEReN). Des agences dont, mis à part l’ANSSI, peu de gens connaissaient l’existence.

Cette collaboration vise à structurer un écosystème national regroupant chercheurs, ingénieurs et décideurs politiques pour, donc, anticiper les risques tout en soutenant l’innovation. Exercice d’équilibriste s’il en est.

Avec l’Inesia, explique-t-on à la Délégation ministérielle à l’IA :

« L’État matérialise son engagement en faveur d’un développement maîtrisé de l’IA dans un cadre de confiance et de sécurité », conformément aux engagements pris en 2024 dans la « Déclaration de Séoul pour une IA sûre, novatrice et inclusive ». Déclaration adoptée par l’Australie, le Canada, l’Union européenne, la France, l’Allemagne, l’Italie, le Japon, la République de Corée, la République de Singapour, le Royaume-Uni et les États‑Unis.

Pourquoi surveiller l’IA est essentiel ?

L’essor rapide de l’intelligence artificielle transforme profondément les secteurs économiques, sociaux et industriels, mais il s’accompagne aussi de risques majeurs. Parmi ces derniers ont déjà été identifiés :

  • Les menaces en cybersécurité : En 2025, 74 % des entreprises françaises identifient les attaques alimentées par l’IA comme leur principal défi en matière de sécurité. Les logiciels malveillants renforcés par l’IA, les deepfakes et les attaques de phishing sophistiquées menacent la protection des données et des infrastructures critiques.
  • L’impact environnemental : L’utilisation massive des modèles d’IA, tels que ChatGPT ou Gemini, consomme d’importantes ressources énergétiques. Un outil gouvernemental a d’ailleurs été mis en ligne pour sensibiliser au coût écologique des requêtes IA.
  • Les enjeux éthiques : Les systèmes d’IA peuvent exacerber les discriminations, manipuler les comportements humains ou violer les droits fondamentaux, comme le montrent les débats autour des technologies de notation sociale ou de reconnaissance biométrique, des usages de l’IA qui sont, au passage, désormais bannis par la nouvelle règlementation européenne sur l’IA, entrée en application ce 2 février. Réglementation qui interdit plus largement les « IA à risque inacceptable ».

Ces problématiques, associées à l’extrême rapidité d’évolution et de propagation de l’IA dans le monde, soulignent la nécessité impérieuse d’un encadrement de cette révolution technologique.

Un engagement international renforcé et des questions…

Certains veulent voir dans cette initiative une étape clé vers une gouvernance responsable de l’intelligence artificielle.

Reste tout de même une question en suspens : de quel(s) pouvoir(s) va disposer cette agence pour remplir sa mission et infléchir certaines dérives ? N’y-a-t-il pas déjà redondance avec les travaux de l’ Office parlementaire d’évaluation des choix scientifiques et technologiques, l’OPECST qui a rendu en décembre dernier un rapport et 18 préconisations pour encadrer l’IA et son développement ? Enfin, quelle collaboration est prévue entre l’INESIA et les commissions européennes inspiratrice de l’IA Act et du dispositif européen de régulation mis en place ce 2 février ?