La France se dote d’un Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA)

Avec la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA), l’État français confirme son engagement en faveur d’un développement maîtrisé de l’IA dans un cadre de confiance et de sécurité. Cette initiative s’inscrit dans la continuité des engagements pris en mai 2024 lors de la Déclaration de Séoul pour une IA sûre, novatrice et inclusive, à laquelle la France est signataire.

 

 

Alors que Paris s’apprête à accueillir le Sommet pour l’action sur l’IA les 10 et 11 février 2025, cette annonce marque une étape décisive pour la place de la France dans l’écosystème international de la sécurité de l’IA.

Un institut pour fédérer les acteurs de la sécurité de l’IA

L’INESIA a pour mission de coordonner et structurer la recherche et l’évaluation en matière de sécurité de l’IA sans créer une nouvelle entité juridique. Il réunit les principales institutions françaises déjà engagées dans ce domaine :

  • Agence nationale de la sécurité des systèmes d’information (ANSSI)
  • Institut national de recherche en sciences et technologies du numérique (Inria)
  • Laboratoire national de métrologie et d’essais (LNE)
  • Pôle d’expertise de la régulation numérique (PEReN)

L’Institut sera piloté conjointement par le Secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des entreprises (DGE).

Trois axes stratégiques pour une IA de confiance

L’INESIA concentrera ses efforts sur trois grands axes :

  • Analyse des risques systémiques de l’IA, en particulier dans le champ de la sécurité nationale.
  • Accompagnement de la régulation de l’IA conformément aux normes européennes et internationales.
  • Évaluation de la performance et de la fiabilité des modèles d’IA.

Un cadre de confiance pour l’IA

La confiance est un facteur clé pour le déploiement de l’IA dans la société. L’INESIA a pour vocation de garantir la sécurité des systèmes d’IA afin d’encadrer leur usage dans des domaines sensibles tels que la santé, l’éducation, l’industrie et l’information. Il contribuera à prévenir les risques liés à cette technologie tout en soutenant l’innovation.

Un engagement international renforcé

Avec l’INESIA, la France affirme son ambition de jouer un rôle moteur dans la sécurité de l’IA au niveau mondial. Intégré au réseau international des AI Safety Institutes, l’INESIA collaborera avec des partenaires tels que le Royaume-Uni, les États-Unis, le Japon et la Commission européenne pour promouvoir une IA de confiance et sécurisée.

Cette initiative s’inscrit dans un contexte où les enjeux de régulation et de sécurisation de l’IA sont devenus cruciaux. La création de l’INESIA marque une étape majeure pour structurer la recherche française et européenne en matière d’évaluation et de régulation, au bénéfice de l’écosystème numérique et des citoyens.

Contact et adresses

secretariat@irefi.eu

  • 38, Avenue Hoche, 75008 Paris, FRANCE
  • Via dei Banchi Nuovi 24, 00186 Rome, ITALIE