Lundi 24 Avril 2023
Anne-Laure Allain

Intelligence Artificielle : l'Institut Montaigne dévoile ses 10 recommandations

Dans sa dernière note d'action, le célèbre Think Tank - l'Institut Montaigne - dévoile 10 recommandations pour investir une Intelligence Artificielle sûre et digne de confiance. Avec, entre autres : la mise en place d'un projet de rupture à l'échelle de l'Hexagone doté d'un budget de 100 millions d Euros ; faire de IA un projet d'interêt commun pour l'Europe (budget : 1 milliard d'euros) ou encore la création d'un pôle de recherche mondial sur la compréhension des préférences humaines et leur bonne spécification pour des systèmes d’IA à usage général.


Aurons-nous un "Make AI Great Again" ? Dans sa dernière note d'action dédiée à l'intelligence artificielle, l'Institut Montaigne, a statué de manière plutôt limpide. L'intelligence Artificielle est donc "un Impératif Européen et une opportunité française". Et en la matière les choses doivent aller vite, voire très vite. La preuve ? Selon le rapport, elle réside dans "la croissance exponentielle des montants qui y sont investis : 92 milliards de dollars d'investissement privé en 2022, soit près de 20 fois plus qu'il y a 10 ans".
Cependant, si l'IA est une technologie majeure vouée à se disséminer dans l'ensemble des secteurs d'activité, sa célérité de déploiement engendre aussi un risque de défaillances accru "et représente un enjeu de sûreté et de résilience aux échelles nationale et internationale. "
Pour palier cela, le Think Tank fixe deux objectifs centraux.
En premier : "Faire de la France un leader mondial de la R&D dans la sûreté et la confiance des modèles d’IA à usage général.". Et pour cela, il décline six recommandations (CF fin de l'article).
Et, en deuxième : "définir un cadre réglementaire européen pour la sûreté et la confiance de l’IA à usage général et favoriser son adoption dans le monde." (4 recommandations donc) .
Et le Think Tank de conclure : "Si la France et l'Europe souhaitent pleinement capitaliser sur cette opportunité inédite, elles doivent adopter une approche ambitieuse pour développer des systèmes d’IA à usage général véritablement sûrs et dignes de confiance d’une part, et pour réguler les systèmes d’IA à usage général dangereux d’autre part."
Quant "Make AI Great Again" ? Cela s'inspire directement de la recommandation 1 de l'Institut Montaigne.
A découvrir ci-dessous .

A-L A
XXXXXXXXX
Objectif 1 : Faire de la France un leader mondial de la R&D dans la sûreté et la confiance des modèles d’IA à usage général
Recommandation 1 :
Attirer en France les meilleurs chercheurs internationaux de l’IA avec un appel porté au plus haut niveau de l’État, sur le modèle de l’initiative “Make Our Planet Great Again”, centré sur le développement de systèmes d’IA à usage général sûrs et dignes de confiance.
Recommandation 2 :
Mener un projet d’innovation de rupture pour développer des systèmes d’IA à usage général sûrs et dignes de confiance, doté de 100 millions d’euros et d’une gouvernance agile, qui s'appuie sur les forces de l’écosystème français.
Recommandation 3 :
Créer un pôle de recherche mondial sur la compréhension des préférences humaines et leur bonne spécification pour des systèmes d’IA à usage général. Confier la coordination de ce pôle à un institut de recherche emblématique (ENS ou 3IA par exemple) et assurer son financement via une enveloppe dédiée, par exemple des Programmes et équipements prioritaires de recherche (PEPR). Recommandation 4 :
Faire de l’IA sûre et digne de confiance un projet important d'intérêt européen commun (PIIEC) permettant d’assouplir les règles d’aides d’État et/ou l’un des “produits phares” de l’Union européenne dotés d’environ 1 milliard d’euros.
Recommandation 5 :
Développer en France deux référentiels (benchmarks) pour la recherche permettant de mesurer la confiance et la performance d’un système d’IA à usage général.
Recommandation 6 :
Créer une discipline de sûreté de l’IA (ou génie de l’IA) en conditionnant le financement public des formations à l’IA à l’intégration d’un module sur la sûreté et la confiance de l’IA.

Objectif 2 : Définir un cadre réglementaire européen pour la sûreté et la confiance de l’IA à usage général et favoriser son adoption dans le monde:
Recommandation 7
Concrétiser la proposition de la France d’inscrire les systèmes d'IA à usage général dans la réglementation européenne de l’IA et favoriser son adoption dans le monde via le E.U.-U.S. Trade and Technology Council (TTC) et le G20.
Recommandation 8 :
Confier au futur régulateur français de l’IA une expérimentation pilote ou un audit à blanc du processus d’audit de l’IA prévu par la réglementation européenne, afin d’accompagner la montée en puissance d’un écosystème d’audit français (entreprises, auditeurs, régulateur).
Recommandation 9 :
Développer au sein du futur régulateur français de l’IA et en association étroite avec les acteurs de l’évaluation comme le LNE un “bac à sable” (sandbox) réglementaire de l’IA, pour tester sans conséquence juridique le degré de conformité de nouveaux systèmes d’IA et d’IA à usage général. Recommandation 10 :
Confier au futur régulateur français de l’IA la création d’une base de données de référence de documentation des défaillances de systèmes d’IA.


Articles similaires