Alors que l'Europe s'apprête à réguler l'intelligence artificielle avec son AI Act en préparation à Bruxelles, l'Institut Montaigne, influent think tank libéral, préconise la création d'une « autorité de l'IA » à l'échelle nationale, comme en ont déjà d'autres pays. Son rôle : évaluer rigoureusement la performance et les risques associés à la technologie.Car ces services d'IA générative, capable de générer des textes, des images ou des vidéos, présentent des risques avérés, rappelle le rapport publié mercredi. Cela va du biais algorithmique, discriminant une partie de la population, aux « hallucinations » et à la désinformation. Plus inquiétant, des risques « émergents » pourraient « s'avérer catastrophiques », écrit l'Institut, comme le détournement de l'IA pour concevoir des armes, notamment chimiques et biologiques, pour pirater des systèmes informatiques, ou encore pour manipuler des personnes.

« La France est en retard »

A la veille de la seconde grande édition du Sommet mondial de l'IA, qui doit se tenir en France après celle de novembre à Bletchley Park au Royaume-Uni, il y a urgence à créer cette « police de l'IA » qui « permettrait une intervention spontanée des pouvoirs publics en cas de risque jugé inacceptable », selon le rapport. Les Etats-Unis, le Royaume-Uni et Singapour, « pays leaders de l'IA », ont montré l'exemple en créant leurs propres instituts de sûreté, argumente Milo Rignell, expert sur les sujets numériques au sein de l'Institut Montaigne. « La France est désormais en retard », juge-t-il.Promis, il ne s'agirait pas de « créer une énième entité publique », dit le rapport, et cette autorité nationale serait complémentaire avec l'AI Act européen (dont le but est de contraindre les systèmes jugés à « haut risque » utilisés dans des domaines sensibles). Il s'agirait d'un organisme qui pourrait justement « faciliter la mise en conformité de l'application du règlement » européen, ainsi que « faire des 'stress tests' des modèles d'IA » et « procurer des conseils et des accompagnements nécessaires » aux entreprises. « Si on n'a que la partie réglementation sans l'outillage, on navigue dans le noir », justifie Milo Rignell. Ce dernier préconise de s'appuyer sur les expertises déjà existantes en matière d'évaluation de l'IA en France, comme celles de la CNIL (pour les données personnelles), du Laboratoire national de métrologie et d'essais (LNE), de l'Anssi (pour la cybersécurité) ou de l'Arcom (pour les contenus numériques).