Le document a beau ne contenir que huit pages, c'est une première pour le G7. Onze mois jour pour jour après la déferlante ChatGPT, les sept économies les plus avancées au monde (Allemagne, Canada, Etats-Unis, France, Italie, Japon, Royaume-Uni, plus l'Union européenne) ont adopté lundi un code de bonne conduite sur l'intelligence artificielle. Le texte, fruit du G7 d'Hiroshima en mai, contient 11 recommandations non contraignantes en faveur d'une IA « sûre, sécurisée et digne de confiance ».

Car aujourd'hui, les risques posés par l'IA sont énormes, si l'on en croit le G7. Le bloc en donne une vision quasi apocalyptique, reflet de la position britannique, selon une source au fait des discussions. Ainsi, l'IA faciliterait le développement des armes chimiques, biologiques et nucléaires en « abaissant les barrières à l'entrée, y compris pour des acteurs non étatiques ». L'IA peut aussi être utilisée pour mener des cyberattaques, ou pour prendre le contrôle sur des infrastructures critiques… Le G7 n'oublie pas les risques sociétaux : biais algorithmiques potentiellement discriminants pour les femmes ou les minorités, piratage de données personnelles, désinformation avec la prolifération des « deepfakes », etc.

Une tentative d'homogénéisation

Face à cela, le groupe recommande plusieurs actions : tests systématiques des modèles d'IA avant leur arrivée sur le marché, lancement de compétitions (bug bounty) pour encourager la découverte de failles par des tiers, rapports de transparence, mise en place d'outils de sécurité robustes, etc. Cette initiative du G7 arrive alors que toutes les grandes puissances du monde cherchent la bonne façon de réguler l'IA, en plein boom depuis un an. La ligne de crête est ténue, entre la nécessaire protection et la volonté de capter les bénéfices économiques et sociétaux de cette révolution, la plus grande depuis la généralisation d'Internet dans les années 2000.

Or jusqu'à présent, chaque bloc avançait de son côté et selon sa propre philosophie.Avec son AI Act, l'UE a opté pour une régulation graduelle, en fonction de la gravité des risques. Les Etats-Unis, eux, régulaient jusqu'à présent l'IA avec du « droit mou » - un « AI Bill of Rights » non contraignant existe depuis 2022. Joe Biden a toutefois annoncé qu'il signerait un décret exécutif pour « protéger les Américains des risques potentiels posés par l'IA ». Il ferait suite à celui signé par Donald Trump en 2019 qui visait alors à « maintenir le leadership américain dans l'IA ». Dans ce contexte, le code de bonne conduite du G7 vise à donner une cohérence d'ensemble pour le camp occidental. Cette tentative d'homogénéisation est d'autant plus notable que le G7 regroupe à la fois des pays qui ont enfanté les géants de l'IA, comme les Etats-Unis, et d'autres pays très en retard, comme l'Italie. Pour autant, « il n'y a pas eu de grosse ligne de fracture avec les Etats-Unis, estime l'Elysée. L'administration Biden partage nos vues sur la nécessité de réguler l'IA sans compromettre l'innovation ».

Le code de bonne conduite arrive surtout alors que le Royaume-Uni accueillera cette semaine le premier sommet international sur la régulation de l'IA. Une centaine de participants, dont la Chine, sont attendus à Bletchley mercredi, à 80 km de Londres. Or, à l'approche de l'évènement, « il était important d'avoir une position commune face à des puissances comme la Chine qui ont leur propre conception de l'IA », dit-on à l'Elysée. Les géants de l'IA, comme OpenAI et Google - tous deux seront présents à Bletchley - sont eux aussi conscients des risques systémiques posés par l'IA. Cette année, plusieurs d'entre eux ont signé des lettres ouvertes appelant à réguler l'IA, et même à stopper un temps son développement, le temps de mettre en place les garde-fous nécessaires.

Mais dans les faits, les poids lourds du secteur n'ont cessé d'investir dans des modèles d'IA toujours plus performants. Côté français, on se félicite de cette initiative G7. Mais pas question pour Paris de laisser à Londres le monopole de la régulation de l'IA. La France insiste sur la nécessité d'avoir une « conversation mondiale » sur le sujet, à travers le Partenariat mondial sur l'intelligence artificielle (PMIA). Lancée en 2019 au G7 de Biarritz par la France et le Canada, cette instance rassemble douze autres pays, plus l'Union européenne, le secrétariat étant assuré à Paris par l'OCDE.