C'est un accouchement dans la douleur : vendredi, tard en soirée, les législateurs européens sont parvenus à un accord politique pour réglementer l'intelligence artificielle (IA). Cette loi, la première aussi complète au monde, aura nécessité plus de trente-sept heures de débats, parfois houleux, afin d'édicter des règles visant à contrôler une technologie présentée par certains comme une menace potentielle pour l'existence de l'humanité. « C'est la plus grande étape de l'histoire de la transformation numérique en Europe », a salué Carme Artigas, la secrétaire d'Etat espagnole chargée de l'IA.L'approche européenne consiste à imposer des obligations pour les systèmes d'IA à haut risque, en les classant de faible à inacceptable (lire ci-contre). Mais les Européens (Parlement, Conseil et Commission) ont eu un mal fou à trouver le bon équilibre entre la volonté de protéger les droits fondamentaux des citoyens et celle de ne pas entraver le développement de start-up européennes prometteuses avec des contraintes qui les étouffent.

ChatGPT en ligne de mire

En juin, cent cinquante entreprises, parmi lesquelles Airbus, Siemens et Renault, s'étaient inquiétées de règles qu'elles jugeaient susceptibles de brider l'innovation. « Plusieurs entreprises, soutenues par des pays tiers, ont tenté de nous décourager, a expliqué Thierry Breton, le commissaire européen au Marché intérieur. Ils savaient que le premier à établir des règles avait l'avantage d'être le premier à établir la norme mondiale. Cela a rendu le processus législatif particulièrement complexe. »

L'une des questions qui a le plus divisé concerne la réglementation de l'IA générative (les systèmes de type ChatGPT). L'UE a établi des exigences plus fortes pour les modèles les plus puissants. Plusieurs pays, aux premiers rangs desquels la France et l'Allemagne, prônaient l'autorégulation pour favoriser le développement des jeunes pousses. Ils ont eu en bonne partie gain de cause, les obligations posées aux acteurs potentiellement systémiques restant limitées.

Garde-fous et nécessité d'innovation

Autre sujet polémique : l'exploitation de l'IA par les forces de l'ordre. Elles seules auront le droit d'utiliser la très controversée reconnaissance faciale en temps réel, dans des cas très précis.Le texte bannit par ailleurs les systèmes de notation citoyenne ou de surveillance de masse. Il prétend apporter des gages aux acteurs de l'innovation, en offrant la possibilité de tester les systèmes d'IA à haut risque dans des conditions réelles. « Nous allons nous assurer que le texte préserve la capacité de l'Europe à développer ses propres technologies d'intelligence artificielle », a fait savoir le ministre français chargé du Numérique, Jean-Noël Barrot. Un nouveau bureau européen de l'IA, dépendant de la Commission, chargé de la surveillance, pourra imposer des amendes pouvant aller jusqu'à 35 millions d'euros, soit 7 % du chiffre d'affaires mondial.Le Bureau européen des consommateurs a regretté l'absence de « garde-fous nécessaires » vis-à-vis des systèmes comme ChatGPT (OpenAI) ou Bard (Google) « pour que les consommateurs leur fassent confiance ». Au contraire, la Computer & Communications Industry Association (CCIA), un des lobbies d'entreprises informatique et de l'Internet, a déploré les effets de la loi sur l'innovation. « La rapidité semble avoir prévalu sur la qualité, avec des conséquences potentiellement désastreuses pour l'économie européenne », a souligné Daniel Friedlaender, son responsable Europe. Selon lui, « un travail technique » est « nécessaire » sur des détails cruciaux.Le texte entre en effet, désormais, dans une phase de traduction juridique de ses préceptes politiques, qui s'annonce assez critique. « Une mise en oeuvre correcte sera essentielle, le Parlement continuera à surveiller de près », a prévenu Brando Benifei (eurodéputé S&D), l'un des corapporteurs du texte. Ce n'est peut-être pas encore la fin des débats…