Ce 21 mai, le Conseil de l'U.E a adopté définitivement l'IA Act, le premier règlement complet au monde sur l'intelligence artificielle, entérinant ainsi l'accord politique conclu en décembre. La France avait été le premier opposant aux règles de transparence instaurées dans le règlement. Décryptage.
Après une adoption par le Parlement européen en mars dernier, ce vote du Conseil de l'U.E est la dernière étape du processus décisionnel européen. La législation a suivi une approche "basée sur le risque", ce qui signifie que plus le risque de nuire à la société est élevé, plus les règles sont strictes.
Rappel du parcours législatif
En décembre dernier, les responsables politiques de l'U.E étaient parvenus à un accord politique sur les principaux points d'obstacles de l'AI Act, un projet de loi phare visant à réglementer l'intelligence artificielle en fonction des niveaux de risques.
En raison de la complexité de la loi, sa mise au point technique a pris plus d'un mois.
Le 24 janvier 2024, la présidence belge du Conseil des ministres de l'U.E a présenté la version finale du texte lors d'une réunion technique. La plupart des Etats membres ont alors émis des réserves, n'ayant pas eu le temps d'analyser le texte en profondeur.
Ces réserves ont finalement été levées avec l'adoption de la loi sur l'IA par le Comité des représentants permanents le vendredi 2 février 2024.
Toutefois, le feu vert des ambassadeurs de l'U.E n'était pas garanti, car certains poids lourds européens, dont la France se sont opposés à certaines parties de l'accord provisoire jusqu'aux derniers jours.
Le 13 mars 2024, le Parlement européen adopte la loi à 523 votes
Un système de classification basé sur les risques.
Des organes de contrôle des règles communes
Des amendes en cas d'infraction
L'IA Act adopté par l'U.E , non sans difficultés.
Pour rappel, la France a été le principal opposant à l'accord politique, en demandant un régime réglementaire plus souple pour les modèles d'IA puissants, comme Mistral AI, afin de pouvoir pousser ce modèle en compétition de celui des acteurs extra européens tels GPT-4 d'Open AI et Bard. La France avait aussi demandé à y intégrer la mention "secret des affaires", atténuant de fait cette obligation de transparence.
Même au sein du gouvernement français, la position critique du ministère de l'économie a été contestée par le ministère de la culture, soucieux de protéger les détenteurs de droits, et par le ministère de l'intérieur, satisfait des nombreuses exceptions prévues en matière d'application de la loi.
De son côté, La présidence belge avait placé les États membres devant un scénario "à prendre ou à laisser" et, malgré les tentatives de la France de retarder le vote des ambassadeurs, a maintenu un calendrier serré, en partie pour laisser le temps de peaufiner le texte sur le plan juridique et aussi pour limiter le lobbying de dernière minute.
La balance a penché de manière décisive en défaveur de Paris. Berlin ayant décidé de soutenir le texte. Le ministre allemand du numérique, Volker Wissing, s'est en effet retrouvé isolé dans son opposition au règlement sur l'IA de la part des partenaires de la coalition et a dû abandonner ses réserves.
L'Italie, qui a toujours été le pays le plus déficient du trio sceptique en raison de son manque de start-up de premier plan dans le domaine de l'IA, avait également décidé de ne pas s'opposer à la loi sur l'IA.
La Slovaquie avait publié une déclaration pour mémoire, demandant des clarifications sur des termes critiques, un alignement international et la possibilité pour les pays de l'U.E de réglementer l'IA utilisée dans le cadre d'activités non professionnelles.
L'Autriche avait également présenté une déclaration protocolaire soulevant des préoccupations relatives à la protection des données et au droit des consommateurs en ce qui concerne les exceptions en matière d'application de la loi et les règles relatives aux technologies invasives telles que l'identification biométrique à distance.
Alors qu'une obligation de transparence avait été intégrée dans le règlement initial, obligeant les entreprises à livrer un résumé des données d'entraînements des modèles d'IA et de permettre ainsi aux auteurs de vérifier si leurs données ont été exploitées afin de demander une compensation, le Parlement européen était resté uni dans sa demande de règles strictes pour ces modèles, estimant "qu'il était inacceptable d'exclure de la réglementation les types d'intelligence artificielle les plus puissants tout en laissant toute la charge réglementaire sur les acteurs plus petits.
Le Conseil de l'U.E , dans sa communication, tient à rappeler que ce règlement européen "prévoit un cadre juridique favorable à l’innovation et vise à promouvoir un apprentissage réglementaire fondé sur des données probantes".
Prochaines étapes
La publication de la loi au journal officiel interviendra dans les prochains jours. S'en suivra une entrée en vigueur 20 jours après cette publication.
Les interdictions relatives aux pratiques prohibées commenceront à s'appliquer après six mois, tandis que les obligations relatives aux modèles d'IA entreront en vigueur au bout d' un an.
Toutes les autres règles entreront en vigueur au bout de deux ans, à l'exception de la classification des systèmes d'IA qui doivent faire l'objet d'une évaluation de conformité par un tiers en vertu d'autres règles de l'U.E
Comments