IA & RÉGLEMENT DE L’UE

Sorry, this entry is only available in Français.

Après le vote par le Parlement européen du 13 mars 2024, la proposition de règlement sur l’intelligence artificielle (IA) a été adoptée le 21 mai 2024 par le Conseil, clôturant ainsi le processus décisionnel européen (Règlement UE sur l’intelligence artificielle, adopté par le Conseil européen le 21 mai 2024 avant sa publication au JOUE)

Le processus décisionnel européen a pris fin : après le vote par le Parlement le 13 mars 2024, le Règlement UE sur l’intelligence artificielle a en effet été adopté par le Conseil le 21 mai 2024. Le texte va pouvoir être publié au Journal officiel de l’Union européenne (JOEU) dans les tous prochains jours. Il entrera en vigueur le 20e jour suivant et ne sera applicable que 24 mois après son entrée en vigueur, soit a priori en juin 2026.

Certaines de ses dispositions seront toutefois applicables dès avant juin 2026. Ainsi notamment des mesures de formation et de sensibilisation que doivent prendre les fournisseurs et déployeurs de systèmes d’IA ou encore de l’interdiction des systèmes d’IA comportant un « risque inacceptable », applicables dans les 6 mois, soit a priori en décembre 2024. D’autres dispositions seront applicables dans les 12 mois suivant l’entrée en vigueur du Règlement, soit a priori en juin 2025. Il s’agit notamment des dispositions sur les systèmes d’IA « à haut risque » et les « modèles d’IA à usage général », comme les IA génératives.

Pour rappel : Le Règlement de l’UE sur l’IA est un texte stratégique. Il fixe un cadre complet, transverse, applicable à tous et tous secteurs confondus (sauf finalités militaires et R&D). En substance, le Règlement de l’UE sur l’IA tend à favoriser l’innovation tout en protégeant la société, en procédant à une approche de régulation graduée selon les risques : les systèmes d’IA sont classés selon leur niveau de risque, les contraintes juridiques variant à proportion de ce risque. Les plus dangereux, considérés comme présentant un « risque inacceptable », sont interdits. Ceux classés à « haut risques » sont fortement encadrés, notamment par le nécessaire respect de normes harmonisées, de déclaration de conformité, d’enregistrement dans une base de données de l’UE, d’un marquage de conformité, ainsi que de la mise en place d’une documentation technique permettant notamment de s’assurer du respect des différentes contraintes applicables. Les moins dangereux sont les systèmes d’IA présentant un « risque limité », dont notamment les systèmes d’IA dits à « usage général » qui sont soumis à des obligations moins contraignantes, telles que l’obligation de transparence afin notamment de permettre l’identification des contenus générés par un système d’IA, tout comme les informations concernant les contenus les alimentant.

Concrètement, le Règlement oblige tout opérateur économique exploitant un système d’IA, à réaliser un audit de ses systèmes d’IA afin, d’abord, d’en évaluer les risques pour, ensuite, selon le niveau de risque identifié, mettre en place le dispositif de conformité approprié. Audit et cartographie des risques constituent les premières étapes du processus de mise en conformité. Il est recommandé à cette occasion d’établir une charte ou code de bonne conduite afin de réguler les pratiques et de diffuser les règles de bonne conduite.

Share this post: Facebook Twitter LinkedIn