intelligence artificielle
© Getty

AI Act: l’UE approuve une législation inédite pour réguler l’intelligence artificielle

Feu vert des pays membres de l’Union européenne à une législation pour réguler l’intelligence artificielle.

Les Etats membres de l’Union européenne ont approuvé une législation inédite au niveau mondial pour réguler l’intelligence artificielle (IA) après d’intenses négociations sur l’équilibre entre innovation et sécurité. Les ambassadeurs des Vingt-Sept ont « confirmé à l’unanimité » l’accord politique trouvé en décembre entre les Etats et les eurodéputés, a annoncé la présidence belge du Conseil de l’UE.

La Commission européenne avait présenté son projet d' »Acte IA » en avril 2021. L’apparition fin 2022 de ChatGPT, de la start-up californienne OpenAI, capable de rédiger des dissertations, poèmes ou traductions en quelques secondes, lui a donné une nouvelle dimension et provoqué l’accélération des discussions. Ce système, comme ceux capables de créer des sons ou des images, ont révélé au grand public le potentiel immense de l’IA. Mais aussi certains risques: la diffusion de fausses photographies, plus vraies que nature, a alerté sur le danger de manipulation de l’opinion.

Si des règles visant l’IA existent par exemple en Chine, le cadre juridique européen se distingue par son ampleur. Le commissaire européen Thierry Breton, chargé du dossier, a salué une règlementation « historique, une première mondiale« . « La loi sur l’IA a déchaîné les passions, à juste titre! Aujourd’hui, les États ont approuvé l’accord politique de décembre, reconnaissant l’équilibre parfait trouvé par les négociateurs entre innovation et sécurité », a-t-il déclaré vendredi.

« Rester compétitif »

Paris et Berlin se sont montrés jusqu’au bout soucieux que la législation protège les start-ups spécialisées dans l’intelligence artificielle, pour ne pas empêcher l’émergence de futurs « champions européens ». Des préoccupations prises en compte avant la finalisation du texte, ont indiqué des diplomates à l’AFP. Les deux pays ont ainsi obtenu des clarifications sur son application.

Mardi, le ministre allemand du Numérique Volker Wissing s’était félicité d’avoir « obtenu des améliorations pour les petites et moyennes entreprises, éviter des exigences disproportionnées et veiller à ce que nous restions compétitifs internationalement ». « Ce règlement doit permettre d’exploiter l’énorme potentiel de l’IA, tout en tenant compte des risques. Dans son application, nous mettrons l’accent sur la facilité d’innovation, la clarté juridique pour les entreprises, la nécessité de structures peu bureaucratiques », a insisté vendredi le ministre allemand de l’Economie Robert Habeck.

Le monde de la tech se montre plus circonspect: « Nombre de ces nouvelles règles restent floues et pourraient ralentir le développement et le déploiement d’applications innovantes », a déploré vendredi Boniface de Champris, un responsable Europe du CCIA, un lobby du secteur. « Une bonne mise en oeuvre sera cruciale » pour ne pas imposer « un fardeau » à la compétitivité, avertit-il.

« Barrières réglementaires« 

La législation « crée des obligations conséquentes, malgré quelques aménagements pour les start-ups et PME », abonde Marianne Tordeux Bitker, de l’association professionnelle France Digitale, redoutant « des barrière réglementaires supplémentaires qui profiteront à la concurrence américaine et chinoise ».

Sur les IA génératives, des règles s’imposeront à tous pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et vérifier qu’ils ne violent pas la législation sur les droits d’auteur. Les développeurs devront s’assurer que les sons, images et textes produits seront bien identifiés comme artificiels. Des contraintes renforcées s’appliqueront aux seuls systèmes les plus puissants.

Les systèmes à « haut risque » -infrastructures critiques, éducation, ressources humaines, le maintien de l’ordre…- seront soumis à une série d’obligations comme celles de prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque. La législation prévoit un encadrement particulier des systèmes d’IA interagissant avec les humains, avec une obligation d’information de l’utilisateur.

Comme dans des réglementations européennes existantes en matière de sécurité des produits, le texte impose des contrôles reposant d’abord sur les entreprises. Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l’identification biométrique à distance des personnes dans les lieux publics. Sur ce dernier point, les Etats ont toutefois obtenu des exemptions pour certaines missions des forces de l’ordre comme la lutte contre le terrorisme.

Le Parlement européen doit encore entériner définitivement au printemps le compromis final, qui ne peut plus être modifié. Certaines règles s’appliqueront six mois après l’adoption, deux ans plus tard pour d’autres dispositions.

Contenu partenaire