Le Parlement européen ne veut pas que l’IA reconnaisse les visages
Le Parlement européen a adopté la position qu’il défendra dans ses négociations avec les États membres sur le premier cadre réglementaire de l’intelligence artificielle (IA).
Les élus cherchent un équilibre entre la défense des droits fondamentaux et le soutien à l’innovation, en répartissant les systèmes d’IA en fonction de leur risque sécuritaire. Une dernière tentative du Parti populaire européen (PPE) pour autoriser la reconnaissance faciale dans des circonstances exceptionnelles n’a pas abouti.
La Commission voudrait autoriser son usage par les forces de l’ordre dans la lutte contre la criminalité et le terrorisme. Le sujet devrait nourrir les débats avec les États membres qui refusent l’interdiction de cette technologie controversée.
L’Union européenne espère conclure avant la fin de l’année ce premier règlement au monde visant à encadrer et protéger l’innovation dans l’intelligence artificielle, un secteur stratégique dans la compétition économique.
L’exécutif européen a proposé il y a deux ans un projet ambitieux, dont l’examen a traîné en longueur et qui a encore été retardé ces derniers mois par les controverses sur les dangers des IA génératives capables de créer des textes ou des images.
Le Parlement européen a adopté mercredi sa position lors d’un vote en séance plénière à Strasbourg, acquis par 499 voix pour, 28 contre et 93 abstentions. Dès la fin de journée, des négociations doivent commencer avec les États membres pour finaliser la législation au plus vite.
Le commissaire Thierry Breton, qui a porté le texte avec sa collègue Margrethe Vestager, a appelé à conclure le processus dans « les prochains mois ». « L’IA soulève de nombreuses questions – sur le plan social, éthique et économique. (…) Il s’agit d’agir vite et de prendre ses responsabilités », a-t-il déclaré mercredi.
Lire aussi | L’intelligence artificielle, comme ChatGPT ou Midjourney, notre meilleure ennemie
Pas avant 2026
Mais le règlement n’entrera pas en application avant 2026, dans le meilleur des cas. Estimant qu’il y avait urgence, M. Breton et Mme Vestager ont annoncé leur intention d’obtenir des engagements volontaires des entreprises aussi vite que possible.
La position du Parlement confirme dans ses grandes lignes l’approche de la Commission. Le texte s’inspire des réglementations existantes en matière de sécurité des produits et imposera des contrôles reposant d’abord sur les entreprises.
Le cœur du projet consiste en une liste de règles imposées aux seules applications jugées à « haut risque ». Il s’agirait des systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations…
Parmi les obligations: prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque. Leur respect sera contrôlé par des autorités de surveillance dans chaque pays membre.
Le Parlement européen entend mieux prendre en compte les IA génératives du type ChatGPT en réclamant un régime spécifique d’obligations qui reprennent essentiellement celles prévues pour les systèmes à haut risque.
La proposition de la Commission, dévoilée en avril 2021, prévoit déjà un encadrement des systèmes d’IA qui interagissent avec les humains. Elle les obligera à informer l’utilisateur qu’il est en relation avec une machine et contraindra les applications générant des images à préciser qu’elles ont été créées artificiellement. Une obligation qui sera probablement élargie aux textes.
Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.