Intelligence artificielle: « Je reste très sceptique quant à la manière de mettre un terme aux effets nuisibles »
Le 14 juin, le Parlement européen a adopté l’AI Act, large législation visant à réglementer l’intelligence artificielle (IA) au sein des pays membres de l’Union. Entretien avec Hugues Bersini, professeur d’informatique à l’ULB
L’efficacité et les effets de la législation divisent parmi les chercheurs. Encore lacunaire estiment les uns, suffisamment solide rétorquent les autres.
L’AI Act vient d’être adopté. Comment le jugez-vous globalement?
Je ne doute nullement que certaines utilisations de l’IA peuvent s’avérer nuisibles pour l’homme: manipulation, falsification, ciblage, réalités alternatives, viol des droits d’auteur et tant d’autres… Mais je reste très sceptique quant à la manière d’y mettre un terme ou, du moins, d’en limiter les effets négatifs. Une de mes préoccupations majeures est comment réussir à séparer les utilisations malveillantes de leurs contraires.
Faites-vous allusion aux effets nuisibles des algorithmes que vous dénoncez dans votre dernier livre?
Je pense que les algorithmes de l’IA recèlent en leur sein un fort pouvoir de profilage et de manipulation, mais est-ce toujours à ce point négatif d’influencer les comportements si la société s’accorde pour en voir une utilité bénéfique à la collectivité? Par exemple un meilleur triage des déchets, une réduction de l’usage de la voiture, des vols d’avion ou de la consommation électrique? L’omniprésence et le pouvoir de formatage des algorithmes d’IA sont tels que je crains fort que l’UE légifère trop par le haut, un peu hors sol, se privant ainsi de leviers d’action indispensables. Je crains que ces nouvelles régulations ne se basent pas sur une expérimentation sociale suffisante et aux effets suffisamment étudiés.
Hugues Bersini «Je reste très sceptique quant à la manière de mettre un terme aux effets nuisibles de l’IA.
Certains observateurs craignent que cette législation étouffe l’innovation…
Il est sans doute trop tôt pour se prononcer, car on ignore à ce stade les types d’applications d’IA qui seront les plus visés par ces nouvelles interdictions. J’entends surtout parler d’un ciblage des applications à risque de manipulation. Prenons l’exemple du crédit social chinois qui, et on le conçoit aisément, serait prohibé à jamais chez nous. Pourtant, le montant de vos primes d’assurance selon le risque que vous représentez pour la compagnie ou l’acceptation ou pas d’un crédit bancaire sont déjà assujettis à l’exécution d’algorithmes qui, implicitement, qu’on se l’avoue ou pas, vous attribuent un certain score social. Toute assistance algorithmique à une prise de décision deviendra-t-elle interdite? J’attends de voir. C’est du cas par cas, et je défends une participation citoyenne accrue dans l’acceptation ou non de ces automatismes décisionnels.
Cette législation risque-t-elle de défavoriser les acteurs économiques européens?
Ce que les USA ont toujours eu de supérieur à l’Europe, c’est la voie du pragmatisme: on teste avant de se prononcer et éventuellement interdire. On accepte la prise de risque inhérente à cette expérimentation sociale, même à grande échelle. Prenons-en quelques graines et soyons un tout petit peu moins timorés en Europe. Le jeu en vaut la chandelle. Tant de nos inventeurs, en physique, en biologie et en informatique, ont quitté l’Europe pour les Etats-Unis car ils y trouvaient un terreau bien plus fertile pour leurs découvertes. Ne bridons pas l’esprit d’entreprise de nos chercheurs par des fantasmes ou des phobies qui tiennent aujourd’hui de la science-fiction pure.
Sam Altman a déclaré qu’OpenAI, dont il est le CEO, pourrait se retirer d’Europe s’il jugeait le texte trop contraignant.
Que veut dire se retirer d’Europe? Rien dans les produits d’OpenAI n’est réellement territorialisé si ce n’est la puissance de leurs machines, car les datas dont ils nourrissent leurs réseaux de neurones et leurs super perroquets statistiques et logorrhéiques sont répartis sur l’ensemble du Web. La plupart des idées qu’ils exploitent sont connues de nombreux chercheurs en AI à travers le monde. La concurrence fait déjà rage entre ces différents modèles de langage. Il faut comprendre qu’il s’agit plus ici de puissance de calcul, d’expérimentation débridée et de dédommagement de milliers d’esclaves rivés devant leur écran que de véritables percées scientifiques. On est dans le domaine de la pure ingénierie, un domaine déserté par les véritables linguistes, une tradition scientifique d’ailleurs dominée par les Européens.
Le centre de recherche sur le lobbying Corporate Europe Observatory a alerté sur la pression que les lobbies font subir aux députés européens à propos de cette régulation. Cette pression risque-t-elle de dénaturer le texte de régulation?
L’histoire nous a alertés sur l’extraordinaire pression des lobbies en matière d’émanation de CO2. Ils ont dépensé une énergie et un argent fou pour freiner les régulations. Je reste plus perplexe quant à de telles pressions en matière d’IA car, à nouveau, quelle partie des logiciels de Google, Facebook ou Microsoft sera véritablement visée et influencée par ces nouvelles régulations?
La mise en application effective du texte est prévue pour 2026. D’aucuns critiquent une lenteur face à l’ampleur des enjeux.
J’ai été très surpris de découvrir les prises de position de grands pionniers de l’IA comme Geoffrey Hinton ou Yoshua Bengio, qui voient dans les développements d’aujourd’hui une menace bien plus importante que l’extension mondiale du conflit en Ukraine ou les quatre degrés Celsius additionnels qui se profilent. Il faut raison garder. Il existe, c’est vrai, des questions pressantes qu’il faut affronter en matière de profilage, de réalité alternative, de réalité alternative, de droits d’auteur et autres, mais rien de comparable aux menaces précitées.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici