Carte blanche
« Certaines intelligences artificielles devraient tout simplement être interdites » (carte blanche)
L’intelligence artificielle est-elle une menace pour les droits humains ? L’Institut Fédéral pour la protection et la promotion des Droits Humains s’interroge. Et souligne que les algorithmes et l’IA occupent une place de plus en plus importante dans notre vie quotidienne. Mais ce que l’on entend exactement par ces concepts et leur impact n’est pas toujours clair. Il est toutefois important de les comprendre pour rester vigilant face aux risques posés par les algorithmes et l’IA.
Les algorithmes traitent d’énormes quantités de données de manière automatique et permettent ainsi de prendre des décisions rapidement. Lorsqu’un ordinateur ou un autre appareil peut également apprendre par lui-même et prendre des décisions de manière autonome, on parle d’IA. Pensez par exemple à certains aspirateurs-robots, qui apprennent à connaître l’agencement de votre maison afin de la nettoyer de manière efficace.
L’IA et les algorithmes ne sont pas infaillibles
Le comportement des algorithmes et de l’IA doit d’abord être déterminé par des personnes. Dans le cas d’algorithmes classiques, un informaticien entre des critères pour traiter une grande quantité d’informations. Par exemple, un algorithme qui attribue une école à un enfant tiendra compte de la distance entre le lieu de résidence et l’école, ou des frères et soeurs qui fréquentent déjà cette école. Un algorithme, c’est donc des mathématiques. Il peut même parfois être intégré dans un simple tableau Excel.
Une IA, en revanche, doit être « nourrie » d’informations, à partir desquelles elle apprend elle-même. On peut, par exemple, entraîner une IA à identifier des chats en lui faisant passer en revue de nombreuses photos de chats. Si, en revanche, une photo d’un chien ou d’un lion est présente parmi celles-ci, l’IA risque de ne pas pouvoir faire son travail correctement. C’est également le cas si on ne montre à l’IA que des photos de chats blancs. Lorsque l’IA est utilisée pour analyser des données provenant de personnes, la base de données à partir de laquelle l’IA apprend peut également contenir des données incorrectes ou non représentatives, ce qui amène l’IA à faire des erreurs ou à avoir des biais. L’IA n’est donc pas une technologie aussi neutre qu’il n’y paraît à première vue.
Par ailleurs, plus le traitement des données est complexe, plus il devient difficile de comprendre comment une décision est prise. Cela est apparu très clairement aux Pays-Bas, où le gouvernement avait créé SyRi (Systeem Risico Indicatie), un système de traitement automatique des données pour identifier les personnes susceptibles de commettre une fraude sociale. Les données des administrations relatives aux finances avaient été associées à des données de la sécurité sociale, de l’immigration, de la santé ou de l’emploi. Presque personne ne savait toutefois expliquer comment ce traitement des données aboutissait à une décision. Des centaines de familles vulnérables avaient, suite à l’usage de ce système, dû rembourser leurs allocations familiales. Examinant le système, le tribunal de La Haye a conclu à une violation du droit à la vie privée en raison du manque de transparence de celui-ci et de l’impossibilité qui en résulte de le contrôler.
Plus de transparence est nécessaire
Lorsque les autorités développent ou utilisent une IA, elles devraient au moins être obligées à procéder à une analyse d’impact qui évalue les risques de violations des droits humains.
La proposition actuelle de législation au niveau européen va dans ce sens. Les applications de l’IA y sont classées en fonction du risque de violation des droits humains qu’elles emportent. La proposition vise à interdire les formes les plus risquées d’IA dont quelques exemples sont donnés ci-dessous.
Elle vise également à imposer des exigences de qualité, de traçabilité et de surveillance humaine pour certaines formes d’intelligence artificielle qui présentent un risque élevé pour les droits humains. C’est le cas, par exemple, des applications d’IA utilisées pour tenter de prédire la criminalité. Celles-ci visent notamment à identifier les personnes susceptibles de commettre des délits, en examinant par exemple leur milieu social, leur lieu de résidence ou leur éducation. La prévention de la criminalité est évidemment positive, mais de tels systèmes peuvent conduire à des contrôles systématiques et à la stigmatisation de pans entiers de la population.
Enfin, la proposition européenne exige plus de transparence pour d’autres formes d’IA moins dangereuses, comme la technologie deepfake et d’autres IA utilisées pour générer ou manipuler des contenus image, audio ou vidéo.
En Belgique, nous ne devons pas nécessairement attendre les développements au niveau européen pour exiger plus de transparence. En effet, l’adoption de normes européennes peut prendre un temps conséquent, alors que les risques de l’IA et des algorithmes sont présents. C’est pourquoil’Institut Fédéral des Droits Humains (FIRM) a récemment demandé plus de transparence dans l’utilisation des algorithmes et de l’IA par les autorités.
Interdire les formes risquées d’IA
Une plus grande transparence n’est toutefois pas toujours suffisante. Certaines IA devraient tout simplement être interdites.
On pense par exemple aux systèmes de « notation sociale » par lesquels des personnes se voient attribuer une note par le gouvernement. En Autriche, par exemple, les autorités expérimentent un système qui attribue aux demandeurs d’emploi un score en fonction de leurs chances de trouver un emploi. Dans ce contexte, une étude a montré que le système aboutissait à donner un score plus faible aux femmes.
Une autre forme risquée d’IA est actuellement testée aux frontières de l’UE, où le controversé projet pilote iBorderCtrl expérimente une IA qui pourrait automatiser les contrôles aux frontières grâce à des « détecteurs de mensonges » qui détermineraient la crédibilité des personnes en situation de migration. L’utilisation de cette technologie n’est cependant pas infaillible et crée un risque de violations systématiques des droits humains et du droit d’asile. L’IA pourrait en effet, à terme, contribuer à déterminer qu’une personne n’a pas le droit à l’asile alors qu’elle y a en fait droit.
La reconnaissance faciale utilisant l’IA dans les espaces publics devrait également être interdite. Cette technologie a déjà fait l’objet de quelques projets pilotes en Belgique, par exemple à l’aéroport de Zaventem. Dans un avis récent, l’Organe de contrôle de l’information policière a conclu, à juste titre, qu’il n’existe actuellement aucune base juridique pour l’utilisation de cette technologie par les services de police.
Néanmoins, un débat est en cours au niveau européen pour savoir si l’utilisation de cette technologie devrait être autorisée. Le Contrôleur Européen de la Protection des Données et le Comité Européen de la Protection des Données ont toutefois d’ores et déjà demandé une interdiction. Selon eux, l’usage de cette technologie constitue une menace pour les droits humains et créerait une société où chacun peut être reconnu et suivi à tout moment.
Des critiques similaires ont été formulées par le Haut Commissariat des Nations Unies aux droits de l’homme. En outre, des études ont déjà montré que ces systèmes de reconnaissance faciale ont plus de mal à reconnaître les visages qui ne sont pas blancs, ce qui augmente la probabilité que des personnes soient contrôlées uniquement en raison de la couleur de leur peau.
Mettre en place des garanties
L’IA peut rendre la vie plus facile. Elle peut aider les autorités et les entreprises à travailler plus efficacement en automatisant certaines tâches. L’IA peut en outre traiter rapidement une grande quantité d’informations, ce qui prendrait énormément de temps à des humains. Toutefois, une confiance aveugle dans cette technologie comporte également des risques.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici