Intelligence artificielle et inégalités de genre: les renforcer ou les combattre
Principalement aux mains des hommes, l’intelligence artificielle a tendance, aussi, à alimenter les stéréotypes de genre. Pour les experts, il est nécessaire d’en prendre conscience et de créer un cadre.
La préoccupation des inégalités de genre traverse la société, mais s’avère d’autant plus prégnante lorsqu’il s’agit de l’intelligence artificielle. Intellectuels et organismes de lutte contre les inégalités ont régulièrement mis la problématique en lumière.
C’est le cas du Laboratoire de l’égalité, un think tank basé en France et œuvrant pour plus d’égalité professionnelle. Dès 2020, cette association publiait un Pacte pour une intelligence artificielle égalitaire.
S’il fallait les catégoriser, les problèmes seraient de deux grands ordres. Premièrement, l’écosystème qui s’est créé autour de l’IA, aux mains des hommes avant tout. Seuls 30% environ des professionnels de l’IA à travers le monde sont des femmes, selon le rapport sur l’égalité hommes-femmes publié par le Forum économique mondial, le 20 juin. Ce n’est que 4% de plus qu’en 2016. Or, la disponibilité des talents dans ce domaine a été multipliée par six entre-temps. Les métiers de l’IA sont largement considérés comme masculins. Toutefois, «les rôles et stéréotypes associés au genre sont acquis à travers l’éducation et la socialisation», sans que cela repose sur une quelconque raison objective. C’est ce que déplorait, en juin, Laurence Devillers, professeure à Sorbonne Université, spécialisée dans les relations hommes-machines, dans une tribune publiée par Le Monde et intitulée «Les systèmes d’intelligence artificielle vont amplifier les biais de genre dans tous les domaines».
«Les biais sont inévitables, que ce soit dans les données d’apprentissage, dans la conception des IA, ou encore dans les usages», écrivait-elle, plaidant pour que «les objets informatiques tout comme les livres soient écrits et construits par des personnes de tous les sexes pour représenter la diversité de la société».
La seconde préoccupation concerne les contenus à proprement parler. L’IA s’alimente de stéréotypes. Les algorithmes s’abreuvent dans de gigantesques bases de données qui reflètent elles-mêmes un monde empreint d’inégalités de genre. Sans rééquilibrage, l’IA ne fera qu’apprendre et reproduire, voire renforcer cette réalité. Ce peut être le cas, par exemple, dans le monde du travail, où les employeurs auront de plus en plus recours à des aides automatisées dans des domaines tels que le recrutement, les rémunérations, les promotions ou les formations, cite le Laboratoire de l’égalité. «Si les décisions algorithmiques se basent strictement sur des données de la période écoulée où la discrimination entre les femmes et les hommes est évidente, l’IA a peu de chances de changer la donne.» Elle apprendra qu’en moyenne, une femme gagne moins qu’un homme ou accède plus difficilement au sommet de la hiérarchie.
Pour éviter de renforcer ces biais, Laurence Devillers appelle à une prise de conscience et à la création de règles, normes et guides éthiques aux échelons européen et mondial. Parmi les pistes de ce pacte pour une IA égalitaire, la sensibilisation et la formation des développeurs s’avère primordiale. Mais aussi le développement et la correction des inégalités dans les bases de données, le carburant du système.
Mieux encore, l’IA pourrait être utilisée «comme levier pour favoriser l’égalité», soit en tant qu’outil très puissant pour analyser les données sur les inégalités (exemple: le temps de parole dans les médias), soit en «créant de l’égalité, en introduisant des lignes de code volontairement égalitaires» (exemple: en rééquilibrant les genres dans les procédures de recrutement).
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici