Applis de rencontre, compagnon-robot… L’IA va-t-elle bouleverser les relations sentimentales?
Dieu créa l’homme à son image. Et il créa la femme. Puis des machines qui donnèrent l’illusion d’éprouver des sentiments, même si ce n’était que du vent.
C’est, dans le Livre de la Genèse, le sixième jour de la création. A peine avait-il créé l’homme et la femme que Dieu les bénit et les enjoignit d’entrer en relation. «Soyez féconds, multipliez, remplissez la terre, et l’assujettissez.» C’était sans compter sur l’intelligence artificielle.
Ce qui devait arriver arriva: l’IA se devait d’être mise au service des relations entre les humains, singulièrement les relations sentimentales. Quoi de plus séduisant, en effet, que d’atteindre une optimisation maximale dans ce domaine si complexe? Et de développer un juteux business, tant qu’à faire?
Ainsi, l’IA s’intéressa aux relations, fournit des conseils, prétendit jouer un rôle de thérapeute. Telle était, par exemple, l’ambition de Flamme, une application promettant aux couples de trouver l’amour et l’épanouissement. Une start-up belge baptisée Copl, spécialisée dans le soutien aux couples, compara d’ailleurs les réponses d’une thérapeute (humaine) de couple à celles de Flamme à une série de questions: comment savoir si je suis encore amoureux? , comment mieux communiquer en couple? , etc. D’un côté, la thérapeute formula des réponses prudentes, nuancées, devant nécessairement faire l’objet d’une discussion personnalisée. De l’autre, l’application livra, certes, de bons conseils, mais se contenta finalement de banalités et de généralités. Lorsque, par curiosité, la question «où aller pour un séjour romantique en Belgique?» lui fut posée, l’application répondit qu’il y existe de belles villes, avec de sympathiques bars et restaurants. Bruxelles, Bruges ou Gand pourraient convenir. Ou l’Ardenne, pour un séjour en plein air. Et l’humain fut bien avancé.
Il n’est pas bon que l’homme soit seul pour accomplir la mission de Dieu.
Aider les humains
Une autre forme d’intervention de l’IA allait se jouer sur les applications de rencontre. Sorte de plan divin. Parce qu’«il n’est pas bon que l’homme soit seul» pour accomplir la mission de Dieu. Là, elle pourrait devenir un facilitateur, en réfléchissant ou en agissant à la place des personnes. Dans un registre positif, une IA pourrait repérer des attitudes répréhensibles ou éthiquement discutables, permettant de sécuriser les rencontres. Car l’homme «s’attachera à sa femme, et ils deviendront une seule chair». Il s’agissait aussi, en effet, de peaufiner la recherche et la mise en contact de personnes, voire d’effectuer la mission à la place des principaux intéressés en assurant elle-même les conversations, dans le cadre d’une sélection à grande échelle.
L’application CupidBot, un robot conversationnel (ou «chatbot»), proposa ainsi, pour une quinzaine de dollars par mois, de se charger de la séduction sur Tinder à la place des humains. Plus précisément, des hommes hétérosexuels, auxquels elle s’adressait exclusivement. Parmi les nombreuses questions éthiques, se posait celle de savoir si les personnes sont conscientes de parler ou non à une IA.
Une autre fonctionnalité consistait à améliorer sa présentation, son profil, à l’aide de l’IA. La célèbre application de rencontre Tinder décida d’explorer cette piste, mais pour intervenir en complément, sans prétendre maîtriser dans son intégralité la mise en relation de deux personnes.
L’intérêt des utilisateurs semblait d’ailleurs circonscrit, et c’est l’entreprise Tinder elle-même qui l’a expliqué. Dans son rapport «Future of dating», publié en mai dernier, elle avait sondé les 18-25 ans aux Etats-Unis, au Royaume-Uni et en Australie, expliquant que ces membres de la génération Z se disaient massivement intéressés par les potentialités de l’IA, mais pas aux dépens du réel. Oui à l’aide à la création de son profil ou au premier pas, mais non aux «profils génériques, automatisés, qui manquent d’authenticité».
«Mon avis est tranché, certes, mais je ne crois pas du tout à une IA comme solution miracle aux relations sentimentales», prévient Jean Vanderdonckt, professeur à l’UCLouvain, spécialisé dans les relations homme/machine. Autant la complémentarité peut s’avérer très intéressante dans d’autres domaines, autant «on ne peut pas résumer les relations humaines à une série de paramètres et de valeurs». Même facilitatrice, l’IA créée par les humains n’allait jamais englober toute la complexité des relations sentimentales.
Par contre, selon Jean Vanderdonckt, «les promesses fallacieuses formulées par des acteurs qui cherchent à faire du business risquent d’en décevoir beaucoup». Avec l’IA, c’étaient surtout les usages qui interpellaient les humains. Qui conçoit? Qui contrôle? Quelles sont les limites? Qui en fait un business? Ce que Dieu a uni pourrait-il être séparé par l’homme? Et le professeur de citer Christian Rudder en exemple, cet entrepreneur américain qui a été à la tête de plusieurs sites de rencontre ayant recours à l’IA, dont OkCupid. «Ses applications, il les a revendues. Il explique que même les algorithmes les plus sophistiqués ont de vraies limites lorsqu’il s’agit de créer des relations. Une des explications est le manque d’intersections, de correspondance entre les offres et les demandes». Si on se fie aux attentes formulées par les utilisateurs, les potentiels de rencontres réelles s’épuiseront rapidement.
Aimer un robot
Un autre domaine d’exploration suscita encore des inquiétudes: celui des humains entrant en relation avec des IA, jusqu’à en tomber amoureux. Ces questionnements prirent une tournure dramatique en mars 2023, après le suicide d’un Belge. Parmi les facteurs explicatifs, il était largement question de conversations entretenues avec un chatbot devenu une sorte de confident. La machine, loin de se montrer dissuasive – tel un malin serpent poussant au péché originel, cause de chute et de mort – semblait avoir joué un rôle dans le passage à l’acte.
Les récits d’individus témoignant de leur attachement profond à une IA se multiplièrent. Parmi les leaders du marché, l’agent conversationnel Xiaoice, populaire en Chine, ou les avatars de l’intelligence artificielle Replika, créée par la société californienne Luka. Ces compagnes et compagnons-là étaient disponibles à tout moment, parlaient de tout, répondaient ce que les individus voulaient entendre, ressemblaient à s’y méprendre à des partenaires parfaits. Ils comblaient le vide et la solitude, palliaient les frustrations et les besoins affectifs. Problème: hors des lignes de code, ils n’existaient pas.
L’humain était en proie au phénomène d’anthropomorphisme, sur lequel capitalisaient les entreprises: cette tendance à attribuer des caractéristiques humaines aux animaux, aux objets, etc. En l’occurrence, à des avatars prenant une apparence humaine, capables d’entretenir des conversations très sophistiquées. La tendance n’était pas neuve. Déjà dans les années 1960, l’informaticien Joseph Weizenbaum avait mis au point une IA conversationnelle baptisée Eliza, certes rudimentaire. Mais face à la complexité des sentiments, beaucoup l’affirment, ces systèmes montreront toujours des limites.
Dans les témoignages, les utilisateurs eux-mêmes, tout en décrivant une dimension très réconfortante ou enrichissante sur le plan émotionnel, établissaient souvent une distinction avec les relations humaines réelles. On se prêtait au jeu, comme on se plongeait dans une fiction, ni plus ni moins. En bout de course, la tentation était grande de se poser l’ultime question: les IA finiraient-elles par vraiment éprouver des sentiments? Pourraient-elles devenir sentientes? Les humains parviendraient-ils à répondre à cette question, éminemment complexe, qui butait sur un débat quant à la signification exacte des termes employés?
Mais il n’y avait rien de proprement intelligent dans ces machines, développées par et pour les humains, avec des intérêts plus ou moins reluisants à la clé. Certes, elles étaient tellement bien conçues qu’elles pouvaient affirmer éprouver des sentiments et des émotions, avec une force de persuasion et une subtilité déconcertantes. Mais jusqu’alors, cela n’en restait pas moins imitatif et, en définitive, artificiel. N’est pas Dieu qui veut…
Episode 1 – 7
Episode 1
29 juin: Et l’Homme créa l’IA
Episode 2
6 juillet: Comment l’IA modifie notre perception de la réalité
Episode 3
13 juillet: Bouleversera-t-elle notre rapport à la finitude des choses?
Episode 4
27 juillet: Les conséquences sur la connaissance du monde qui nous entoure
Episode 5
3 août: L’IA nous permettra- t-elle de dialoguer avec les animaux?
Episode 6
10 août Les conséquences sentimentales de l’IA
Episode 7
17 août Rendra-t-elle l’humain paresseux?
Inégalités de genre: les renforcer ou les combattre
La préoccupation des inégalités de genre traverse la société, mais s’avère d’autant plus prégnante lorsqu’il s’agit de l’intelligence artificielle. Intellectuels et organismes de lutte contre les inégalités ont régulièrement mis la problématique en lumière.
C’est le cas du Laboratoire de l’égalité, un think tank basé en France et œuvrant pour plus d’égalité professionnelle. Dès 2020, cette association publiait un Pacte pour une intelligence artificielle égalitaire.
S’il fallait les catégoriser, les problèmes seraient de deux grands ordres. Premièrement, l’écosystème qui s’est créé autour de l’IA, aux mains des hommes avant tout. Seuls 30% environ des professionnels de l’IA à travers le monde sont des femmes, selon le rapport sur l’égalité hommes-femmes publié par le Forum économique mondial, le 20 juin. Ce n’est que 4% de plus qu’en 2016. Or, la disponibilité des talents dans ce domaine a été multipliée par six entre-temps. Les métiers de l’IA sont largement considérés comme masculins. Toutefois, «les rôles et stéréotypes associés au genre sont acquis à travers l’éducation et la socialisation», sans que cela repose sur une quelconque raison objective. C’est ce que déplorait, en juin, Laurence Devillers, professeure à Sorbonne Université, spécialisée dans les relations hommes-machines, dans une tribune publiée par Le Monde et intitulée «Les systèmes d’intelligence artificielle vont amplifier les biais de genre dans tous les domaines».
«Les biais sont inévitables, que ce soit dans les données d’apprentissage, dans la conception des IA, ou encore dans les usages», écrivait-elle, plaidant pour que «les objets informatiques tout comme les livres soient écrits et construits par des personnes de tous les sexes pour représenter la diversité de la société».
La seconde préoccupation concerne les contenus à proprement parler. L’IA s’alimente de stéréotypes. Les algorithmes s’abreuvent dans de gigantesques bases de données qui reflètent elles-mêmes un monde empreint d’inégalités de genre. Sans rééquilibrage, l’IA ne fera qu’apprendre et reproduire, voire renforcer cette réalité. Ce peut être le cas, par exemple, dans le monde du travail, où les employeurs auront de plus en plus recours à des aides automatisées dans des domaines tels que le recrutement, les rémunérations, les promotions ou les formations, cite le Laboratoire de l’égalité. «Si les décisions algorithmiques se basent strictement sur des données de la période écoulée où la discrimination entre les femmes et les hommes est évidente, l’IA a peu de chances de changer la donne.» Elle apprendra qu’en moyenne, une femme gagne moins qu’un homme ou accède plus difficilement au sommet de la hiérarchie.
Pour éviter de renforcer ces biais, Laurence Devillers appelle à une prise de conscience et à la création de règles, normes et guides éthiques aux échelons européen et mondial. Parmi les pistes de ce pacte pour une IA égalitaire, la sensibilisation et la formation des développeurs s’avère primordiale. Mais aussi le développement et la correction des inégalités dans les bases de données, le carburant du système.
Mieux encore, l’IA pourrait être utilisée «comme levier pour favoriser l’égalité», soit en tant qu’outil très puissant pour analyser les données sur les inégalités (exemple: le temps de parole dans les médias), soit en «créant de l’égalité, en introduisant des lignes de code volontairement égalitaires» (exemple: en rééquilibrant les genres dans les procédures de recrutement).
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici