Bonjour, ChatGPT: «A force de parler à des robots comme à des humains, on va finir par parler à des humains comme à des robots»
Dans son nouveau livre «Bonjour ChatGPT», le philosophe Louis de Diesbach questionne la frontière évanescente entre l’être humain et la machine, qui bouleverse toujours plus notre rapport au monde.
En 2016, une grand-mère de 86 ans, May Ashworth, formule une requête Google en ces termes: «S’il vous plaît, pourriez-vous me traduire ce nombre romain: MCMXCVIII, merci.» Photographiée par son petit-fils, la demande devient virale, gentiment moquée sur le Web pour sa naïveté. Cette Britannique pensait s’adresser à une personne bien réelle, qui aurait été chargée parmi tant d’autres de répondre aux milliards de recherches affluant sur Google.
En 2024, des millions d’internautes, pourtant bien conscients d’échanger avec une intelligence artificielle, s’adressent chaque jour à ChatGPT avec un «Bonjour». Beaucoup jugent cela normal. Et, indéfectiblement serviable, le modèle de langage naturel leur répond: «Bonjour! Comment puis-je vous aider aujourd’hui?»
L’anecdote de May Ashworth figure très opportunément dans «Bonjour ChatGPT» (1), le deuxième livre de Louis de Diesbach, tout juste paru ce 20 mars aux éditions Mardaga. Philosophe et éthicien de la technologie, par ailleurs consultant au Boston Consulting Group (BCG), l’auteur décrypte notre rapport aux intelligences artificielles par le biais de l’anthropomorphisme, cette tendance à attribuer des formes ou des caractères humains à ce qui ne l’est pas. Des formules de politesse sur ChatGPT au robot-tondeuse rebaptisé Bernard, ce n’est pas tant le réflexe de personnifier ou non des robots qui poserait problème. Mais plutôt le déséquilibre croissant entre le repli du rapport aux autres et l’expansion de machines feignant toujours plus les caractéristiques humaines. Loin de rejeter en bloc l’apport des IA, Louis de Diesbach estime qu’il est temps de remettre «un peu d’ordre» dans un monde où les êtres humains peuvent se servir des robots, et non s’y asservir.
Appliqué aux intelligences artificielles, l’anthropomorphisme est-il en soi problématique?
Pas du tout. L’anthropomorphisme est une façon de révéler une partie de notre humanité. Depuis des milliers d’années, les êtres humains anthropomorphisent les objets, les animaux… Cela nous permet parfois d’avoir une meilleure connexion au monde et un développement de certains imaginaires. Ce n’est donc pas tant cette posture qui pose question que tout ce à quoi vous renoncez, lorsque vous passez des semaines à discuter avec un robot. Tout dépend du temps que l’on consacre aux technologies mais aussi du degré d’anthropomorphisme. Tant qu’un robot-aspirateur reste rond, je n’y vois aucun problème. Si demain, il prenait les traits d’une personne, ce serait tout autre chose.
En quoi ChatGPT, qui se limite à feindre la serviabilité, marque-t-il un tournant à cet égard?
Parfois, quand on change d’échelle, on change de nature. C’est bien le cas ici. Dans le langage de la tech, ChatGPT est ce que l’on appelle la killer app. C’est l’application qui fait en sorte que, soudainement, tout le monde voit de quoi il s’agit. Pendant longtemps, les gens ne savaient pas à quoi Internet allait pouvoir servir. Le mail fut la killer app d’Internet. La facilité de prise en main de ChatGPT a permis à tout un chacun d’avoir accès à une IA basée sur le langage naturel.
Ce modèle de langage naturel augure-t-il d’autres dispositifs d’IA poussant davantage les curseurs de la personnification?
Je pense effectivement que c’est vers cela qu’on va. Quand Sundar Pichai, le directeur général de Google, demande à une IA d’appeler un coiffeur pour prendre rendez-vous à sa place, il est un peu terrifiant de savoir que ce dernier ne s’est jamais rendu compte qu’il échangeait avec un robot. Plusieurs Etats commencent d’ailleurs à promulguer des lois pour contraindre les IA à se présenter comme telles. Si on laisse faire un néolibéralisme débridé, on pourrait vivre à terme dans un monde où les robots ressemblent à des individus. Aujourd’hui, des gens passent déjà des entretiens d’embauche avec des avatars.
Plusieurs études récentes démontrent que, formulées poliment ou avec des incitations émotionnelles, des requêtes adressées à certaines IA aboutiraient à de meilleurs résultats. Cet anthropomorphisme contraint pose encore plus question.
Tout à fait. On tombe alors dans une sorte de soumission à la machine, qui peut prendre plusieurs formes. Dans mon livre, je cite les travaux du philosophe français Jacques Ellul. Il nous explique qu’à partir du moment où, pour résoudre un problème lié à une technologie, vous en ajoutez davantage, vous ne faites qu’accroître votre soumission à celle-ci. C’est l’exemple des applications que l’on peut installer sur son smartphone pour limiter son temps d’écran. Pour moi, la solution réside en partie dans l’éducation, afin que chacun puisse dire «stop» et prendre de la hauteur. Chaque élève de secondaire devrait avoir un cours sur la tech: comment ça marche, à quoi ça sert, quels sont les impacts?
Il est toujours très compliqué de fixer la limite entre un progrès sain et un progrès toxique. On le sait, l’IA est bien meilleure que les médecins humains pour détecter les cancers, notamment les mammographies. En revanche, j’espère bien que ce sera toujours un médecin humain qui annoncera une telle nouvelle. Le tableau n’est ni noir, ni blanc. Mais il faut mener une réflexion sur la sobriété technologique. A toutes les questions qui se posent, la réponse n’est pas toujours plus de tech.
Etes-vous surpris par l’insouciance avec laquelle le grand public s’empare d’intelligences artificielles capables de générer des textes, des images, des vidéos?
D’une part, je trouve cela chouette que les gens s’en emparent et que l’IA soit à la portée de chacun. Mais de l’autre, ils ne se rendent pas toujours compte de ce qui se joue derrière le côté divertissant. Le problème réside dans la puissance de tels outils. Tant qu’il s’agit de montrer le pape vêtu d’une veste Balenciaga, ce n’est pas un souci. Mais la vitesse avec laquelle il devient possible de créer de faux contenus bien moins drôles est hallucinante. Comment peut-on mettre des outils pareils sur le marché en se limitant simplement à dire qu’il serait opportun de les utiliser à bon escient, ou que quelqu’un y fasse attention? C’est profondément irresponsable. Inclure davantage de pédagogie sur le fonctionnement d’un ChatGPT n’aurait pas, je pense, constitué un frein à l’innovation. Je crois beaucoup en la régulation pour permettre aux gens d’innover, de s’éclater, de créer de nouvelles choses, tout en respectant un cadre légal.
Pensez-vous que l’on puisse inverser la tendance actuelle à une large échelle, bien au-delà du discours philosophique?
En tout cas, je l’espère. Pour qu’il n’y ait pas de confusion, je ne suis ni technophobe, ni moralisateur. Si vous rentrez tard tous les jours du boulot, que vous êtes épuisé et si votre seul moyen de décompresser est des scroller sur votre téléphone, il serait malvenu de ma part de vous dire quoi faire. Dire aux gens de prendre du temps pour eux et de tout éteindre ne suffira pas. Il n’y aura pas de sobriété sans éducation. En revanche, celle-ci ne pourra pas exister sans un minimum de sobriété en amont. Il nous faut redécouvrir le plaisir d’une discussion les yeux dans les yeux. Susciter cette envie, regénérer le tissu social, constitue un véritable projet politique. Dans son roman Tous les hommes sont mortels, Simone de Beauvoir a cette phrase: «Je me demande ce que font les hommes de tout ce temps qu’ils gagnent.» Si c’est pour scroller davantage, cela n’a aucun intérêt.
«L’être humain cherche le contact social à un endroit qui n’expose pas sa vulnérabilité. Or, le robot est très bien pour cela.»
D’un côté, l’IA se prête de plus en plus à l’anthropomorphisme. De l’autre, votre livre met en lumière un repli du rapport aux autres. L’empathie chez des élèves d’aujourd’hui serait en recul de 40 % par rapport au siècle dernier. Et 57% des jeunes consommateurs préféreraient une caisse automatique à l’interaction avec un individu. Peut-on dire que deux lignes se croisent?
Exactement. C’est à cette question que l’anthropomorphisme nous amène, et que je résume en une phrase: à force de parler à des robots comme à des humains, on va finir par parler à des humains comme à des robots. Aujourd’hui, il y a un certain rejet de la vulnérabilité. On ne peut pas, on n’accepte pas de se montrer vulnérable. Mais comme l’être humain a néanmoins besoin de contact social, de relationnel, il va le chercher à un endroit qui n’exposera pas sa vulnérabilité. Or, le robot est très bien pour cela: il ne va jamais vous critiquer, vous insulter, il n’est jamais fatigué ni malade.
Votre dernier chapitre s’intitule au revoir, ChatGPT, et non adieu. Faut-il, en définitive, s’interdire de lui dire bonjour?
En toute humilité, j’utilise ChatGPT plusieurs fois par semaine, et je lui dis souvent «bonjour» et «merci». Je dois faire partie des gens les plus éduqués sur la question de l’anthropomorphisme, et pourtant je le fais. En revanche, je sais pourquoi, je sais comment le modèle fonctionne. Et surtout, je n’oublie pas que quand je dis bonjour à une machine, cela n’a pas la même valeur que de dire bonjour à une personne. «Si l’on ne croit à rien, si rien n’a de sens et si nous ne pouvons affirmer aucune valeur, tout est possible et rien n’a d’importance», écrivait Albert Camus. Dire bonjour à une machine ne pose en soi aucun problème, tant que vous n’oubliez pas de tout éteindre dès que possible, et d’aller voir un être humain autour d’un café.
(1) «Bonjour ChatGPT» Comment l’intelligence artificielle change notre rapport aux autres, par Louis de Diesbach, 160 p.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici