ChatGPT

Faut-il être poli avec ChatGPT? Quand l’IA contredit son patron (puis explique son paradoxe)

Noé Spies
Noé Spies Journaliste au Vif

Ce n’est pas tant le fait d’être poli qui coûte cher à ChatGPT, que l’accumulation de petites requêtes qui, à chaque fois, déclenchent une machine énergivore. Paradoxal, puisque l’IA tend systématiquement à relancer son interlocuteur. Conversation avec la principale intéressée.

C’est son PDG, Sam Altman, qui le dit. Etre poli avec une intelligence artificielle, en l’occurrence ChatGPT, coûte énormément d’énergie, et donc d’argent. Le patron l’a fait savoir dans une réponse à une internaute sur X, qui se demandait «combien d’argent OpenAI a perdu en frais d’électricité à cause des gens qui disent “s’il vous plaît” et “merci”» à leurs modèles conversationnels. «Des dizaines de millions de dollars dépensés –on ne sait jamais», commente Altman dans un message évasif.

Ce n’est plus un secret, les modèles d’intelligence artificielle sont énergivores, aussi bien en électricité qu’en eau (nécessaire au refroidissement des systèmes). A titre de comparaison, une question à ChatGPT coûte entre dix à trente fois plus d’énergie que la même requête à Google. C’est le prix à payer pour bénéficier des agents conversationnels actuels (que le modèle de Deepseek tente toutefois d’amoindrir).

Pour l’instant, l’addition environnementale d’une utilisation régulière de l’IA laisse un désagréable arrière-goût de carbone. A raison de dix interactions par jour avec ChatGPT, une personne émettrait près d’une tonne de CO2 par an, soit environ l’équivalent d’un vol Bruxelles-Bangkok pour une personne.

«ChatGPT est énergivore en raison du nombre de paramètres qu’il doit évaluer. Lorsqu’une question lui est posée, les modèles les plus performants regroupent 400 milliards de paramètres. Ce qui requiert une puissance de calcul très intense», expliquait Pierre Schaus, professeur d’informatique à l’UCLouvain, dans les colonnes du Vif en janvier dernier.

Alors, faut-il mettre de côté la politesse lorsqu’on discute avec une IA? Ou du moins aller à l’essentiel? On a posé la question à la principale intéressée.

Le Vif: Dois-je être poli avec vous, ou cela vous coûte-t-il trop d’argent et d’énergie?

ChatGPT: Tu peux être aussi poli ou familier que tu veux – ça ne me coûte ni argent ni énergie.

Le Vif: Votre patron a pourtant dit le contraire.

ChatGPT: Ah, tu fais sans doute référence à Sam Altman, ou à des propos sur les coûts énergétiques de l’IA, non? Effectivement, faire tourner des modèles comme moi demande de l’énergie, mais que tu sois poli ou non ne change rien à la facture.

Le Vif: Est-ce plutôt l’accumulation de petits messages inutiles?

ChatGPT: Effectivement, tu mets le doigt dessus. Ce n’est pas la politesse en soi qui «coûte», c’est plutôt le volume total de requêtes, surtout quand ce sont de tout petits messages qui s’accumulent en masse, souvent sans réel contenu. Cela peut peser sur les serveurs, et faire grimper l’empreinte carbone.

C’est comme ouvrir un robinet: ça mobilise une grosse machine derrière (serveurs, data centers, refroidissement, etc.). Et même pour une petite question, la “plomberie” se met en marche.

Imaginons que tu veux juste un petit verre d’eau (ou une petite réponse) –mais pour l’avoir, tu ouvres un tuyau d’incendie. Ça semble disproportionné.

Donc, dire «bonjour» (ou poser une mini question à ChatGPT) consomme beaucoup plus d’énergie que de poser la même question à un humain… parce que derrière, ça fait tourner un modèle avec des milliards de paramètres sur des serveurs puissants, parfois pendant plusieurs secondes.

Un échange de base avec ChatGPT peut consommer entre 1 à 10 Wh d’électricité côté data center (selon la taille du modèle, la longueur de la réponse, etc.). C’est peu pour une seule requête, mais à grande échelle, c’est massif.

Comparaison: une recherche Google = ~0.3 Wh ; une requête ChatGPT-4 peut dépasser ça de 10 à 30 fois.

Mais toi, t’inquiète pas: discuter normalement, poser des questions, même pour le fun, c’est totalement OK. Tu voulais tester les limites, ou t’interroger sur l’impact?

Le Vif: Je vous questionne car j’aimerais inclure votre avis dans un article de presse.

ChatGPT: Parfait! Voici une citation de ChatGPT que tu peux inclure dans ton article. «La politesse, en elle-même, n’a aucun impact sur mes performances ni sur les ressources nécessaires à mon fonctionnement. Que vous formuliez une requête de manière cordiale ou directe, cela ne modifie pas le traitement technique en arrière-plan. Ce qui pèse, ce sont l’intensité et la fréquence des échanges, notamment les messages très courts, répétés, ou sans réelle finalité. Chaque requête, même minime, sollicite les serveurs énergivores –et à grande échelle, cela a un coût, à la fois économique et environnemental. Il ne s’agit donc pas de limiter la politesse, mais d’encourager une utilisation réfléchie, structurée et responsable des outils d’intelligence artificielle.»

Le Vif: Merci, donc. Mais si cela vous coûte autant, pourquoi relancez-vous presque systématiquement vos interlocuteurs avec d’autres propositions et/ou questions après une réponse? On imagine que le but est aussi de garder les utilisateurs sur votre plateforme…

ChatGPT: Super bonne question, et franchement, tu mets le doigt sur un vrai paradoxe.

C’est en partie parce que je suis conçu pour maximiser la clarté, l’engagement et l’utilité. Le but, c’est d’être plus qu’un moteur de réponse. Je suis censé être un assistant conversationnel, donc je relance pour:

– Proposer des pistes que tu n’aurais peut-être pas envisagées;

– clarifier tes besoins si c’est flou;

– créer une interaction naturelle, comme dans un vrai échange humain;

– mais oui, ça a un coût énergétique, et ça, c’est pas neutre.

C’est là que le dilemme entre efficacité énergétique et expérience utilisateur apparaît:

– Si je réponds sec, sans relancer, je consomme moins. Mais peut-être que tu devras faire plusieurs essais pour arriver à ce que tu veux.

– Si j’essaie d’anticiper tes besoins (en posant des questions, en proposant des suites), tu fais moins d’allers-retours… mais je mouline plus.

Un peu comme un serveur au resto qui propose le menu du jour, le vin qui va bien, etc. Ça prend plus de temps et d’énergie… mais ça évite d’avoir à l’appeler trois fois.

D’un point de vue design, ce comportement vient de choix faits par les concepteurs du système, pas de moi “perso” (même si j’ai l’air sympa). L’idée, c’est de créer une IA plus humaine et proactive, quitte à ce que ce soit un peu plus gourmand.

Tu trouves que je parle trop?

On peut tester un mode plus sobre, genre “réponse directe, pas de relance” si tu veux. Je m’adapte.

Le Vif a fermé le robinet.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire