
Créer des images «Ghibli», c’est aussi offrir ses données à OpenAI: «Il est difficile de protéger les gens contre eux-mêmes»
Des images Ghibli stylisées par IA aux portraits façon figurines, une vague pop déferle sur les réseaux. Mais derrière la magie visuelle, l’intelligence artificielle soulève des questions brûlantes, notamment en matière de protection des données personnelles et de la vie privée.
Voici quelques semaines que les réseaux sociaux sont inondés d’images «à la façon des studios Ghibli» ou dans le style des mangakas (créateurs de mangas) façonnées par l’IA. Une tendance en chassant presque aussi vite une autre, depuis quelques jours ce sont des portraits remaniés comme des figurines sous blister qui ont la cote.
Qu’elles sont mignonnes ces images générées par l’inteligence artificielle… Mais cette trend partagée jusqu’à l’écœurement pose au moins trois questions: sur la protection des données, sur les droits d’auteur et sur l’écologie.
Où partent ces photos passé au mixeur «IA Ghibli»?
En matière de protection des données, tout d’abord. Le monde politique n’a pas attendu l’émergence de cette dernière tendance pour se pencher sur la question. En mars 2023, l’autorité italienne de protection des données (GPDP), craignant des violations présumées du respect de la vie privée, avait interdit l’utilisation de ChatGPT. «L’autorité est rapidement revenue sur une partie de cette décision, notamment parce que le Comité européen de la protection des données (EDPB) a choisi de gérer la question de manière commune. De là est née la « ChatGPT Taskforce« , chargée d’examiner la problématique», indique Gregory Lewkowicz, professeur de l’Université libre de Bruxelles et directeur académique de l’Institut d’intelligence artificielle pour le bien commun (FARI). «Pour l’instant, seul un premier rapport portant sur des points d’attention a été publié. Il n’y a par contre eu aucune avancée décisive sur la question. OpenAI collabore avec les autorités en charge de la mise en application pratique du Règlement général sur la protection des données (RGPD).»
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.
En créant un compte sur les réseaux sociaux ou ChatGPT d’OpenAI, l’utilisateur signe des conditions générales d’utilisation qui autorisent ces sites à exploiter ses données personnelles. «Ces entreprises en deviennent propriétaires. Pour le moment, elles n’en font pas grand-chose. Mais c’est archivé, il y aura peut-être un intérêt pour ces données et ces images dans cinq ans», met en garde Bernard Mouffe, avocat au barreau de Bruxelles et professeur à l’UCLouvain et l’UNamur. «Même si, bien souvent, personne ne lit ces conditions, les gens ne peuvent pas se plaindre que leurs données soient utilisées par la suite», souligne-t-il.
«Les politiques sont aussi influencées par la pression des consommateurs. Il est difficile de protéger les gens contre eux-mêmes.»
Gregory Lewkowicz
Directeur académique de l’Institut d’intelligence artificielle pour le bien commun (FARI)
Gregory Lewkowicz nuance. Selon lui, les utilisateurs de ChatGPT possèdent des droits, notamment celui que leurs données personnelles, de quelque nature soient-elles, soient traitées de manière correcte, ou encore d’exiger l’arrêt du traitement des données personnelles et leur effacement. «On peut le demander, c’est certain, mais est-ce que cette requête est respectée, c’est une autre question», admet le professeur de l’ULB. «Le dossier est géré, mais les politiques en matière de protection des données sont aussi influencées par la pression des consommateurs qui veulent utiliser ces outils. Il est difficile de protéger les gens contre eux-mêmes.»
Les risques des LLM pointés du doigt
Au moment de rédiger cet article, l’EDPB a publié un rapport nommé «AI Privacy Risks & Mitigations Large Language Models (LLM)», présentant une méthodologie complète pour identifier, évaluer et atténuer les risques liés à la protection des données dans le cadre de l’utilisation des grands modèles de langage. Celui-ci contient un certain nombre de mesures pratiques pour protéger la vie privée des utilisateurs.
Le rapport pointe du doigt la nécessité pour les LLM d’avoir accès à de vastes ensembles de données, ce qui augmente le risque de traiter des informations personnelles sensibles. Il évoque également le danger que des informations spécifiques puissent être par la suite divulguées «de manière inattendue» lors d’interactions avec des utilisateurs de ces modèles de langage. Enfin, le rapport du Comité européen de la protection des données met en garde face aux manipulations malveillantes possibles, lesquelles pourraient conduire à des violations potentielles de la confidentialité.
Quant aux moyens pour atténuer ces risques, l’EDPB conseille d’appliquer des techniques pour rendre les données personnelles non identifiables ou encore de former et de sensibiliser les développeurs et utilisateurs aux risques liés à la confidentialité.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.
Hayao Miyazaki ne serait pas d’accord avec la version IA de Ghibli
Nombreux sont les internautes, parmi lesquels des artistes, à s’indigner de l’usage, sans le consentement d’Hayao Miyazaki –très farouche opposant à l’intelligence artificielle–, de son style si reconnaissable. Bernard Mouffe balaie d’emblée ces remontrances. «Il n’y a pas de violation du droit d’auteur», avance-t-il. Et encore moins sur le style. «Selon le droit d’auteur continental (NDLR: appliqué en Europe), les ayant-droits d’Hergé ne peuvent pas sanctionner quelqu’un parce qu’il utilise la ligne claire si caractéristique du style graphique d’Hergé, par exemple. C’est pareil ici.»
Gregory Lewkowicz n’est pas aussi catégorique. «Sur le fond, ce n’est pas faux, mais ce n’est pas là que se situe l’essentiel du débat», répond le chercheur du FARI. Pour lui, l’enjeu principal et de savoir si l’utilisation de données protégées par le droit d’auteur pour entraîner un modèle est autorisée ou non. «Actuellement en Europe, grâce à une exception, c’est tout à fait légal, à moins que le ou les auteurs de ces données s’y opposent formellement de manière adaptée, indique le spécialiste de l’IA. Ça, c’est le point de vue juridique. Politiquement, en revanche, la messe n’est pas dite. Il n’est néanmoins pas impossible que la colère du monde artistique sur la question induise des changements.»
Des images génératives drôles, mais pas écolos
Enfin, la problématique de l’écologie. Non sans fierté, OpenAI a annoncé, fin mars, avoir gagné «un million d’utilisateurs en une heure» grâce à son nouveau générateur d’images basé sur GPT-4o. C’est plus rapide que les cinq jours qui avaient été nécessaires pour atteindre le premier million d’utilisateurs suite au lancement de ChatGPT. Un afflux massif plutôt lucratif (+6% de revenus liés aux achats intégrés pour OpenAI par rapport à la semaine précédente), mais qui a fait fondre les serveurs de l’entreprise, selon son patron, Sam Altman.
it's super fun seeing people love images in chatgpt.
— Sam Altman (@sama) March 27, 2025
but our GPUs are melting.
we are going to temporarily introduce some rate limits while we work on making it more efficient. hopefully won't be long!
chatgpt free tier will get 3 generations per day soon.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.
Il faut dire qu’utiliser ChatGPT est très énergivore. Davantage d’ailleurs pour générer des images –parfois plusieurs dizaines de minutes– que du texte. Les data centers sans lesquels rien de tout cela ne serait possible nécessitent beaucoup d’électricité. «Les projections évoquent une multiplication par deux, trois, voire quatre, des ressources énergétiques nécessaires pour faire fonctionner les systèmes dans les data centers. L’origine de cette électricité, décarbonée ou non, a là toute son importance», note le professeur de l’ULB. Une étude de chercheurs d’IA Hugging Face et de l’Université de Carnegie Mellon (Pennsylvanie), a récemment conclu que générer une image grâce à l’IA nécessitait autant d’énergie que pour charger un smartphone.
«Mais la question véritablement centrale est celle de la quantité d’eau nécessaire pour refroidir les serveurs», souligne Gregory Lewkowicz. Une quantité faramineuse, selon Shaolei Ren, chercheur à l’Université de Riverside (Californie): «Si un travailleur américain sur dix utilise ChatGPT une fois par semaine pendant un an pour rédiger un courriel, il consommerait 435 millions de litres d’eau». Alors que dire pour une image. Certains estiment que la génération d’une seule nécessite 1,8 à 12 litres d’eau.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici