Elon Musk aux manettes de Twitter, danger? «Il a intérêt à apprendre de ses erreurs»
Le nouveau patron de Twitter fantasme une liberté d’expression absolue. Il risque de se heurter à la tendance consistant à purger les plateformes de leur contenu illicite, soutient Julie Owono, directrice du Content Policy & Society Lab et membre du Conseil de surveillance de Meta.
Certaines polémiques sont très prégnantes en Europe mais pas du tout aux Etats-Unis. Vous qui travaillez au cœur de la Silicon Valley, constatez-vous le même émoi au sujet du rachat de Twitter?
Cette fois, paradoxalement, les perceptions sont assez proches. Beaucoup de médias analysent cette « prise » de Twitter sous l’angle de la liberté d’expression. On perçoit une volonté d’avoir un poids plus important, en tant qu’utilisateur et citoyen, dans la manière dont notre expression en ligne – plus particulièrement sur Twitter – est modérée. Ça, c’est le point commun. Ce qui est un peu différent, c’est le fait que la classe politique américaine est très divisée sur les réponses à apporter aux problèmes que peuvent poser certains contenus sur les réseaux sociaux, comme le harcèlement en ligne, les propos haineux, etc. Ce débat se cristallise ici autour d’un texte, le paragraphe 230 du Communication Decency Act, un corpus de lois relatif notamment à la communication sur les services en ligne. Ce paragraphe, adopté il y a plus de vingt-cinq ans, a renforcé le régime de non-responsabilité des plateformes quant aux contenus créés et partagés par les utilisateurs. D’un côté, les démocrates sont inquiets à l’idée que Twitter ne modère plus la désinformation – notamment républicaine, à l’approche des élections de mi-mandat – et s’interrogent sur la ligne de conduite à adopter. De l’autre, les républicains, surtout l’aile la plus dure du parti, se réjouissent que Twitter devienne un espace public comme le souhaite Elon Musk et que, à ce titre, le premier amendement puisse trouver un nouveau souffle. Donc, oui, on retrouve ce débat autour de l’impact sur la liberté d’expression mais avec la coloration partisane qui divise les lignes démocrates et républicaines sur la question.
Faire de la modération, c’est recevoir des ordres parfois très contradictoires de différents Etats.
Vous êtes membre du Conseil de surveillance de Meta (Facebook et Instagram), organe chargé de statuer sur ce qui peut y circuler et sur ce qui doit en être retiré. Comprenez-vous les inquiétudes des organismes de défense de la liberté d’expression?
On ne peut pas lire dans l’avenir mais ce qui est sûr, c’est qu’il y a un passif historique entre la presse et Elon Musk. Disons que les questions appuyées de certains journalistes sur la gestion de ses entreprises n’ont pas toujours été bien accueillies. On relève aussi un autre passif, qui concerne les pratiques de harcèlements coordonnés de la part de followers sur la plateforme. On a encore eu un exemple très récemment puisque Elon Musk a critiqué certaines équipes de Twitter, notamment celles en charge des questions de sécurité. Ces équipes font l’expérience que d’autres, comme les journalistes, ont faite avant eux, à savoir se retrouver assaillies d’insultes et d’attaques. Après, moi, je veux lui accorder le bénéfice du doute. D’abord parce qu’il faut se rappeler que toutes ces questions de liberté d’expression existent depuis longtemps mais qu’elles sont très récentes dans l’histoire d’Internet. Et puis, parce qu’on peut se tromper. On peut décider de faire certaines choses sans forcément vouloir porter atteinte à l’autre. Mais il faut pouvoir apprendre de ses erreurs, et je crois qu’Elon Musk gagnerait beaucoup à avoir cette humilité-là. D’autant que même les plateformes les plus permissives comme Parler (NDLR: la plateforme de l’extrême droite américaine) ont dû faire face à ces réalités: il y a des choses qu’on peut laisser passer et d’autres pas. La pédopornographie, les agressions coordonnées, les insurrections qui menacent les institutions démocratiques, ce n’est pas possible. L’inverse reviendrait à mal interpréter le premier amendement, qui n’autorise pas à dire tout ce que l’on veut.
Aussi puissant soit-il, le patron de Tesla n’est pas au-dessus des lois. Il devra respecter la législation de chaque pays. L’Europe, par ailleurs, est en train de renforcer son arsenal législatif en vue de mieux réguler le Web…
Il devra comprendre qu’aujourd’hui, en effet, faire de la modération, c’est recevoir des ordres parfois très contradictoires de différents Etats, dont beaucoup se sont dotés d’une loi sur la régulation des contenus en ligne. Exemple: au Brésil, l’administration de Bolsonaro veut faire adopter une loi qui empêcherait de modérer la désinformation. D’un autre côté, l’Union européenne a décidé de se doter d’un arsenal juridique à travers le Digital Services Act (DSA), qui prévoit une obligation de vigilance et de précaution pour les plateformes. A partir de maintenant, quand vous envisagez de nouvelles fonctionnalités, vous devez expliquer aux régulateurs européens et nationaux de chaque Etat membre quelle analyse de risques a été faite et en quoi elle permet de penser qu’il est bon de lancer cette nouvelle fonctionnalité ou ce nouveau produit. Autre obligation: l’Union européenne vous demandera désormais d’expliquer vos algorithmes, ce qui devrait convenir à Elon Musk puisqu’il a dit qu’il comptait le faire. Mais la transparence, c’est également accepter que des personnes extérieures puissent accéder à votre algorithme et l’étudier. Reste donc une question majeure: Elon Musk investira-t-il dans la cybersécurité de ses utilisateurs, entendons ici une cybersécurité publique qui repose sur des règles et des procédures claires? De cela pourrait dépendre le succès de la plateforme qu’il vient d’acquérir.
A force de modérer, on en arrive parfois à des situations absurdes, comme lorsque Meta a censuré la photo historique de «la petite fille au napalm», des œuvres d’art représentant la nudité ou des photos de femmes allaitant. A contrario, les théories complotistes et les discours racistes, sexistes, pullulent…
A partir du moment où trois milliards d’humains sont sur Meta, des théories circulent et circuleront toujours… Mais il faut savoir que la modération de contenus n’est que la partie visible de l’iceberg. Il y a toute une partie immergée. C’est la raison pour laquelle j’ai créé le Content Policy & Society Lab, pour développer une politique de contenus qui définira l’ensemble des règles auxquelles la modération devra obéir. Pour l’instant, dans la plupart des cas, on navigue à vue. Ce qui est extrêmement dangereux quand on se retrouve dans des situations de crise, par exemple celle de la guerre en Ukraine, qu’on doit gérer au compte-gouttes. Or, dans les nations démocratiques, on devrait se trouver dans une position où l’on sait que des préceptes définis s’imposent pour guider la modération. Il faut aussi oser se poser des questions fondamentales telles que: dans une société démocratique, peut-on être confronté à du complotisme?
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici