Attentats, des vidéos virales: « Les réseaux sociaux ont failli à leur devoir »
Entre la guerre Israël-Hamas et l’attentat terroriste à Bruxelles, le climat est propice à la multiplication de contenus illicites et violents sur les réseaux sociaux. Malgré un renforcement du cadre légal européen, la modération exercée par les plateformes reste trop faible.
Par respect pour les victimes et leurs familles, nous vous demandons de ne pas partager les images liées à la fusillade ». Les appels répétés du Centre de Crise n’y auront rien changé. Lundi soir, des vidéos glaçantes mêlant coups de feux et cadavres en sang ont tourné en boucle sur les réseaux sociaux. L’horreur de l’attentat perpétré par Abdessalem Lassoued a pu être vécue quasi-instantanément, sans filtre, par des milliers d’utilisateurs. En parallèle, des vidéos sordides – parfois non-vérifiées – de décapitations, prises d’otages et autres tueries de masse en Israël ou à Gaza pullulent également sur la toile. Une succession d’incidents qui interroge sérieusement la capacité de modération et de régulation des plateformes.
« Les récents événements, que ce soit le conflit entre Israël et le Hamas, l’attentat à Bruxelles ou encore l’attaque au couteau à Arras, ont démontré que les plateformes ont failli à leur devoir, tranche Xavier Degraux, consultant et formateur en marketing digital et réseaux sociaux. On peut le dire clairement : tous ces réseaux ont d’énormes problèmes de modération. »
Pourtant, le cadre légal a récemment été renforcé à l’échelle européenne. Le Digital Services Act (DSA), qui vise à entériner le principe selon lequel « ce qui est illégal hors ligne est illégal en ligne », est entré en vigueur le 25 août 2023 au sein de l’UE. Ce cadre de régulation oblige les plateformes à retirer des contenus haineux, illicites ou de désinformation rapidement après leur signalement, qui peut être effectué par tout utilisateur ou autorité compétente. « Le problème, c’est que le terme ‘rapidement’ est encore assez flou », observe Xavier Degraux. Et donc, interprété de manière variable par les plateformes.
X, le plus mauvais élève
« Dans le cas de l’attentat terroriste à Bruxelles, X (anciennement Twitter) a énormément traîné avant de retirer les vidéos illicites. Il a fallu beaucoup de signalements, et certains sont d’ailleurs restés lettres mortes, analyse le consultant. De manière générale, la modération de X n’est absolument pas au point, alors que c’est justement la plateforme historique de l’information en temps réel. Cela pose un gros problème. » Un laxisme qui s’observe encore davantage depuis l’arrivée d’Elon Musk, qui a procédé à des licenciements massifs en prenant les commandes du réseau social. « Evidemment, les effectifs de modération ont été les premiers sacrifiés, car ils coûtent beaucoup mais ne rapportent rien. »
De leurs côtés, Facebook et Instagram, appartenant au groupe Meta, sont légèrement plus réactifs. Mais cela n’empêche pas certains utilisateurs de dupliquer les contenus violents et de les transférer vers d’autres plateformes, y compris des messageries instantanées, pour certaines cryptées (Telegram, Discord), qui sont par essence encore plus difficiles à réguler.
De manière générale, les plateformes facilitent, voire accélèrent, la « viralisation » des images illicites ou violentes par la conjonction de plusieurs facteurs. Premièrement, ces vidéos sont généralement courtes et choquantes, ce qui augmente le « dwell time », à savoir le temps passé à consommer un contenu, proportionnellement à sa durée totale. Ce « dwell time » influence l’algorithme des plateformes. « Plus vous passez de temps sur une vidéo, plus vous envoyez des signaux d’intérêt pour cette vidéo, qui va donc être viralisée », explique le consultant. C’est particulièrement le cas sur TikTok, qui interprète une durée importante de visionnage comme un signal de « qualité » de contenu. En outre, ce genre de vidéos sidérantes entraînent parfois un visionnage répété – cinq, dix fois de suite – favorisant aussi leur circulation.
Réseaux sociaux: un taux d’engagement élevé sur une courte période
Deuxièmement, de par leur forte valeur émotionnelle, ces vidéos suscitent généralement un taux d’interaction élevé sur une très courte période, un facteur amplifiant la viralisation. « Après avoir visionné ces vidéos, les utilisateurs se sentent parfois impuissants. Ils se retranchent derrière leurs écrans en likant, partageant ou commentant massivement ces contenus », observe l’expert. Quelle que soit la teneur des commentaires – une réaction négative qui condamne les faits ou une réaction raciste qui encourage la violence – l’interaction est enregistrée et favorise le caractère viral du contenu. « Certains utilisateurs se sentent parfois investis d’une mission de justicier, et estiment capital de partager en masse ce genres de vidéos pour informer les autres ou, dans le cas d’un attentat, aider les forces de l’ordre à retrouver le fuyard », précise encore Xavier Degraux.
Lors de l’attentat à Bruxelles, le timing des faits a également été extrêmement porteur pour la viralisation. « L’attaque s’est déroulée un soir de semaine, qui est le « prime time » des réseaux sociaux, insiste le consultant. En plus, la caisse de résonance était énorme car la population « réseaux sociaux » a été associée à la population « football ». De nombreuses personnes regardaient le match en direct et ont été informées de l’attaque par ce biais, entraînant une migration massive vers les plateformes pour le suivi de la situation en temps réel. »
« Un momentum inédit »
Enfin, l’engagement positif sur les réseaux sociaux est actuellement en chute libre en Belgique, laissant le champ libre aux contenus négatifs, violents ou haineux. Les likes, commentaires et partages de contenus qualitatifs sont en baisse, notamment ceux émis par les médias traditionnels. « On assiste à une invisibilisation progressive des contenus journalistiques, car les plateformes pénalisent les liens externes vers les sites de médias, observe Xavier Degraux. Les contenus négatifs et non-vérifiés prennent ainsi le dessus. »
En définitive, « tous les ingrédients sont réunis » pour une viralisation massive de ces contenus, qui échappent toujours plus à la modération des plateformes. « Cette conjonction d’événements, c’est un momentum inédit, qui débouche malheureusement sur un constat d’échec énorme, tant de la part des plateformes, des médias traditionnels que des politiques, résume Xavier Degraux. Mais je le vois aussi comme une opportunité : nous devons nous ressaisir. » L’expert plaide pour un renforcement du DSA en Europe et de son caractère contraignant à l’égard des plateformes, et enjoint la Belgique à mettre en place sa propre filière de signalement et de modération. « Les moyens doivent être à la hauteur des enjeux. L’enchainement des faits que l’on vit depuis 10 jours montre qu’il est urgent d’investir dans cette filière. »
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici