Attaque du Hamas contre Israël : premier crash-test de Twitter sous l'ère Elon Musk
désinformation
Le réseau social X - anciennement Twitter - a vu une forte hausse de la désinformation circuler depuis le début de l’assaut du Hamas contre Israël. C’est généralement le cas sur tous les réseaux sociaux durant les graves crises telles que les guerres. Mais dans ce cas précis, c’était le baptême du feu pour la plateforme sous la direction d’Elon Musk. Et pour les experts, le premier bilan n’est pas brillant.
Elon Musk, le patron de X (Twitter), est sous le feu des critiques pour la manière dont la désinformation relative à la flambée de violence entre le Hamas et Israël est modérée sur sa plateforme.
Ce sont des images effroyables d’enfants dans des cages, des documents qui prouveraient que les États-Unis ont approuvé une aide de 8 milliards de dollars à Israël ou encore des vidéos suggérant que les atrocités commises contre des civils depuis le début del’assaut du Hamas sur Israëlsont des mises en scène de l’État hébreu.
Autant d'"infox" relayées ad nauseam sur X (nouveau nom de Twitter) depuis le samedi 7 octobre et qui sont depuis lorsdans le collimateur des Observateurs de France 24 et autres médias de "fact-checking".
Thierry Breton vs Elon Musk
Et pour l’Union européenne, trop c’est trop. Dans une lettre ouverte, Thierry Breton, le Commissaire européen au Numérique, a donné 24 heures à Elon Musk, le patron de X, pour faire le ménage sur sa plateforme. Sans quoi, la Commission européenne se réserve la possibilité d’imposer une sanction équivalente à 6 % du chiffre d’affaires du réseau social pour violation du règlement européen sur les services numériques.
L’assaut du Hamas sur Israël a, en effet, représenté "un réel stress-test pour les plateformes numériques et leur politique de modération du contenu", assure Hamza Mudassir, cofondateur du cabinet britannique de conseils pour start-up Platypodes et professeur de stratégie entrepreneuriale à l'université de Cambridge.
Les violences commises ces derniers jours ont entraîné un flot ininterrompu de réactions sur les réseaux sociaux. Rien que sur Twitter, plus de 50 millions de messages ont été postés sur le conflit depuis samedi. Ce déchaînement de contenus a été accompagné par une recrudescence de "fake news" et messages de propagande, ont constaté les sites de vérifications d’informations dans le monde entier.
Une croix portée par tous les réseaux sociaux, de TikTok à Instagram, mais qui affecte tout particulièrement Twitter. Thierry Breton n’a pas choisi par hasard de cibler Elon Musk. "Il fait clairement partie du problème", estime Sander van der Linden, professeur de psychologie sociale à l'Université de Cambridge et spécialiste de la désinformation sur les réseaux sociaux.
Elon Musk "fait partie du problème"
"C’est le véritable baptême du feu pour X tel qu’imaginé par Elon Musk, car c’est la première crise internationale d’ampleur qui survient alors qu’il est déjà en poste. La guerre en Ukraine avait commencé avant le rachat du site [intervenu en avril 2022, NLDR]", explique Jon Roozenbeek, spécialiste de la désinformation à l’Université de Cambridge.
Les premières impressions ne sont pas flatteuses pour X. Certes "l’ancien Twitter aurait aussi été submergé par cette avalanche de fausses informations, mais probablement pas autant que ce qui se passe actuellement", ajoute Sander van der Linden.
Tout d’abord parce qu’Elon Musk "fait clairement partie du problème", estime ce dernier. "Il ne semble pas, personnellement, très intéressé par une meilleure modération du contenu", souligne Jon Roozenbeek. Sa réponse à Thierry Breton en dit long sur son état d’esprit : "Pourriez-vous s’il vous plaît lister les violations [aux règles européennes, NDLR] auxquelles vous faites allusion pour que tout le monde les voit ?", a-t-il demandé sur X.
C’est soit une indication qu’il n’a pas conscience qu’il y a quelque chose de pourri au royaume de X, soit "une manière de faire traîner les discussions", précise Jon Roozenbeek.
Elon Musk a même été pris la main dans le sac à promouvoir des comptes Twitter connus pour être des relais de fausses informations. Il a ainsi appelé, dès le 7 octobre, à suivre @WarMonitors et @sentdefender pour "suivre la guerre en temps réel". Problème : ces deux comptes avaient déjà été "parmi les principaux propagateurs de fausses informations au sujet d’une explosion aux abords de la Maison Blanche [qui n’avait jamais eu lieu]", souligne le Washington Post. War Monitors a aussi été accusé de publier des messages à caractère antisémites.
Des incitations à propager des rumeurs
Mais c’est surtout le démantèlement des garde-fous mis en place avant l’ère Musk qui inquiète les experts. "Le principal problème provient de la nouvelle politique de certification qui permet à tout le monde d’avoir le petit emblème bleu du compte certifié à condition de payer un abonnement mensuel. Du coup, il est devenu beaucoup plus difficile de savoir à qui faire confiance sur Twitter", résume Jon Roozenbeek.
"La décision d’Elon Musk de réinstituer des 'super-propagateurs' de fausses informations [tels que Donald Trump, NLDR] participe aussi à la viralité de certains contenus problématiques, car on sait qu’il suffit de quelques comptes très influents pour faire la différence”, ajoute Sander van der Linden.
Sans compter la nouvelle politique de rémunération des créateurs de contenus. "Ils sont payés en fonction du nombre de fois qu’un de leur message est vu. Ils vont ainsi être tentés de reposter les messages les plus viraux – souvent aux contenus les plus incendiaires – sans forcément vérifier s’il s’agit de désinformation ou non", regrette Sander van der Linden.
L’effet des coupes franches dans les équipes de modération de contenu commence aussi à se faire sentir à l’occasion de ce conflit. Ainsi, des fausses vidéos d’affrontements ont utilisé des images tirées du jeu de simulation de guerre Arma 3. "Ce ne serait peut-être pas passé à l’époque de l’ancien Twitter, car les équipes de modération avaient des outils pour apprendre de leurs erreurs, et le même type de fausses vidéos, utilisant des extraits du même jeu ont été utilisées durant le conflit en Ukraine", explique Sander van der Linden.
En lieu et place des anciennes règles de modération, Elon Musk mise surtout sur la vigilance de la communauté. "Il a institué les notes de la communauté qui permettent aux utilisateurs d’ajouter du contexte ou signaler du contenu trompeur. C’est un système qui marche plutôt bien", assure Hamza Mudassir. Les experts en désinformation interrogés reconnaissent l’utilité d’un tel mécanisme, mais cela "revient à faire retomber la responsabilité de traquer les informations à 100 % sur la communauté", précise Jon Roozenbeek.
Des conséquences dans le monde réel
L’explosion de violence au Moyen-Orient va ainsi probablement exposer au grand jour "les trous dans l’armure anti-désinformation de Twitter et leur conséquence", reconnaît Hamza Mudassir. Et ce n’est pas seulement une mauvaise nouvelle pour les choix effectués par Elon Musk. La propagation de fausses informations sur les réseaux sociaux "peut avoir des conséquences très réelles", souligne Sander van der Linden.
Par exemple, "des rumeurs propagées sur les réseaux sociaux ont entraîné des actes de violence en Inde", ajoute cet expert. En 2018 déjà, la BBC avait listé toute une série de conséquences tragiques dans le monde suite à la propagation de "fake news".
Le problème est qu’il "est difficile d’exiger d’un patron d’une entreprise privée qui doit faire des économies de dépenser plus dans un domaine qui n’a pas forcément d’impact sur la rentabilité de Twitter", explique Hamza Mudassir.
Sauf si X doit payer le prix du déluge de désinformation. "Il ne faut pas oublier qu’Elon Musk avait promu son Twitter comme le réseau qu'il faut consulter pour être informé avant tout le monde", souligne Hamza Mudassir. Mais si cette information est fausse, quel intérêt ? De quoi faire fuir définitivement ceux qui, déjà avant le regain de violence au Moyen-Orient, estimaient que les promesses d’Elon Musk sonnaient creux face à la montée en puissance de la désinformation sur X ?
Mais ce sont surtout les annonceurs qui risquent de ne pas voir d’un bon œil la manière dont les désinformateurs utilisent X. "Je ne vois aucun publicitaire qui aurait envie de voir son annonce apparaître sous un message de propagande du Hamas par exemple", conclut Hamza Mudassir.