Info ou intox ? désormais le mot Infox –validé par l’Académie française– désigne une fausse information, conçue dans le but d’ induire en erreur le public,en particulier sur les réseaux sociaux où les rumeurs se répandent sans filtre. Chaque semaine, RFI épingle une de ces tentatives de manipulation…
Depuis vendredi dernier, Los Angeles, la deuxième ville des États-Unis, est en proie à des heurts parfois violents qui opposent des manifestants aux forces de l'ordre. Un couvre-feu a été imposé en début de semaine pour tenter de mettre fin aux pillages. Quelque 700 marines, ont été appelés en renforts, rejoignant 4 000 militaires réservistes de la Garde nationale. Un déploiement de force dénoncé par les autorités locales qui parlent d'un abus de pouvoir de la part de Donald Trump. Depuis quelques jours, confusion et fausses informations entourent les évènements de Los Angeles. Parfois, ce sont les agents conversationnels, comme ChatGPT ou Grok qui viennent semer le trouble. Ainsi, deux photos ont retenu notre attention. Elles ont provoqué une passe d'arme sur les réseaux sociaux. Il s'agit d'images montrant des soldats américains allongés sur le sol, en train de dormir les uns contre les autres, dans ce qui semble être un poste de sécurité et le sous-sol d'un bâtiment. Ces photos ont été vues des centaines de milliers de fois, rien que sur le réseau X, et elles ont été partagées par le compte du gouverneur démocrate de Californie Gavin Newsom qui s'est opposé à Donald Trump à propos du déploiement de l'armée dans les rues de Los Angeles. Le compte personnel de Gavin Newsom représente 2,2 millions de followers. Dans un commentaire, il dénonce les conditions déplorables dans lesquelles les soldats seraient logés et il s'adresse directement à Donald Trump, il écrit je cite : « Vous avez envoyé des troupes ici, sans carburant, sans nourriture et dans l'endroit pour dormir, s'il y en a un qui manque de respect à notre armée, c'est bien vous ». Polémique sur les réseaux sociaux Ces images sont-elles réelles ? Cette question, beaucoup d'utilisateurs d'internet se la sont posée. Ils en sont remis à l'avis de Grok, (l'IA d'Elon Musk) et ils ont interrogé Chat GPT. Juste après le partage de ces images, ces agents conversationnels ont affirmé que « ces images semblaient montrer le retrait des soldats américains d'Afghanistan à l'aéroport de Kaboul durant l'été 2021 ». Après vérification, ce n'est pas le gouverneur de Californie qui a menti, mais c'est l'IA qui s'est trompée : ces images sont bien réelles, elles ont bien été prises à Los Angeles et publiées par un journal local sérieux, le San Francisco Chronicle dans son édition du 9 juin. La rédaction assure qu'elle a obtenu ces deux clichés en exclusivité, et qu'ils montrent des soldats en train de se reposer dans différents immeubles fédéraux qu'ils sont chargés de protéger… L'IA prise en défaut Une recherche par image inversée permet d'établir que ces photos n'ont jamais été mises en ligne avant le 9 juin dernier, donc elles ne peuvent pas avoir été publiées il y a quatre ans lors du retrait d'Afghanistan. Donc attention, Grok ou ChatGPT ne sont pas des outils de fact checking, même si la tendance des utilisateurs est d'y avoir recours dès qu'ils se posent des questions sur l'authenticité d'un contenu. Les résultats de recherche menés par les IA changent au fil du temps, en fonction des références sur lesquelles ces outils peuvent s'appuyer pour fournir des réponses. De vrais exemples d'Infox Avec des images générées par IA, comme celle de « Bob ». Ce soldat américain censé avoir été déployé pour protéger Los Angeles. Il se filme dans la ville en mode « portrait » et répand des fausses informations. Ces images ont fait le tour des plateformes, mais il s'agit en fait d'un personnage entièrement créé par des outils d'intelligence artificielle. À bien observer la vidéo, on peut noter certaines incohérences comme le grade du soldat qui ne correspond à rien de connu, les couleurs des feux de circulations à l'arrière-plan, ou encore les lettres « LAPC » sur une voiture de police alors que c'est « LAPD », Los Angeles Police Département, qui est inscrit en lettre noire sur fond blanc, sur les véhicules de police de la ville.
Avec son opération clandestine, baptisée « Toile d'araignée », l'armée ukrainienne a détruit au moins une quinzaine d'appareils russes, dont plusieurs bombardiers stratégiques, dimanche 1er juin. Un raid historique autour duquel la désinformation bat son plein sur les réseaux sociaux. Côté ukrainien, certains comptes détournent des images pour surévaluer les dégâts. Côté russe, la désinformation sert à sauver la face et faire monter la tension. Quelques heures seulement après l'annonce du raid ukrainien sur des aérodromes militaires russes, des comptes habitués à diffuser la propagande du Kremlin ont inondé les réseaux sociaux avec un message relativement inquiétant : « La Russie aurait placé ses forces nucléaires en état d'alerte maximale ». Des utilisateurs parlent, à tort, de « l'ouverture des silos contenant des missiles stratégiques et du déplacement d'unités mobiles ». Un niveau de préparation « jamais vu depuis la crise des missiles de Cuba », à en croire ces nombreuses publications.Concrètement, ce narratif mensonger repose sur de prétendus témoignages non sourcés ainsi que sur une vidéo de 49 secondes vue plus de 10 millions de fois cette semaine. Filmée de nuit, on y voit une colonne de lanceurs Yars, entourée de véhicules de police progressant sur une autoroute civile.Ces systèmes de missiles balistiques intercontinentaux mobiles sont capables de lancer plusieurs têtes nucléaires avec une portée estimée à 10 000 km. Cela fait dire à certains que le raid ukrainien pourrait faire basculer le monde.Préparation pour le défilé du 9 mai 2024Vérification faite, cette vidéo n'a rien à voir avec l'attaque récente de drones ukrainiens sur des bases russes. Grâce à une recherche par image inversée (voir ici comment faire), nous avons retrouvé d'où provient exactement cette vidéo. Elle a été diffusée par le ministère russe de la Défense sur Telegram, le 27 février 2024.La légende parle de l'arrivée des lanceurs Yars à Alabino, près de Moscou, dans le cadre de la préparation du traditionnel défilé militaire du 9 mai, pour l'édition 2024. Aucun rapport donc avec le raid ukrainien du dimanche 1er juin 2025.Le déni russeAu-delà d'agiter la menace nucléaire pour faire diversion sur le coup dur porté à l'aviation stratégique russe, des comptes de propagande vont même jusqu'à nier l'existence des destructions. Pour y parvenir, certains partagent des images satellites antérieures à l'attaque, en les présentant, à tort, comme des clichés récents, post-frappe. Un récit démenti par l'analyse des informations en sources ouvertes, menée par la cellule Info Vérif de RFI, et qui permet de documenter avec certitude la perte d'au moins 15 appareils russes.Surévaluation des dégâtsCes images sorties de leur contexte sont loin d'être les seules à circuler sur les réseaux sociaux ces derniers jours. Certains comptes pro-ukrainiens ont par exemple diffusé une vidéo censée montrer la destruction d'une usine de composants de missile près de Moscou.On y voit bien une vaste explosion, sauf que ces images, vues plusieurs millions de fois, sont anciennes. Elles datent en réalité de 2023 et montrent un navire de guerre russe frappé par des missiles de croisière ukrainiens lors d'une attaque nocturne en Crimée.Toujours dans le but de surévaluer les dégâts, certains utilisateurs partagent également des vidéos issues de jeu vidéo ou générées par intelligence artificielle.À lire aussiAttaque de drones ukrainiens en Russie: attention à ces images artificiellesDésinformation et brouillard de guerreComme à chaque grande opération militaire, le brouillard de la guerre facilite la diffusion d'images sorties de leur contexte ou générées par intelligence artificielle. À cela s'ajoutent des modes opératoires toujours plus complexes. Plusieurs fausses images satellites difficilement détectables ont, par exemple, fait leur apparition en ligne.Une fois devenues virales, ces infox alimentent les tensions, perturbent les perceptions du conflit et invisibilisent les vraies images de la guerre.
Le Hajj, le pèlerinage des musulmans à la Mecque, débute mercredi 4 juin. L'année dernière, plus de 1,8 million de musulmans s'étaient rendus en Arabie saoudite pour l'occasion. Cette semaine, une fausse information a circulé à propos du crash d'un avion rempli de fidèles en provenance de Mauritanie. Compte tenu de l'émotion générée par cette infox, les autorités mauritaniennes ont dû publier un communiqué pour couper court à la rumeur et rétablir la vérité. Cette infox s'est répandue sur les réseaux sociaux, au Sahel, au Sahara, en Afrique du Nord et dans le monde arabo-musulman. On la trouve sur les principales plates-formes comme X, Facebook, ou TikTok. Sur les posts en questions, on peut lire : « un avion de pèlerins mauritaniens s'est écrasé en mer Rouge, faisant plus de 200 morts ». L'infox est généralement accompagnée d'images sorties de leur contexte, ou générées par IA.Compassion sur les réseaux sociauxL'infox est apparue le 27 mai. Elle a eu peu de retentissement en Europe, mais en Afrique de l'Ouest particulièrement puisqu'une multitude d'utilisateurs l'ont immédiatement commenté. C'est la rédaction en Mandenkan-Fulfude de RFI à Dakar qui a attiré notre attention sur ce sujet.Le site en ligne Senenews qui a fait un travail de vérification autour de cette fausse rumeur écrit : « la diffusion de fausses informations autour du Hajj est malheureusement courante à l'approche de la saison du pèlerinage, une période sensible où des millions de fidèles se rendent en Arabie saoudite. Ces fausses nouvelles jouent sur l'émotion collective pour générer du clic ou faire le buzz, au détriment de la vérité et de la sérénité des proches des pèlerins ». En pareils cas, la première chose à faire pour lever un doute est d'aller consulter des sites sérieux, comme des chaines nationales ou internationales, pour voir si elles parlent de ce crash. Images détournéesUne observation attentive des images permet de ne pas se faire manipuler. Dans le cas présent, les images qui circulent sur les réseaux sont impressionnantes mais ne concordent pas avec ce qu'on pourrait découvrir sur le site d'un accident aérien, surtout si l'avion est tombé en mer.En effet, si on consulte de la documentation sur internet, on s'aperçoit qu'on ne retrouve le plus souvent que quelques débris flottant à la surface une fois que l'avion a percuté la mer. Les principales images qui circulent autour de cette infox montrent aussi des carlingues en feu. Sur le sol sont alignés des corps. Pour la première image, il s'agit visiblement d'une IA, et pour l'autre, d'une image sortie de son contexte.Nous avons noté des invraisemblances liées à la génération d'images par des outils d'intelligence artificielle. Par exemple des hublots carrés qui n'existent pas sur les avions de ligne actuels. Une recherche par image inversée nous a aussi permis de retrouver l'origine de l'image d'un avion dévoré par les flammes et photographié de face. Il s'agit d'un appareil cargo de fabrication russe, incendié en 2007 sur l'aéroport de Pointe-Noire au Congo et en aucun cas d'un avion de ligne mauritanien en 2025.Une affaire prise au sérieux par les autoritésDans un communiqué officiel, Mauritania Airlines a précisé que les rumeurs concernant ce crash circulant sur les réseaux sont totalement infondées. « Tous les pèlerins mauritaniens ont atterri en sécurité et aucun incident n'a été enregistré », a déclaré la compagnie. Les autorités mauritaniennes ont également démenti. Ces réactions officielles sont intervenues dans les heures qui ont suivi l'apparition de l'infox, sans pour autant stopper sa propagation.
Léon XIV a donné le ton de son pontificat, dimanche 18 mai, au Vatican en dénonçant une économie qui exploite la nature et qui laisse de côté les plus pauvres. Ce mercredi, il a lancé un appel à Israël afin que l'aide humanitaire puisse entrer à Gaza. Des discours empreints d'humanisme alors que certains comptes sur les réseaux sociaux tentent de manipuler sa parole. Ainsi une infox en langue arabe veut laisser croire à des prises de position hostiles à l'islam de la part du nouveau pape. Dès son arrivée à la tête du Saint-Siège, le pape Léon XIV a été l'objet d'infox sur les réseaux sociaux. Une désinformation, plus ou moins grossière, visant la personne du pape, et les positions de l'Église, en lui attribuant des propos qu'il n'a jamais tenus. Parmi ses fausses déclarations, l'une a retenu notre attention. L'infox prend la forme de tweet sur X et de post sur Facebook rédigés en arabe, et laissant penser à tort que le nouveau pape a tenu des propos hostiles à l'islam. Dans une vidéo d'une dizaine de minutes, on le verrait « dénoncer une invasion de l'Europe par les musulmans » détaillant une soi-disant « stratégie visant à changer l'identité chrétienne du continent européen ». Après vérifications, le nouveau pape n'a jamais dit ça, que cela soit d'ailleurs avant ou après le début de son pontificat.Vidéo trompeuse Toutefois, la personne qui prononce ce discours ressemble beaucoup au pape Léon XIV. Donc tout d'abord, on a cherché à savoir si la vidéo n'avait pas été générée par un outil d'intelligence artificielle ? Le logiciel que nous avons employé nous a indiqué qu'il y avait 0% de chance pour que cette vidéo ait été fabriquée par l'IA. Donc a priori, nous ne sommes pas confrontés à un hypertrucage. Comme la ressemblance est vraiment frappante, nous avons ensuite utilisé un logiciel gratuit, permettant de détecter les sosies. Résultats : entre 49% et 55% de similarités entre le visage de l'homme qui apparait sur la vidéo et le portrait du pape Léon XIV. Pas suffisant pour en tirer des conclusions surtout que l'on sait que ces outils ne sont pas fiables à 100%.Le discours d'un prélat conservateur en 2016Une recherche par image inversée nous a permis de retrouver la trace sur YouTube d'une longue vidéo, dont la dernière partie correspond à l'extrait que l'on trouve dans l'Infox. La personne que l'on voit à l'écran est bien un homme d'Église : il s'agit de l'évêque d'Astana au Kazakhstan, Athanasius Schneider, connu pour ses prises de positions conservatrices. Il a fait ces déclarations sur cette « invasion de l'Europe », selon ses mots, lors d'une rencontre avec des fidèles filmée dans une petite église du New Jersey aux États-Unis, le 23 octobre 2016. On retrouve d'ailleurs des photos de son passage sur le site internet de la paroisse. Des invraisemblances décelablesOn est donc face à une infox utilisant une vidéo sortie de son contexte jouant sur une forte ressemblance entre ce dignitaire catholique et le pape Léon XIV, afin de marquer les esprits. Cela étant, si on s'attarde sur l'image, on voit que celui qui est présenté comme le pape, porte la soutane violette des évêques et non la grande tenue blanche du souverain pontife.L'audio donne aussi des indications. L'accent de Léon XIV est bien celui d'un natif des États-Unis, alors que l'anglais de l'évêque Schneider est plus hésitant. Enfin, toutes les déclarations publiques du pape sont disponibles sur le site officiel du Vatican. Si vous avez un doute, allez consulter le site, d'ailleurs le Vatican fait aussi du fact-checking comme ici.
Après une escalade militaire ayant provoqué la mort de plus de 70 personnes, l'Inde et le Pakistan ont convenu d'un accord de cessez-le-feu le samedi 10 mai 2025. Si les armes se sont tues, la guerre de l'information, elle, se poursuit entre New Delhi et Islamabad. D'un côté comme de l'autre, des comptes de propagande continuent de diffuser massivement des fausses informations afin de présenter leur pays comme le vainqueur de cette confrontation. À l'instant où le cessez-le-feu aérien, terrestre et maritime a été annoncé, la bataille numérique entre l'Inde et le Pakistan n'a pas baissé en intensité. Au contraire, les comptes de propagande ont rapidement réorienté leurs narratifs autour de deux axes : la glorification de l'action de leur armée et l'humiliation de l'adversaire. Pour y parvenir, différents modes opératoires sont employés, du simple montage photo au deepfake sophistiqué.La guerre des deepfakesÀ ce jour, de nombreux politiques indiens et pakistanais en ont fait les frais, à commencer par le Premier ministre indien, Narendra Modi. Dans une vidéo d'une minute et treize secondes, on pense l'entendre présenter ses excuses, en hindi, au peuple indien : « Le Pakistan nous a complètement détruits. Notre économie s'effondre. Aucun investissement n'est à venir. Les marchés sont déserts. (...) Nous avons essayé de faire la guerre. Mais maintenant, nous réalisons que nous avons commis une grave erreur. Je présente mes excuses ». En réalité, Narendra Modi n'a jamais tenu ces propos.Cette vidéo a été générée via l'intelligence artificielle. L'analyse visuelle du mouvement de ses lèvres, ainsi que les détecteurs d'IA que nous avons utilisés, le confirment. C'est un deepfake, un hypertrucage audio et visuel. La voix du Premier ministre indien a été fabriquée de toutes pièces. À noter que le ministre des Affaires étrangères et le ministre de l'Intérieur indien ont également été ciblés par ce type de deepfake.Côté Pakistanais, c'est le porte-parole de l'armée qui en a été victime. En effet, une vidéo artificielle du général Ahmed Chaudhry a semé le trouble sur les réseaux sociaux. Durant une minute et trente-et-une secondes, on croit l'entendre reconnaître la perte de « deux avions Chengdu JF-17 ». Sauf qu'une nouvelle fois, il s'agit d'un deepfake. Ahmed Chaudhry n'a jamais prononcé un tel discours.L'extrait provient d'une conférence de presse de l'armée pakistanaise tenue le 27 décembre 2024, soit bien avant l'escalade militaire avec l'Inde. Quelqu'un a fourni ces images à une IA pour manipuler le discours du porte-parole de l'armée.La bataille des chiffresCette infox ciblant le porte-parole de l'armée pakistanaise est le symbole de la guerre des chiffres qui se joue actuellement entre les deux pays. Chaque camp publie quotidiennement des bilans concernant les supposées destructions matérielles et humaines infligées à l'adversaire.Ces données sont impossibles à vérifier de façon indépendante à ce stade. Mais pour donner de la crédibilité à ces chiffres, la propagande pro-pakistanaise a détourné l'identité de plusieurs médias occidentaux. Une infographie avec le logo de CNN affirme par exemple que l'Inde aurait notamment perdu 6 avions de combats, 553 drones et un système de défense antiaérien S400. Sauf qu'en réalité, le média américain n'a jamais publié ce tableau comparatif.Contacté par le média de vérification, Logically Facts, un porte-parole de CNN, a confirmé que « cette image est fabriquée. CNN n'a jamais relayé cette information ».Dans la même veine, un article à la gloire de l'armée de l'air pakistanaise et attribué au Daily Telegraph circule ces derniers jours sur la toile. Mais là encore, c'est une fausse information. Le Daily Telegraph n'a jamais publié une telle information.
L'escalade militaire entre l'Inde et le Pakistan va-t-elle s'arrêter ? Les attaques entre les deux voisins se sont encore intensifiées ces dernières heures. Le dernier bilan, publié ce jeudi 8 mai, fait état de 16 morts civils côté indien, 32 morts côté pakistanais. Ces affrontements, les plus graves depuis deux décennies, s'accompagnent d'une véritable guerre de l'information. Une bataille numérique qui a pris le dessus sur les faits. Sur les réseaux sociaux, des centaines de comptes pro-indiens et pro-pakistanais s'affrontent à coups d'infox et de message de propagande. Résultat, si vous cherchez à vous informer sur la situation en cours sur X, Facebook, TikTok ou Instagram, vous allez obligatoirement être confrontés à de fausses informations. C'est simple, lorsque l'on tape Inde ou Pakistan, les premières images qui sont mises en avant par les plateformes sont fausses ou sorties de leur contexte.Des images issues de jeu vidéoL'un des exemples le plus marquant est une vidéo vue plusieurs dizaines de millions de fois ces derniers jours. On y voit un canon antiaérien au sol, essayant d'abattre des avions de combat. La légende évoque « un avion de chasse pakistanais Chengdu JF-17 abattu par la défense sol-air indienne ».Sauf que ces images ne sont pas réelles. Vérification faite, cet extrait est issu d'Arma 3, un jeu vidéo de simulation militaire ultra-réaliste, régulièrement détourné pour partager de fausses images en temps de guerre.D'autres images de ce même jeu sont partagées par des comptes pro-pakistanais pour illustrer, à tort, la destruction d'un Rafale de l'armée de l'air indienne dans le ciel pakistanais.Pour se rendre compte de la supercherie, il faut observer attentivement les fumées, les flammes et les explosions qui ne collent pas avec la réalité. Ces éléments sont encore difficiles à générer numériquement.Détournement d'images de guerreAu-delà des images issues de jeu vidéo, les images sorties de leur contexte pullulent sur la toile. Alors que nous sommes en plein brouillard de guerre et que les documents authentiques se font rare, le besoin de mettre des images sur ce qu'il se passe sur le terrain pousse des utilisateurs à recycler de vieilles images. Raison pour laquelle des vidéos filmées dans la bande de Gaza, au Yémen, ou au Liban sont diffusées en masse pour illustrer, à tort, la situation entre l'Inde et le Pakistan.L'IA sème le troubleÀ tout cela s'ajoute également les images générées par intelligence artificielle. Une vidéo montrant la carcasse d'un avion de chasse soulevée par un hélicoptère et une image satellite censée montrer des rafales ont fait le tour des réseaux sociaux en milieu de semaine. En réalité, pourtant, ces images ont été générées par une intelligence artificielle.À noter aussi que sous de véritables images, certains comptes de propagande sèment le trouble en affirmant, à tort, qu'elles auraient été produites par une IA.Une désinformation dangereuseCette désinformation de masse est particulièrement nocive. D'abord, car tous ces faux documents invisibilisent les quelques vraies images de ce conflit. L'analyse des commentaires montre, de plus, que ce flot continu d'infox altèrent les perceptions et radicalisent les esprits.À lire aussiInde-Pakistan: la désinformation attise les tensionsCette bataille numérique entre l'Inde et le Pakistan, est un énième exemple, que chaque guerre sur le terrain s'accompagne aujourd'hui d'une intense guerre numérique, dans laquelle chaque camp tente d'imposer sa mise en récit, au détriment de l'information fiable et vérifiée.
Au Sénégal, la présence militaire française agite les réseaux sociaux cette semaine. Alors que le désengagement des éléments sur place est en cours, une rumeur mensongère circule à propos d'un convoi militaire français qui aurait récemment quitté Dakar. En réalité, cette fausse information repose sur des images sorties de leur contexte. C'est notre rédaction à Dakar qui a lancé l'alerte. À en croire plusieurs messages mensongers publiés sur les réseaux sociaux, un convoi de véhicules militaires français aurait quitté Dakar ce lundi 28 avril 2025, escorté par l'armée sénégalaise. La rumeur a d'abord été diffusée par un portail d'information en ligne, avant de se répandre dans la presse locale et d'être poussée par des comptes de propagande. Des médias russes, comme RT, ont également repartagé l'infox.La vidéo censée documenter ce départ dure une trentaine de secondes. Elle est intitulée, « les premiers Éléments Français au Sénégal quittent Dakar ». On y voit une colonne de quinze véhicules progressant dans le trafic. On y retrouve notamment des camions de transports, plusieurs 4×4 ainsi qu'un blindé de reconnaissance.Notre rédaction à Dakar a géolocalisé précisément ces images, filmées sur l'autoroute A1, au niveau du Croisement Cambérène.Un convoi néerlandaisVérification faite, cette vidéo ne montre pas un convoi de l'armée française. Le blindé de reconnaissance visible en queue de peloton est un Fennek. Ce véhicule, de conception néerlando-allemande, ne figure pas dans l'arsenal français.Des sources militaires haut placées, contactées par RFI, confirment qu'il s'agit d'un convoi néerlandais présent dans le cadre de l'exercice « African Lion 2025 ». Cet entraînement militaire, supervisé par le Commandement des États-Unis pour l'Afrique, a débuté mi-avril. Au total, plus de 10 000 soldats de 40 pays différents sont mobilisés en Tunisie, au Maroc, au Ghana, mais aussi, au Sénégal. Des soldats ivoiriens, mauritaniens, néerlandais, américains et sénégalais sont présents au pays de la Teranga.Des soldats français photographiés à Gao en 2021D'autres images sorties de leur contexte circulent également sur les réseaux sociaux à propos du désengagement français. Plusieurs internautes illustrent ce supposé départ du 28 avril 2025 avec une photo montrant une dizaine de militaires français, sacs sur le dos et masques chirurgicaux sur le visage, en train de monter dans la soute d'un avion de transport. Mais dans les faits, cette image n'a rien à voir avec le désengagement en cours au Sénégal.Grâce à une recherche par image inversée (voir ici comment faire), on sait que ce cliché montre des soldats français de la force Barkhane, embarquant à bord d'un avion C130 de l'US Air Force, à Gao, au Mali, le 9 juin 2021.La réalité du désengagementSi ces images sont diffusées à des fins de désinformation, le désengagement des éléments français au Sénégal, initié en 2025, est bien une réalité. La commission franco-sénégalaise s'est réunie pour la première fois, le 28 février 2025, pour établir le calendrier et les modalités de remise à disposition des emprises utilisées par les Éléments français au Sénégal. Contrairement à ce qu'écrivent certains articles de presse, les installations des quartiers Maréchal et Saint-Exupéry ont par exemple déjà été restituées, au mois de mars dernier.L'opération devrait s'achever entre juillet et août. « Reste à savoir, confie une source militaire, quel niveau d'ambition pourrait revêtir la forme du partenariat rénové, en matière de défense et de sécurité, entre la France et le Sénégal ».
Ces derniers jours, l'euro, partagé par vingt pays de l'Union européenne, est la cible d'une vaste campagne de désinformation sur les réseaux sociaux. Alors que la Banque centrale européenne (BCE) ambitionne d'émettre une monnaie virtuelle dans les prochaines années, certains évoquent, à tort, l'interdiction de l'argent liquide en France et la fin de la zone euro. Ces fausses informations, diffusées principalement sur TikTok, cumulent des millions de vues. À en croire une vidéo mensongère devenue virale sur TikTok cette semaine, la France aurait décidé « de quitter la zone euro pour utiliser le franc CFA ou retourner au franc ». Cette fausse information repose sur un montage composé de plusieurs extraits de journaux télévisés, attribués aux chaînes de télévisions françaises M6 et BFM TV. Cette vidéo, vue plus de 4 millions de fois sur les réseaux sociaux, suscite beaucoup d'interrogations, notamment sur le continent africain.Dans les commentaires, plusieurs internautes pointent, à raison, plusieurs incohérences. Un extrait présente par exemple Mariano Rajoy comme l'actuel chef du gouvernement espagnol, alors qu'il a quitté ses fonctions en 2018. De même, Angela Merkel est présentée comme la chancelière allemande. Or, elle a été remplacée en 2021 par Olaf Scholz.Des journaux fictifs réalisés en 2012En réalité, ces journaux sont sortis de leur contexte. À l'aide d'une recherche avec les mots-clés « M6 » « BFM TV » et « sorti de l'euro », on retrouve rapidement leur trace en ligne. Dans les faits, il s'agit de journaux fictifs réalisés en 2012, en pleine campagne présidentielle. La sortie de l'euro, argument poussé par le Front National de Marine Le Pen, était, à l'époque, au cœur de l'actualité. M6 et BFM TV avaient alors fait le choix de simuler le retour au franc qui n'aura finalement jamais eu lieu.Ce n'est pas la première fois que cette fausse information circule. Chaque année, ces vieux journaux fictifs refont surface sur les réseaux sociaux, au gré de l'actualité économique. Des comptes de désinformation les diffusent pour faire des vues et semer le trouble.L'argent liquide bientôt interdit ?Dans la même veine, une vidéo partagée cette semaine sur TikTok affirme, à tort, qu'une loi viendrait tout juste d'être votée en France pour interdire les espèces.Une nouvelle fois, tout est faux. Nous avons vérifié dans le Journal officiel, et aucune loi de ce type n'a été promulguée en avril. Cette infox détourne en fait le projet d'euro numérique voulu par la Banque centrale européenne et qui génère beaucoup de fantasmes.D'après les documents officiels de la BCE, l'euro numérique n'est pas destiné à remplacer l'argent liquide, mais à proposer une forme complémentaire de paiement. Si la carte bancaire est aujourd'hui le moyen de paiement le plus utilisé en France, plus d'un français sur deux estime qu'il est important de pouvoir payer en espèce.
Au Mali, la crise diplomatique avec l'Algérie s'enlise. Les relations entre les voisins se sont dégradées après la destruction d'un drone malien par l'armée algérienne à Tinzaouatène, dans la nuit du 31 mars au 1ᵉʳ avril. Dans ce contexte, de nombreuses infox circulent sur les réseaux, notamment à propos des capacités militaires des deux pays. La dernière rumeur affirme, à tort, que l'armée malienne aurait reçu des avions de combat ultra-modernes fabriqués en Russie et aux États-Unis. À en croire des dizaines de vidéos mensongères sur TikTok, l'armée malienne viendrait de « recevoir plusieurs modèles du célèbre F-35 américain ». Cet avion de combat furtif multirôle de 5ᵉ génération figure aujourd'hui parmi les chasseurs les plus performants au monde. En réalité, l'armée malienne ne dispose pas de ce type d'appareils.Cette fausse information repose sur une vidéo de deux minutes montrant un convoi militaire filmé à la sortie d'une autoroute. Les visages d'Assimi Goïta et de Vladimir Poutine sont apposés sur ces images. Rapidement, on constate plusieurs incohérences. D'abord, le F-35 est un avion de fabrication américaine, et non russe, comme le suppose l'auteur de cette publication. Ensuite, le convoi ne comporte que des véhicules terrestres, notamment des blindés de reconnaissance de type Fennek. De plus, l'environnement, la végétation et les panneaux de circulation ne correspondent pas au paysage malien.Un convoi filmé en AllemagneGrâce à une recherche par image inversée (voir ici comment faire), on sait que ces images ont été filmées en Allemagne et diffusées sur YouTube en novembre dernier.La légende parle du 8ᵉ bataillon de reconnaissance de Freyung sur la route vers le centre d'entraînement de Colbitz, dans le nord-est du pays. Ce que nous avons pu vérifier en géolocalisant précisément la scène grâce à des outils de cartographie satellite comme Google Maps ou Yandex Maps.Des Soukhoï-35 à Bamako ?D'autres rumeurs évoquent aussi « l'arrivée au Mali de chasseurs russes Soukhoï-35 ». C'est ce qu'affirment, une nouvelle fois à tort, plusieurs vidéos vues des centaines de milliers de fois sur les réseaux sociaux. Le mode opératoire est cette fois différent puisque l'infox repose ici sur le détournement de journaux de médias reconnus.Visuellement, la vidéo est coupée en deux. Sur la partie haute, des images d'un chasseur présenté comme un Soukhoï-35, mais qui est en fait un Eurofighter Typhoon, défile. Sur la partie basse, on y voit une journaliste en train de présenter un journal télévisé. Le tout est accompagné d'une voix générée par intelligence artificielle.Cette voix synthétique prétend reprendre les propos des journalistes visibles à l'image. Sauf qu'en réalité, les extraits utilisés n'ont aucun rapport avec le Mali ou des avions de combats. L'identité de France 24 et d'Africa 24 ont ainsi été usurpées dans le but de crédibiliser l'infox. Sur le fond, le Mali ne dispose ni de F35 ni de Soukhoï-35.Des comptes influents à la manœuvreÀ l'origine de cette désinformation, on retrouve différents comptes influents sur TikTok qui désinforment régulièrement sur les capacités militaires des pays du Sahel. Certaines de leurs vidéos atteignent des millions de vues, notamment dans le contexte actuel tendu avec l'Algérie. Leurs publications sont constamment reprises par des dizaines de comptes qui propagent ensuite l'infox sur d'autres plateformes, principalement Facebook et WhatsApp.
Une semaine après la destruction d'un drone malien par l'armée algérienne à la frontière, la tension ne redescend pas entre Alger et Bamako. Les deux voisins ont respectivement rappelé leur ambassadeur et fermé leur espace aérien. Cette crise diplomatique sans précédent est alimentée par un flot de désinformation sur les réseaux sociaux. D'un côté comme de l'autre, des comptes influents soufflent sur les braises, en diffusant massivement de fausses rumeurs et images sorties de leur contexte. À en croire plusieurs vidéos mensongères publiées sur TikTok ces derniers jours, « des affrontements auraient eu lieu entre l'armée malienne et algérienne ». La dernière en date montre une colonne de chars d'assaut légers, progressant sur une piste en terre, entourée de végétation. Le commentaire, apposé sur ces images, affirme, à tort, que le Mali contrôlerait une partie de l'Algérie. En réalité, il n'y a pas eu d'affrontements entre les deux pays. Cette vidéo est sortie de son contexte.L'identification du matériel montre que les trois chars légers visibles sont des Stingray, des véhicules de fabrication américaine uniquement en service dans l'armée thaïlandaise. Raison pour laquelle cette vidéo a d'abord été diffusée sur YouTube, sur le compte d'un militaire thaïlandais. Il est donc impossible de voir ce type d'équipement au Mali ou en Algérie.Vidéos détournéesLes images ainsi sorties de leur contexte se comptent par dizaines ces derniers jours. Il suffit de taper « Algérie - Mali » sur les réseaux sociaux pour tomber très rapidement sur ce genre d'infox. L'une des plus consultées ces derniers jours prétend montrer des avions algériens, deux Soukhoï Su-30, volant en patrouille serrée dans le ciel malien.Grâce à une recherche par image inversée, on sait que la vidéo provient en réalité d'un reportage diffusé sur Arte, il y a plus de 13 ans, en 2012.Fausses rumeurs d'implications étrangèresÀ cela s'ajoutent également les fausses rumeurs d'implications étrangères. La Libye, la Mauritanie, le Niger ou le Burkina Faso sont régulièrement cités par des comptes habitués à désinformer sur la situation régionale. Plusieurs publications affirment notamment, sans aucune preuve, que le maréchal Haftar aurait envoyé des milliers de soldats libyens en soutien aux Forces armées maliennes.D'autres assurent aussi que l'Iran aurait fourni des drones suicides aux Fama, une nouvelle fois, sans en apporter la moindre preuve. Des fausses rumeurs similaires circulent par ailleurs côté algérien.Un écosystème de désinformationÀ l'origine de ce flot d'infox, on retrouve un écosystème de comptes suivis par des centaines de milliers de personnes, principalement sur TikTok. Certains s'affichent directement face caméra, d'autres se contentent de diffuser des montages vidéo mensongers. Leur influence repose presque intégralement sur la diffusion de fausses informations, spécifiquement à propos de la situation sécuritaire au Sahel et au Sahara.La dégradation des relations entre Bamako et Alger s'accompagne d'une véritable bataille numérique entre les comptes pro-maliens et pro-algériens. Le sujet suscite de l'engagement et représente donc pour eux une occasion inestimable de faire des millions de vues facilement et rapidement. Les commentaires des utilisateurs montrent que cet opportunisme alimente les tensions et radicalise les militants de chaque camp.
En République démocratique du Congo, la situation reste tendue dans l'est, entre les rebelles de l'AFC/M23 soutenus par le Rwanda, et les Forces armées congolaises et leurs soutiens. Les affrontements se déroulent sur le terrain, mais aussi en ligne où la désinformation est omniprésente. Parmi ce flot d'infox, on retrouve des faux journaux de RFI. L'identité de la radio du monde a été plusieurs fois usurpée, dans le but de désinformer massivement la population. Si vous suivez la situation en RDC, ou que vous êtes membres de groupes congolais sur WhatsApp, vous avez probablement vu passer cet audio faussement attribué à RFI. Durant 4 minutes et 44 secondes, on y entend plusieurs voix synthétiques se succéder, comme dans un véritable journal radio. La première imite celle de notre journaliste au service Afrique, Arthur Ponchelet.S'ensuit celle de Corneille Nangaa, le coordinateur de l'Alliance Fleuve Congo (AFC) dont fait partie le M23.Enfin, l'extrait se conclut sur une imitation de la voix de la correspondante de France 24 en RDC, Aurélie Bazzara-Kibangula.En réalité, RFI n'est pas à l'origine de ce contenu. Cet audio a été entièrement généré via l'intelligence artificielle. Les propos attribués aux trois interlocuteurs ont été fabriqués de toutes pièces. Ce contenu est faux sur la forme, mais aussi sur le fond, puisque contrairement à ce que l'on entend, Corneille Nangaa n'a ni annoncé qu'il déposait les armes, ni demandé des excuses ou une grâce présidentielle.Une infox virale sur WhatsAppD'après nos recherches et les alertes de plusieurs auditeurs, ce faux journal de RFI a d'abord été diffusé sur WhatsApp dans différents groupes congolais. Plusieurs comptes se présentant comme des médias en ligne l'ont ensuite repartagé sur TikTok, Facebook, YouTube et X. Aujourd'hui, l'infox circule sous différentes formes avec divers visuels qui usurpent l'identité de RFI.RFI cible prioritaireCe n'est pas le premier faux extrait de RFI qui circule en République démocratique du Congo. Début mars, un audio siglé RFI affirmait que Félix Tshisekedi allait « démissionner après un accord historique entre Kinshasa et le M23 ». Mais là encore, cette infox avait été générée par intelligence artificielle. Ce type de manipulation se multiplie ces derniers mois et touche différents médias internationaux.Distinguer le vrai du fauxLe meilleur moyen de s'assurer de l'authenticité d'un contenu attribué à RFI est de consulter directement notre site internet ou nos réseaux sociaux officiels. Si l'audio ou l'article en question n'y figure pas, alors c'est un faux.En étant vigilant et observateur, on peut également se rendre compte de l'utilisation de l'intelligence artificielle. Dans le cas de ce faux journal, plusieurs utilisateurs ont pointé le ton robotique et la mauvaise qualité sonore. Mais au moindre doute, le réflexe à adopter reste de remonter à la source.
C'est un phénomène à la mode sur les réseaux sociaux : les musiques générées par intelligence artificielle. Le mode opératoire est simple, la voix d'un artiste mondialement connu est détournée pour chanter à la gloire d'un chef d'État. Ce phénomène monte en puissance sur le continent africain, et n'épargne aucune personnalités. Ces dernières semaines, presque toutes les stars du rap et du RnB ont été victimes de ce phénomène. Les voix de Beyoncé, Aya Nakamura, 50 Cent, Drake ou encore Ninho ont notamment été manipulées. Côté personnalités politiques, la plupart des chefs d'État africains ont eu le droit à leur musique artificielle : le Béninois Patrice Talon, le Sénégalais Bassirou Diomaye Faye ou encore le Guinéen Mamadi Doumbouya. Le dernier son en date, publié cette semaine, cible le capitaine burkinabè Ibrahim Traoré.Cette voix artificielle imite presque parfaitement celle du rappeur congolais Gims. Un autre audio en l'honneur du président ivoirien, Alassane Ouattara, circule également ces derniers jours.Cette fois-ci, c'est la voix du rappeur Booba qui a été détourné. En réalité, ces sons, qui se comptent par dizaines sur les réseaux sociaux, ne sont pas authentiques. Ils ont été générés via l'intelligence artificielle. Dans les faits, ni Gims ni Booba n'a fait l'éloge d'Ibrahim Traoré ou d'Alassane Ouattara en musique. Pour s'en rendre compte, il suffit de consulter les réseaux sociaux officiels des deux rappeurs.De YouTube aux autres réseaux sociauxD'après nos recherches, la plupart de ces musiques artificielles proviennent d'un petit nombre de chaînes YouTube qui diffusent régulièrement ce genre de contenus. Même s'il faut chercher pour la trouver, la mention « générée par IA » est bien présente dans la légende.Sur YouTube, ces contenus dépassent rarement les 100 000 vues, au contraire de TikTok, Facebook et Instagram où certaines d'entre elles dépassent les cinq millions de vues. Le problème réside dans le fait que les comptes qui repartagent ces musiques inauthentiques ne mentionnent pas l'utilisation de l'intelligence artificielle.Ce qui a été généré initialement à des fins humoristiques, se retrouve utilisé à des fins de désinformation. Des comptes très influents se servent de ces infox pour faire de la propagande et les commentaires montrent que des milliers d'utilisateurs tombent dans le panneau.Des contenus illégauxEn utilisant les bons outils, il est possible de générer rapidement et gratuitement ce type de musique artificielle. On peut donc faire dire ce que l'on veut à n'importe quel artiste. Mais attention, certaines législations encadrent la pratique.En France, l'article 226-8 du Code pénal puni d'un an et de 15 000 € d'amende « le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention ». La plupart des publications sont donc illégales.
Alors que le Canada se tourne vers l'Europe pour tenter de faire front à Donald Trump, qui multiplie les déclarations hostiles à Ottawa, des photos discréditant le nouveau Premier ministre libéral, Mark Carney, ont fait leur apparition sur les réseaux sociaux. Ces images trompeuses, fabriquées de toutes pièces, font suite à une campagne de désinformation visant le nouveau chef du gouvernement, à quelques semaines d'élections fédérales anticipées qui devraient être annoncées officiellement ce dimanche 23 mars. La formule de désinformation la plus courante consiste à faire apparaître le candidat libéral devenu Premier ministre du Canada, le 14 mars 2025, en compagnie de personnalités sulfureuses, comme l'explique l'AFP. Une photo a particulièrement retenu notre attention. Elle fait penser à une photo de vacances, mais on y verrait Mark Carney assis sur une chaise de plage aux côtés de l'acteur américain Tom Hanks et de Ghislaine Maxwell, la petite amie de Jeffrey Epstein.Jeffrey Epstein est un tristement célèbre homme d'affaires et criminel sexuel accusé d'avoir réduit en esclavage des dizaines de jeunes filles au profit de la haute société américaine. Ce prédateur a été retrouvé mort dans sa cellule en 2019, alors qu'il attendait d'être jugé pour trafic de mineurs. Mais son image toxique est régulièrement employée sur les réseaux pour discréditer tous ceux qui sont prétendument apparus à ses côtés. Idem pour l'image de son ex-compagne Ghislaine Maxwell, considérée comme la co-organisatrice du trafic et condamnée à 20 ans de prison en 2022, avant de faire appel.Une campagne lancée début 2025Fin janvier déjà, était apparue une photo trompeuse, censée montrer Mark Carney aux côtés de Jeffrey Epstein dans la piscine de la propriété du milliardaire. Cette image, non datée, avait été relayée par plusieurs comptes de la sphère pro-Trump.On estime qu'elle a été vue plus de 200 000 fois, rien que sur X. La photo est apparue pour la première fois en ligne en janvier, lorsque l'ancien Premier ministre Justin Trudeau a annoncé sa démission et lancé la course à la direction du Parti libéral. Elle est devenue virale peu après la victoire de Mark Carney à la tête du parti, le 9 mars. La plateforme Disinfowatch pointe pour sa part la responsabilité de la propagande russe. Une image générée par IAL'image en question est plutôt bien faite. Ses auteurs en ont volontairement dégradé la qualité afin de brouiller les pistes. Toutefois, si on s'attarde sur l'arrière-plan, on distingue plusieurs incohérences. Les filles en maillot de bain ont le visage déformé et l'avant-bras de l'une des baigneuses (sur la gauche de l'image) a une forme en « S » qui ne correspond à la réalité. De plus, même en prenant en compte le phénomène de réfraction de la lumière dans l'eau de la piscine, le bras de Mark Carney apparaît surdimensionné à l'image. Il s'agit d'une infox, comme le détaillent les équipes du collectif Newsguard.Constat similaire sur la photo avec Tom Hanks et Ghislaine Maxwell. Là encore, les doigts sont déformés, et une partie du siège est manquant sous la cuisse droite de Mark Carney. Enfin, si on effectue une recherche par image inversée, on s'aperçoit aussi que cette image a déjà été partagée en ligne, qu'elle porte en bas à droite la mention « Grok ». C'est la signature de l'intelligence artificielle générative d'Elon Musk.Une part d'ambiguïtéEn effectuant des recherches, on retrouve une photo a priori authentique de Mark Carney, à deux pas de Ghislaine Maxwell. Cette photo a refait surface sur les réseaux en janvier 2025, mais elle date de 2013. Mark Carney, alors gouverneur de la Banque d'Angleterre, avait été photographié lors d'un festival avec sa femme Diana Fox et d'autres personnalités de la société mondaine britannique, dont Ghislaine Maxwell. Lors de la republication, l'équipe de campagne de Carney a démenti tout lien affirmant que Carney et Maxwel « ne sont pas amis ».À lire aussiCanada: le Premier ministre Mark Carney va annoncer des législatives anticipées pour le 28 avril
Depuis le 6 mars, il ne se passe pas un jour en Syrie sans que de nouvelles images viennent documenter les exécutions de masses qui ont visé la minorité alaouite. Les ONG estiment que plus d'un millier de civils ont été tués. Certaines images sont d'une rare violence. Mais dans ce flot d'images répandues sur les réseaux sociaux, il y a aussi beaucoup d'infox. Ce mélange de documents authentiques et d'images anciennes accentue la confusion, et alimente les tensions communautaires. Depuis la semaine dernière, la cellule Info Vérif de RFI a passé en revue des dizaines de vidéos. Une nouvelle fois, on a assisté à une véritable guerre de l'information autour des massacres survenus dans les villes et les villages de la côte syrienne et de la montagne dans l'ouest du pays. Ce déchaînement de violence laisse des traces sur les réseaux sociaux. On peut y lire beaucoup de commentaires : des condamnations à propos de la responsabilité des nouvelles autorités de Damas, mais aussi une forme de satisfaction affichée par certains qui tentent de légitimer ces actes de vengeances après quatorze ans de guerre civile, et après cinquante-quatre ans de domination alaouite sous le régime el-Assad, père et fils. Dès le vendredi 7 mars, nous avons été confrontés à une multitude de vidéos, provenant de comptes plus au moins fiables. Des images de véritables exécutions sommaires visant la communauté alaouite, parfois combinées à des infox qui ont été relayées et amplifiées par des comptes pro-israéliens, pro-russes ou anti-occidentaux afin de discréditer les nouveaux maîtres de Damas.Ces images choquantes et ces prises de positions ne sont que très peu modérées sur la plateforme X. Certaines vidéos apparaissent régulièrement sur des chaînes Telegram avant de se répandre sur le réseau social d'Elon Musk.Désinformation multiformeDes documents truqués circulent, comme ce faux communiqué attribué à Hayat Tahrir al-Sham (HTS), la formation rebelle qui a pris le pouvoir fin 2024. Un prétendu texte officiel en arabe censé demander aux partisans de HTS de ne plus filmer les exactions dont ils seraient les auteurs. C'est un faux. Vérification faite, il s'agit d'un trucage réalisé à partir d'un communiqué du ministère syrien de la Défense datant du mois dernier. Ce faux a été vu plus de 150 000 fois, rien que sur X.On trouve par ailleurs beaucoup d'images sorties de leur contexte afin de tromper le public et attiser les tensions, par exemple, l'image d'un supplicié attaché à une croix et abattu d'une balle en pleine tête. Les auteurs du post affirment que HTS a entamé une campagne d'élimination des chrétiens. Une recherche par image inversée permet d'établir que cette scène d'exécution remonte en réalité à 2015 et ne se déroulait pas sur la côte syrienne, mais dans la Ghouta, près de Damas.Autre exemple, une rumeur a circulé annonçant la mort d'un haut représentant chrétien de l'Église de Tartous. Démenti formel des autorités religieuses qui assurent qu'elles ne connaissent personne répondant au nom du prêtre cité dans l'infox.Des infox comme celles-ci, il y a en des dizaines sur les réseaux sociaux depuis la semaine dernière. Toutefois, ce constat ne doit pas minimiser la portée des exactions réelles commises ces derniers jours. Les autorités de Damas ont d'ailleurs annoncé la formation d'une « Commission d'enquête indépendante sur les exactions contre les civils, afin d'identifier les responsables et de les traduire en justice ». Les autorités ont communiqué sur l'arrestation d'au moins sept personnes depuis lundi, accusées d'avoir commis des exactions contre des civils, et les ont déférées devant la justice militaire.Un moment propice aux tentatives de déstabilisationLa désinformation n'est pas nouvelle en Syrie, mais elle n'a pas disparu avec la fin du régime Assad. Selon la plateforme de fact-checking « Misbar » qui fournit un gros travail de vérification et d'analyse sur le Moyen-Orient, un réseau de comptes suspects, très actifs depuis l'effondrement du régime syrien propagent « des discours de haine et incitent à la violence sectaire en exacerbant les divisions au sein de la société syrienne à un moment critique ». Prudence donc à propos de ce qu'on peut voir, lire ou entendre concernant les évènements en cours en Syrie.
Une semaine après l'altercation entre Donald Trump, JD Vance et Volodymyr Zelensky à la Maison Blanche, le contexte informationnel autour des relations entre les deux pays s'est particulièrement tendu. Énormément de fausses informations circulent sur les réseaux sociaux. Cible prioritaire de cette campagne de désinformation, le président ukrainien est attaqué de toutes parts, à tel point qu'il est difficile de distinguer le vrai du faux. Le dernier exemple de cette campagne de dénigrement est une vidéo montrant Volodymyr Zelensky dans une usine d'armement aux États-Unis. Accompagné de Josh Shapiro, le gouverneur de l'État de Pennsylvanie, on le voit signer le corps d'un obus de 155 mm. En commentaire, les utilisateurs qui partagent ces images écrivent : « avant d'avoir de la sympathie pour Zelensky, n'oubliez pas qu'il a signé, avec le sourire, des bombes destinées à être larguées sur des enfants dans la bande de Gaza ». Au total, ce récit a été vu plusieurs millions de fois ces derniers jours.Vérification faîte, ces images n'ont rien à voir avec la bande de Gaza. Ces obus signés par Volodymyr Zelensky étaient en réalité destinés à l'armée ukrainienne et non aux soldats israéliens. En effectuant une recherche avec les mots clés « Volodymyr Zelensky », « Josh Shapiro » et « Pennsylvanie », on retrouve cette vidéo publiée sur la chaine YouTube de l'Agence France Presse, le 23 septembre 2024.Le président ukrainien était en déplacement en Pennsylvanie où il a visité l'usine de munitions de l'armée de Terre de Scranton qui a fourni l'Ukraine en obus de 155 mm. Un compte-rendu détaillé de sa visite est disponible sur le site internet de la présidence ukrainienne.Volodymyr Zelensky en costume ?Largement commentée lors de sa visite à la Maison Blanche, la tenue du président ukrainien fait aussi l'objet de nombreuses rumeurs. Si Volodymyr Zelensky s'est engagé à ne plus porter de costume avant la fin de la guerre, certains affirment, photo à l'appui, qu'il aurait récemment dérogé à la règle lors d'une rencontre avec Klaus Schwab, le fondateur du Forum de Davos. « Voilà ce qui se passe quand on rencontre son vrai patron », commentent plusieurs utilisateurs adeptes des théories complotistes et de la propagande pro-russe.Sauf que là encore, cette image est sortie de son contexte. Une recherche par image inversée permet de retrouver l'origine de ce cliché. Il a été pris le 22 janvier 2020 lors de la 50ᵉ édition du forum économique. L'invasion à grande échelle de l'Ukraine par la Russie n'avait pas commencé, ce qui explique le costume porté par Volodymyr Zelensky.La propagande par l'humourAu-delà de ces infox, certains se servent aussi de l'humour pour dénigrer l'image du président ukrainien. Ces derniers jours, les vidéos de Volodymyr Zelensky, modifiées grâce à l'intelligence artificielle, se sont multipliées sur les réseaux sociaux. On peut le voir sur Fox News en train d'évoquer son addiction à la cocaïne, ou encore face à Donald Trump en train de proposer des actes sexuels contre de l'argent pour son pays.Si ces contenus sont pris au second degré, le message de fond, lui, n'a pas été choisi au hasard. Le narratif est toujours aligné sur ce que diffusent les propagandistes russes depuis maintenant plus de trois ans. L'analyse de la propagation de ces vidéos artificielles montre d'ailleurs l'implication directe d'acteurs déjà maintes fois identifiés comme des relais de la propagande du Kremlin.
En Algérie, de fausses rumeurs de coup d'État circulent sur les réseaux sociaux. Plusieurs comptes affirment, à tort, que le régime d'Abdelmadjid Tebboune aurait été renversé par l'armée ce mardi 25 février. Cette fausse information, diffusée par des utilisateurs étrangers, est un nouvel exemple de la lutte informationnelle grandissante qui se joue dans la région. Cette rumeur s'est répandue en ligne ce mardi 25 février 2025 après la publication sur TikTok d'une série de vidéos par un compte pro-malien relativement influent, comptant près d'un million d'abonnés et plus de 6 millions de likes. L'homme, reconnaissable avec son béret rouge, se filme face caméra. Il annonce alors « un coup d'État en Algérie. Voici les images. Selon l'explication, le pouvoir algérien d'Abdelmadjid Tebboune a été renversé aujourd'hui à 4 h du matin ».Pour appuyer son récit, plusieurs images défilent derrière lui. On y voit des milliers de manifestants défilant sous des drapeaux vert et blanc, suivi d'une revue des troupes de la part du Général d'Armée algérien, Saïd Chanegriha. À en croire le commentaire, c'est lui qui aurait pris le pouvoir par la force. Vérification faîte, tout est faux.Aucun coup d'État à signalerDans les faits, il n'y a pas eu de coup d'État en Algérie ces derniers jours. Abdelmadjid Tebboune n'a pas été chassé du pouvoir. On a d'ailleurs pu le voir ce mardi 25 février, à Alger, au côté du ministre nigérien des Affaires étrangères et de la Coopération, Bakary Yaou Sangaré. L'armée ne s'est pas rebellée, la rumeur a simplement été fabriquée de toutes pièces.Sur la forme aussi, il y a manipulation. Comme c'est souvent le cas, les images présentées comme des « preuves » sont sorties de leur contexte. Grâce à une recherche par image inversée, on sait que la vidéo montrant des manifestants a été filmée dans les rues d'Alger en octobre 2019.Nous l'avons géolocalisée au niveau de la rue Asselah Hocine, à côté de l'Assemblée populaire nationale. Quant à la revue des troupes du général Saïd Chanegriha, la vidéo est bien récente, mais elle montre en réalité la cérémonie d'installation officielle du nouveau Commandant de l'armée de l'air, le Général-major Zoubir Ghouila. Ces images n'ont donc rien à voir avec un supposé coup d'État.Prolifération des fausses rumeurs de coup d'ÉtatCe n'est pas la première fois que de fausses rumeurs de coup d'État circulent sur le continent africain. La Côte d'Ivoire, le Bénin, la Guinée et l'Algérie en ont notamment été victimes ces derniers mois. Ces rumeurs sont devenues un véritable moyen de déstabilisation informationnel à part entière.La recette est plutôt simple, mais les chiffres de viralité montrent que ces infox parviennent toujours à toucher une audience conséquente. Les commanditaires de ces opérations de désinformation l'ont visiblement bien compris.À lire aussiLa Côte d'Ivoire sous le feu des attaques informationnellesLuttes informationnellesSur fond de guerre d'influence grandissante au Sahel et au Sahara, le contexte informationnel s'est particulièrement tendu ces derniers mois. Cela explique en partie l'augmentation de ce type d'opérations. Des comptes pro-maliens, pro-algériens ou pro-marocains notamment s'affrontent quotidiennement sur les réseaux sociaux en diffusant de fausses informations pour déstabiliser le voisin. La première victime de cette bataille numérique reste l'information fiable et vérifiée.
Selon des chercheurs spécialisés dans la lutte contre la désinformation, une centaine de faux sites en langue allemande sont actifs depuis fin 2024, relayant des messages anti-immigration ou eurosceptiques, favorables à l'AfD, le parti allemand d'extrême droite. Dernier épisode de cette campagne coordonnée, la diffusion d'une vidéo mettant en scène des électeurs qui se plaignent de ne pas trouver le nom du candidat de l'AfD sur les bulletins du vote par correspondance. Une manœuvre informationnelle similaire à celle enregistrée avant la présidentielle aux États-Unis fin 2024. L'infox vise particulièrement le processus électoral en Saxe. Dans cette région, l'extrême droite a connu une forte poussée lors des dernières élections. L'infox prend la forme d'une vidéo rassemblant plusieurs faux témoignages de prétendus électeurs ou électrices qui s'étonnent de ne pas trouver le nom du représentant de l'AfD sur les bulletins de la circonscription de Leipzig, qu'ils viennent de recevoir par la poste. À l'image, on ne voit que leurs mains, et on les entend s'interroger sur l'ordre d'apparition des candidats et l'absence des têtes de listes de l'alternative pour l'Allemagne. Les commentaires évoquent : « une tentative destinée à faire perdre l'AfD et un sabotage du processus démocratique ».Un faux bulletin pour induire en erreur le public En faisant un arrêt sur image, on distingue bien un papier à en-tête sur lequel est inscrit « Stimmzetell » ce qui signifie « bulletin ». On peut aussi lire « Leipzig » et ensuite un peu plus bas, il y a des cases à remplir pour cocher la liste et le candidat de son choix. Effectivement sur la vidéo trompeuse, pas de trace de l'AfD, alors qu'on trouve les emplacements réservés à la CDU, les chrétiens démocrates ou le SPD les sociaux-démocrates par exemple.Une simple recherche sur le site de la mairie de cette ville permet de savoir exactement à quoi ressemble le bulletin de vote par correspondance de dimanche. On peut récupérer un fichier Pdf du modèle de bulletin. De toute évidence, il est différent du papier brandit par les pseudos électeurs mécontents. Sur ce bulletin officiel apparaît bien le nom du candidat de l'AfD tout en haut de la colonne. Un mode opératoire déjà connuCela rappelle une autre tentative de déstabilisation, survenue aux États-Unis il y a quelques mois : une vidéo qui laissait penser à tort à la destruction de bulletins par correspondance en Pennsylvanie. Depuis jeudi, une vidéo identique circule pour accréditer l'idée de fraudes, cette fois-ci en Allemagne, dans la région de Hambourg. Tous les regards convergent vers le réseau de Mark Dougan. Il aurait produit cette fausse information afin de saper la confiance des électeurs allemands. Précisément, la même méthode avait été employée à l'approche de l'élection américaine, nous l'avions détaillée ici au mois de novembre dernier.Mark Dougan et la désinformation russeMark Dougan est un influenceur américain, ancien Shérif de Floride exilée en Russie pour échapper à des poursuites dans son pays, mais c'est surtout un « troll » qui sert la propagande du Kremlin via les services de renseignements russes. Selon l'organisation américaine Newsguard et le média allemand Correctiv, on leur doit une campagne de désinformations basée sur de faux reportages diffusés avant les élections en Allemagne. Une série d'infox destinées à discréditer la classe politique de ce pays via des mises en scène outrancières dans desvidéos faisant souvent appel à des outils d'intelligence artificielle générative. Des contenus relayant des narratifs similaires ont également fait leur apparition sur des sites « miroirs » de médias allemands. D'anciens journaux en ligne dont l'identité a été usurpée pour faire croire à des articles authentiques.
En Égypte, la tension monte avec les États-Unis au sujet de l'avenir de la Bande de Gaza. Le Caire refuse catégoriquement le plan de Donald Trump qui souhaite déplacer les Gazaouis en Jordanie et en Égypte. En conséquence, le président américain menace d'arrêter les aides versées aux deux pays. Sur les réseaux sociaux, certains diffusent des infox pour semer la confusion et alimenter ces tensions. Ces derniers jours, une vidéo montrant le président tunisien au côté de son homologue égyptien, Abdel Fattah al-Sissi, est devenue virale sur les réseaux sociaux. Dans ce qui ressemble à une conférence de presse, Kaïs Saïed s'exprime durant vingt-secondes derrière son pupitre, dans un luxueux palace. On croit alors l'entendre dire, en arabe, « Je suis venu en Égypte pour soutenir mon frère, le président Abdel Aziz al-Sisi, et je dis à Trump : n'essayez pas de jouer avec le président Abdel Aziz ». Un bandeau textuel apposé sur ces images, semblable à ceux utilisés par les chaînes d'information en continu, affirme que « le président tunisien soutient Sissi et menace Trump ». En réalité, le président tunisien n'a jamais tenu de tels propos. Cette déclaration a été inventée de toutes pièces grâce à l'intelligence artificielle.Les ressorts de la manipulationUne rapide analyse visuelle montre que le mouvement de ses lèvres ne correspond pas avec les mots qu'il prononce. Les détecteurs d'intelligence artificielle que nous avons utilisés confirment également qu'il s'agit d'un deepfake, un hypertrucage synthétique.Grâce à une recherche par image inversée (voir ici comment faire), on sait que la vidéo originale qui a été manipulée date du 10 avril 2021. C'était la première visite officielle du président tunisien en Égypte. Les deux chefs d'État avaient discuté de leur coopération économique, culturelle et sécuritaire, mais à aucun moment Kaïs Saïed n'évoque la Bande de Gaza ni ne menace Donald Trump.Si on ne sait pas qui est à l'origine de cette manipulation, ce deepfake est poussé par différents comptes très populaires dans le monde arabe. Certains cumulent plus de 690 000 abonnés. Résultat, l'infox a rapidement dépassé le million de vues, rien que sur X (ex-Twitter).Kim Jong-un ciblé par les infoxLe président tunisien n'est pas le seul dirigeant ciblé par les fausses informations. Une rumeur populaire prétend que Kim Jong-un aurait apporté son soutien à l'Égypte face aux pressions de Washington. Cette infox repose sur une vidéo dans laquelle un journaliste semble affirmer, en arabe, que « si l'Égypte est attaquée, cette attaque sera considérée comme une déclaration de guerre à la Corée du Nord ».Vérification faite, cette déclaration est sortie de son contexte. Cet extrait d'une vingtaine de secondes est bien réel, mais il est trompeur. En faisant une recherche par mots-clés, on retrouve la vidéo dans son intégralité sur YouTube. Il s'agit d'une chronique de fact-checking publiée par la chaîne de télé Al Araby, le 18 janvier 2020. Durant près de trois minutes, le journaliste présente et vérifie cette fausse information : quelqu'un a simplement isolé le moment où il lisait la déclaration qu'il allait démentir, pour faire croire, à tort, que c'était vrai.Cette manipulation est un classique de la désinformation, mais reste malheureusement toujours aussi efficace.
Alors que les outils d'IA génératives se perfectionnent de jour en jour, les images synthétiques ciblant des personnalités politiques de premier plan se multiplient, au point, parfois, de tromper la vigilance de certains médias. Ces derniers jours, deux fausses photos ciblant Donald Trump et le premier ministre britannique, Keir Starmer, ont ainsi semé le trouble sur les réseaux sociaux. Si vous suivez l'actualité américaine, vous avez probablement vu passer cette image montrant le président américain aux côtés du Premier ministre israélien Benyamin Netanyahu et du patron de X, Elon Musk. Les trois hommes, en costume, prennent la pose, debout, tout sourire, dans ce qui ressemble à un salon de la Maison Blanche ou à un luxueux palace. À en croire ceux qui la partagent sur les réseaux sociaux, cette « photo » aurait été prise au moment de la visite de Benyamin Netanyahu à Washington, ce mardi 4 février 2025.Vérification faîte, cette photo n'est pas réelle. Elle a été générée via un outil d'intelligence artificielle générative. En remontant à la source de cette image, grâce à plusieurs recherches par image inversée (voir ici comment faire), on retrouve son auteur qui précise bien en commentaire « image créée à l'aide de l'IA ». Cela confirme les résultats des différents détecteurs d'IA que nous avons utilisés.Des incohérences visuellesPlusieurs éléments visuels permettent aussi de repérer des incohérences caractéristiques de l'utilisation de l'intelligence artificielle. Comme souvent, l'IA pêche au niveau des mains. Les doigts des trois hommes sont déformés avec plein de bourrelets. En arrière-plan, un homme semble également ne pas avoir de visage.Malgré ça, l'image reste très crédible et il est facile de tomber dans le panneau. Plusieurs médias italiens l'ont d'ailleurs publié telle quelle, en Une de leur site internet, pour illustrer la rencontre entre le président américain et le Premier ministre israélien.Si Benyamin Netanyahu a bien rencontré Elon Musk et Donald Trump, aucune photo ne les montre ensemble dans la même pièce.Keir Starmer ciblé par des images manipuléesLe Premier ministre britannique a pareillement été ciblé par des images artificielles. Une image le montrant en train de déguster un homard dans un restaurant luxueux cumule actuellement des millions de vues sur les réseaux sociaux, X en tête. Des internautes s'en servent pour s'attaquer à la politique sociale menée par cet homme politique de gauche.Sauf que là encore, cette image a, en réalité, été générée par l'intelligence artificielle. Plusieurs éléments le prouvent, à commencer par le logo de Grok, l'outil de génération d'images de X, visible en bas à droite de l'image. Ce tampon atteste de l'utilisation de l'IA. Pour le repérer, il est nécessaire d'ouvrir l'image en intégralité puis, parfois, de zoomer dans la zone concernée.Un poison lentSi elles peuvent paraître anodines, voire comiques pour certaines, ces images artificielles sont nocives pour nos sociétés puisqu'elles brouillent le débat public. L'analyse des échanges sur les réseaux sociaux montre que certains s'appuient sur ces fausses images, pour se forger une opinion. La frontière entre le vrai et le faux devient de plus en plus poreuse. Sur le long terme, ces infox laissent toujours des traces. Cela aboutit à installer un doute permanent, mais aussi à faire émerger des réalités alternatives, dangereuses pour les démocraties.
En République démocratique du Congo, les membres du groupe M23 soutenus par le Rwanda ont pris le contrôle de nombreux quartiers de Goma cette semaine. Face à cette situation jugée préoccupante, la Communauté de développement de l'Afrique australe se réunit ce vendredi 31 janvier, à Harare au Zimbabwe. Ces affrontements s'accompagnent d'une guerre informationnelle sur les réseaux sociaux. Les infox se multiplient notamment à propos de l'implication de puissances étrangères dans le conflit. Alors que le chef de la diplomatie française, Jean-Noël Barrot, est arrivé à Kigali après s'être rendu à Kinshasa, plusieurs publications mensongères affirment que la France aurait décidé de « soutenir militairement le Rwanda face à la RDC ». À en croire ce message activement relayé sur Facebook et TikTok, « trois avions militaires français, chargés de munitions, seraient en route vers Kigali et certains auraient déjà atterri ». Leur objectif serait de « faire tomber Goma coûte que coûte ». La photo qui accompagne ce post montre un A-400M Atlas, un avion de transport français, au sol, sur le tarmac d'un aéroport.Vérification faite, cette fausse information a été fabriquée de toutes pièces. La rumeur ne s'appuie sur rien de factuel puisqu'aucun avion militaire français n'a été vu à Kigali. De plus, la photo partagée sur les réseaux sociaux n'a rien à voir avec la situation en RDC. Grâce à une recherche par image inversée, on retrouve sa trace dans plusieurs articles de presse publiés en 2022. Elle a été prise sur la base de Calvi en Corse, et non au Rwanda. Ni l'armée française, ni l'armée rwandaise n'a d'ailleurs communiqué sur une quelconque livraison de munitions.« Aucun avion français ne transporte des munitions vers Kigali »Contacté par la rédaction de Balobaki, un média de fact-checking congolais, le porte-parole du ministère français de l'Europe et des Affaires étrangères, a démenti ces allégations. « Aucun avion français ne transporte des munitions vers Kigali », a assuré Christophe Lemoine. La France a d'ailleurs fermement condamné l'offensive menée par le M23 et appelé les forces rwandaises a « quitté instamment » la RDC.Ces fausses accusations d'implications militaires visent également d'autres pays, à commencer par l'Afrique du Sud. Plusieurs publications, cumulant plus d'un million de vues, affirment notamment que les Forces de défense nationales sud-africaines auraient envoyé « quatre avions de combat en RDC pour soutenir l'armée congolaise ». Sauf qu'une nouvelle fois, c'est faux. Aucun chasseur sud-africain n'a été aperçu à Goma.Si la photo publiée sur les réseaux sociaux montre bien un escadron de Gripen, des avions de combat suédois que possède Pretoria, le cliché a été pris il y a plus de dix ans.Face à la viralité de cette fausse information, l'armée sud-africaine a publié un démenti sur ses réseaux sociaux.Un contexte propice à la désinformationCes deux infox sont loin d'être les seules à circuler sur les réseaux sociaux. La situation en cours dans l'est de la RDC est particulièrement propice à la désinformation. Énormément d'images circulent, dont beaucoup sont sorties de leur contexte. Certains n'hésitent pas également à détourner l'image de certains médias, comme RFI, pour diffuser de fausses informations. Raison pour laquelle il faut rester prudent et penser à remonter à la source en cas de doute.
Serait-il dangereux d'utiliser son téléphone portable à côté d'une bouteille de gaz ? Cette croyance populaire, très ancrée en Afrique et ailleurs dans le monde, réapparaît régulièrement au gré des différents faits divers. Ces derniers jours, une vidéo partagée sur des groupes WhatsApp affirme montrer, à tort, une famille victime d'une explosion de gaz liée à l'utilisation d'un smartphone. C'est un auditeur tchadien qui nous a alerté sur la circulation de ces images choquantes. On y voit plusieurs adultes et des enfants, gravement brûlés, arriver dans la salle d'attente d'un hôpital. L'un d'entre eux, le corps ensanglanté, s'effondre sur le sol, inconscient. Le message qui accompagne cette vidéo l'assure : « Évitons le téléphone à côté de la bouteille de gaz. Regardez cette famille en sang jusqu'aux enfants ». À en croire le drapeau présent dans cette légende, la scène se passerait au Cameroun.Pour savoir ce que montre réellement cette vidéo, nous avons d'abord cherché à la géolocaliser en s'appuyant sur une plaque d'immatriculation visible sur l'un des véhicules stationnés devant l'hôpital. La combinaison des chiffres et des lettres ainsi que les éléments graphiques correspondent aux plaques de l'état de Rivers, dans le sud du Nigeria.Les causes réelles de l'explosionPour confirmer cette piste, nous avons effectué plusieurs recherches avec les mots-clés, « gas », « explosion » et « Rivers ». Cela nous a permis de retrouver la trace de cette vidéo dans la presse nigériane et de confirmer notre géolocalisation. En croisant plusieurs articles provenant de médias nigérians fiables, on apprend que ces images font suite à une explosion mortelle chez un vendeur de gaz, à Port Harcourt, dans le quartier d'Oroazi, ce que nous a confirmé la rédaction de RFI en Hausa, à Lagos.En réalité, cette explosion n'est pas liée à l'utilisation d'un téléphone portable. Selon plusieurs témoignages, un homme aurait tenté de souder une bouteille de gaz qui fuyait, provoquant involontairement une explosion en chaîne. Le dernier bilan fait état de cinq morts et plus d'une dizaine de blessés. La légende qui circule sur WhatsApp est donc mensongère.Des risques minimesSur le fond, est-il dangereux d'utiliser son téléphone portable à côté d'une bouteille de gaz ? Pour répondre à cette question, il faut d'abord préciser comment se produit une explosion. « Concrètement, pour qu'il y ait une atmosphère explosive, ce que nous appelons une atex, il faut un combustible, un gaz par exemple comme l'hydrogène, le butane ou le propane, et un comburant, l'oxygène de l'air. Si on a suffisamment de combustible et de comburant, on va avoir un mélange explosif. Pour que l'explosion se produise, il ne manque plus qu'une source d'inflammation. Cela peut être une étincelle électrique, une chaleur excessive ou une flamme par exemple », explique Olivier Cottin, responsable de l'unité Atex, au sein de la direction Incendies, dispersions, et explosions (IDE) de l'Ineris, l'institut national de l'environnement industriel et des risques.« Si les conditions d'utilisation sont normales, c'est-à-dire que la bouteille de gaz est en bon état et qu'il n'y a pas de fuite, alors il n'y a pas de danger immédiat à utiliser son téléphone portable à côté de cette bouteille, précise Olivier Cottin. Pour qu'il ait un risque, il faudrait une fuite dans un milieu confiné. Mais de la même façon, un téléphone en fonctionnement normal ne présente pas de risques. Il ne provoque ni étincelles ni chaleur excessive pouvant faire exploser une atmosphère explosive. Il faudrait donc également que le téléphone dysfonctionne pour enflammer une atex ».En conclusion, le risque zéro n'existe pas, mais si votre bouteille de gaz ne fuit pas et que votre téléphone fonctionne correctement, vous n'avez pas de souci à vous faire.
À Los Angeles, les pompiers essayent toujours de contenir les flammes, plus d'une semaine après le début des incendies. Selon le dernier bilan, au moins 24 personnes ont trouvé la mort. Une catastrophe historique, marquée par un flot d'infox d'une rare intensité sur les réseaux. L'origine de ces incendies, le travail des pompiers, les rescapés, rien n'échappe à la désinformation, à tel point que certaines des images les plus partagées en ligne sont irréelles ou sorties de leur contexte. Si vous avez passé du temps sur les réseaux sociaux ces derniers jours, vous avez probablement été confronté à l'une de ces deux images aériennes, montrant une maison au toit rouge, prétendument épargnée par les flammes à Los Angeles. Tout le quartier semble avoir été détruit, sauf ces luxueuses résidences. Si les deux maisons se ressemblent, ce ne sont pas les mêmes. L'une est en bord de mer, l'autre en pleine ville.Les internautes qui partagent ces photos affirment qu'elles montreraient « la maison d'un croyant de Los Angeles, miraculeusement protégée par Dieu ». Un récit sur lequel plusieurs auditeurs nous ont alertés.Image détournée et générée par IAVérification faîte, ces deux images n'ont rien à voir avec les incendies en cours à Los Angeles. La première photo est bien authentique, mais elle n'a pas été prise dans la cité des anges. Une recherche par image inversée permet de retrouver sa trace dans la banque d'images de l'Agence France Presse (AFP). On y apprend en légende qu'elle montre une maison dans le quartier de Lahaina, à la suite des incendies mortels à Hawaï, en août 2023. La résidence avait été épargnée notamment grâce à sa toiture en tôle épaisse et à l'absence de végétation à proximité.Concernant le deuxième cliché, si visuellement tout semble réel, l'image a en réalité été générée par une intelligence artificielle. Le seul moyen de s'en rendre compte consiste à faire une recherche par image inversée sur Google, puis d'aller dans l'onglet « À propos de l'image ». Un message apparaît alors indiquant « image créée avec l'IA de Google ».Comment Google sait-il que quelqu'un a généré cette image avec son intelligence artificielle ? Pour son outil de génération d'image, baptisé Imagen, la firme américaine utilise ce que l'on appelle des watermarks, des filigranes, invisibles à l'œil nu, mais identifiables par un logiciel. Ce tatouage numérique atteste donc de l'utilisation de l'intelligence artificielle, mais sans faire cette démarche de vérification, il est impossible de s'en rendre compte.Instrumentalisation complotiste et religieuseCette image synthétique fait l'objet de nombreuses instrumentalisations. Religieuse d'abord, avec plusieurs messages parlant d'une intervention divine. Certains affirment, à tort, que cette maison appartenait à une famille chrétienne, d'autres à une famille musulmane.Et puis certains complotistes ont aussi diffusé cette image, assurant que l'incendie était volontaire et ne ciblait que certaines habitations. Deux récits trompeurs vus des dizaines de millions de fois sur les réseaux sociaux. Résultat, cette infox figure aujourd'hui parmi les images les plus vues concernant les incendies de Los Angeles. On est donc là face à un énième exemple de détournement de l'IA qui perturbe les perceptions d'un événement mondial et invisibilise les vraies images de la catastrophe.
« Nous allons nous débarrasser des fact-checkers ». Cette déclaration du patron de Meta, Mark Zuckerberg, ce mardi 7 janvier, a suscité beaucoup d'inquiétude chez les spécialistes de la lutte contre la désinformation. Pendant que certains veulent faire disparaître le fact-checking sur les réseaux, d'autres essayent au contraire de faciliter l'accès à des informations vérifiées. C'est le cas de l'ONG La Réponse Tech qui a récemment lancé, Vera, un bot conversationnel de vérification. Utiliser l'intelligence artificielle pour permettre à tout un chacun de vérifier une information en temps réel. C'est la mission que s'est lancée le collectif citoyen La Réponse Tech en développant Vera, un agent conversationnel numérique, accessible 24 heures sur 24, 7 jours sur 7. Concrètement, il suffit d'appeler le numéro de téléphone de Vera, 09 47 99 12 95 ou bien de lui envoyer un message sur WhatsApp, en lui demandant si telle information est vraie ou fausse.Pour cet exemple, nous avons volontairement posé une question sur une infox vérifiée par la cellule Info Vérif de RFI. Mais cette intelligence artificielle se base sur le travail de plusieurs centaines de sources fiables, sélectionnées par un comité d'experts et librement consultables.« À partir de la question posée par l'utilisateur, Vera va d'abord chercher si des rédactions de fact-checking ont traité le sujet. Si ce n'est pas le cas, elle va chercher la réponse auprès de 300 sites de médias reconnus comme fiables, avant d'en faire une synthèse et de la proposer en temps réel », explique son fondateur, Florian Gauthier. Techniquement parlant, Vera se base sur le modèle de langage GPT-4, développé par la société américaine Open AI.Aujourd'hui, Vera est utilisée par environ 700 utilisateurs uniques chaque semaine.Une IA modelée pour éviter les erreursComme tout outil basé sur l'intelligence artificielle, Vera n'est pas infaillible. Le risque d'erreur ou de réponse incomplète existe. Mais contrairement à des chatbots comme ChatGPT, Perplexity ou Claude, Vera n'a pas été pensée pour répondre coûte que coûte à la question posée. « Vera a l'interdiction totale, d'imaginer quoi que ce soit. Dès qu'elle va formuler une réponse, c'est que cette réponse a été donnée par une source fiable qui est toujours citée. Si Vera ne trouve pas la réponse dans sa base de données, ce qui arrive par moment, elle ne va pas chercher à inventer. Elle se contentera alors de préciser qu'elle n'a pas trouvé la réponse à cette question », détaille Florian Gauthier.Autre limite, la base de données ne peut pas être exhaustive. Il est donc possible que Vera vous réponde qu'elle ne sait pas même si le sujet a déjà été vérifié. Mais d'après nos essais, Vera est aujourd'hui le bot conversationnel le plus efficace pour vérifier une information en temps réel. À l'avenir, ses créateurs envisagent de rendre Vera multilingue, et de proposer gratuitement le service sur d'autres plateformes et réseaux sociaux.Lutter contre les discours complotistesAu-delà de permettre ce processus de vérification en temps réel, ce genre d'agent conversationnel pourrait également permettre de limiter, chez certains utilisateurs, l'adhésion aux théories complotistes. C'est ce que montre une étude récente publiée dans la revue scientifique Nature. « De nombreuses personnes qui croient fermement à des théories du complot apparemment infondées peuvent changer d'avis lorsqu'on leur présente des preuves convaincantes. (...) Les dialogues avec l'IA réduisent durablement les croyances complotistes, même parmi les plus fervents croyants », concluent les chercheurs.Pour Florian Gauthier, « l'intelligence artificielle est un super outil pour propager des fausses informations. Mais l'IA peut aussi être, au contraire, une véritable piste de réponse pour combattre la désinformation ».
De plus en plus simples et performants, les modèles de synthèse d'image permettent la diffusion massive de contenus artificiels, relayés comme tels mais pas seulement. Ils participent aussi à la confusion dans des conflits difficiles à couvrir pour les journalistes, menacés dans l'exercice de leur métier. À côté des véritables clichés témoignant des atrocités commises à Gaza, l'IA vient perturber la perception de la réalité factuelle. L'image suscite l'indignation. Elle montre - au premier plan - un homme âgé sous perfusion, pieds et torse nus, debout au milieu des gravas, avec - à l'arrière-plan - un char de combat se détachant sur fond de bâtiments détruits un peu flous. Les comptes qui partagent cette image sur plusieurs réseaux sociaux, Instagram, Facebook et X indiquent qu'il s'agit d'un vieillard sorti de force par les soldats israéliens lors de l'assaut mené il y a une semaine tout juste contre l'hôpital Kamal Adwan, dernier grand hôpital du nord de Gaza. Relayée dès lundi par une influenceuse et activiste pro-palestinienne suivie par plus de 300 000 comptes sur X, le cliché suscite de nombreuses réactions contre une opération militaire israélienne qui a brutalement mis hors d'état de fonctionner l'un des derniers hôpitaux de Gaza. Pourtant, cette image censée représenter une situation réelle, ne l'est pas. Création numérique trompeuseUne recherche d'image inversée permet de retrouver la première occurrence de cette image. Elle provient du compte Instagram d'un militant pro-palestinien, qui se présente comme un artiste de design numérique. Il ne s'en cache pas, ses images portent toutes la même signature, mentionnant une création d'art visuel. On découvre d'ailleurs une autre version de la scène. Le vieil homme est vu de dos, toujours devant le même char. Sur le bitume devant lui sont peints en rouge les mots « Dirty World » et la photo est barrée d'un slogan : « forced extermination », on voit aussi la signature du concepteur de l'image, en haut à droite et en bas à gauche. Il ne s'agit donc pas d'une photo à proprement parler. L'homme que l'on voit n'existe pas, c'est une composition numérique avec des éléments de décor fictifs. Le char est placé là, comme un élément du décor. Mais nombre de publications ont relayé cette image d'un réseau social à l'autre, en réduisant le cadre et du coup, en escamotant la signature. De toute façon, avec ou sans logo, en lisant les commentaires, on s'aperçoit que beaucoup d'internautes pensent avoir affaire à une image authentique, alors qu'il n'en est rien. Altération du réelLe concepteur de l'image publie sur Instagram un résumé de la situation plutôt factuel sans dire que l'illustration choisie, elle, ne l'est pas. L'intention vise manifestement à alerter l'opinion, à la suite de ce raid de l'armée israélienne qui a bel et bien eu lieu et qui a abouti à ce que les patients de l'hôpital - certains dans un état critique - soient sortis du bâtiment sous la contrainte. Or, à part quelques images du personnel soignant et du docteur Abou Safiya arrêtés par l'armée israélienne, on n'a quasiment pas vu ce qui était advenu des patients. À l'exception d'une vidéo diffusée sur la chaîne de télévision Al Jazeera, montrant des femmes et des enfants assis dans des ambulances lors de leur transfert vers l'hôpital indonésien. Leur situation est réellement dramatique, car le système de santé à Gaza est véritablement en ruine, mais l'image du vieil homme à la perfusion, seul face à un char ne rend pas compte de la situation réelle. À lire aussiGuerre Israël-Gaza: «Un système sanitaire anéanti», la santé des Gazaouis en périlQuand l'image artificielle sert la propagande israélienneLe paradoxe, c'est qu'en publiant et en relayant des images non authentiques même lorsqu'elles témoignent d'une réalité, on favorise la mise en doute des véritables photos, qui - elles - sont prises dans des conditions extrêmement difficiles. L'image du vieillard à la perfusion n'a pas circulé de façon virale. Elle a vite été retirée de X par l'influenceuse qui avait contribué dans un premier temps à sa diffusion. Mais d'autres internautes s'en sont emparés. Dont un militant pro-israélien, profitant de l'occasion pour alimenter le doute sur le sort des gazaouis. Immanquablement, sur les réseaux sociaux, la création échappe vite à son créateur. Le factuel relégué au second plan, la désinformation s'insinue. La nécessité de « documenter » le conflitLa manœuvre éclipse une autre réalité de ce conflit. À Gaza, les journalistes sont empêchés de travailler, victimes des bombardements quand ils ne sont pas volontairement ciblés et interdits sur le terrain. Cette difficulté ne justifie pas cependant l'emploi de fausses images dans la mesure où de nombreux clichés authentiques permettent, eux, de témoigner des souffrances de populations soumises aux bombardements intensifs, au froid, au manque d'eau, de nourriture et de médicaments. L'image créée à l'aide de modèles de synthèse ou IA génératives, en créant la suspicion ne fait que brouiller l'information. Un modèle économique pour les plateformesOr, cette pratique est en constante augmentation. Elle profite aux influenceurs - raison pour laquelle nous ne relayons pas ici le contenu en question - et aux plateformes. Pour Meta, TikTok, X et les autres, c'est la prime au contenu artificiel. La maison mère de Facebook et Instagram envisage pour sa part de pousser à la création de profils générés par l'IA et de contenus tout aussi artificiels, afin de rajeunir son audience. Les plateformes rivalisent d'ingéniosité pour produire leurs propres modèles d'IA générative et capter le maximum d'attention sur leurs réseaux. Ces mêmes acteurs du numérique ne déploient pas le même zèle pour permettre aux internautes de faire la part du vrai et du faux. Il va falloir redoubler d'attention contre les manipulations de l'information.
En Égypte, de fausses rumeurs de soulèvement populaire sont devenues virales sur les réseaux sociaux. Après la chute du dictateur syrien Bachar el-Assad, certains affirment, à tort, que le peuple égyptien serait en train de renverser Abdel Fattah al-Sissi. En réalité, aucune manifestation anti-régime n'a eu lieu ces derniers jours en Égypte. Les images partagées sont sorties de leur contexte. La vidéo la plus populaire a été vue plusieurs millions de fois ces dernières heures. On y voit des manifestants réunis de nuit, dans une rue commerçante. Certains tentent de bloquer la circulation, d'autres scandent : « le peuple veut faire tomber le système », un slogan emblématique des révolutions arabes de 2011. Les comptes qui partagent ces images parlent de « manifestations en cours au Caire pour demander le renversement du régime d'Abdel Fattah al-Sissi ».Vérification faîte, ces images sont datées. Grâce à une recherche par image inversée (voir ici comment faire), nous avons retrouvé un reportage de la chaîne de télévision arabe, Al Araby, publié sur Facebook en 2019. On y retrouve plusieurs extraits de manifestations filmés dans toute l'Égypte, dont ces images présentées, à tort, comme étant récentes.Cette vidéo remonte donc au mouvement de contestation anti-régime qui avait éclaté dans le pays en septembre 2019. À l'époque, l'homme d'affaires exilé en Espagne Mohamed Aly avait appelé à manifester, accusant Abdel Fattah al-Sissi de corruption. Ces derniers jours, aucune manifestation anti-régime n'a eu lieu en Égypte.Détournement de la contestation de 2019Une autre vidéo virale montre des manifestants en train de déchirer un portrait d'Abdel Fattah al-Sissi, en pleine rue. La légende évoque « des manifestations antigouvernementales au Caire, en Égypte ». Mais contrairement à ce que veut faire croire l'auteur de ce tweet, ces images vues des centaines de milliers de fois ne sont pas récentes.En faisant une recherche par mots clés, nous les avons retrouvées dans un article publié cette fois par Al Jazeera, le 21 septembre 2019. Le média évoque des manifestations dans les villes de Damiette et de Mansoura.On retrouve donc le même mode opératoire. Des utilisateurs rediffusent des vidéos datées de cette période de contestation en septembre 2019 et les publient telles quelles, avec une légende mensongère ou volontairement imprécise. Au total, la cellule Info Vérif de RFI a repéré près d'une dizaine de vidéos ainsi sorties de leur contexte.Désinformer pour modifier les comportementsSi on ne sait pas précisément qui est derrière cette campagne de désinformation, l'analyse des comptes à l'origine de ces infox met en lumière des profils variés. Nous avons identifié des comptes égyptiens opposés au régime en place, des comptes pro-russes habitués à désinformer au Moyen-Orient, ainsi que des comptes pro-palestiniens. Quand on regarde les chiffres, on peut dire que cette campagne est relativement efficace puisque ces fausses informations ont cumulé des millions de vues en seulement quelques jours sur X, Facebook et TikTok.Ces comptes cherchent à raviver artificiellement la flamme de la contestation en Égypte. Une chose est sûre, leurs infox parviennent au moins à semer le trouble, comme le montrent les commentaires d'internautes qui tombent dans le piège.
Au Mali, l'armée et ses supplétifs russes de Wagner ont fait une quinzaine de prisonniers lors d'une opération à la frontière mauritanienne, le 10 décembre 2024. Des Mauritaniens ont été arrêtés sur le sol malien, à Laghdaf, près de Fassala, avant d'être libérés. Ce nouvel incident dans une zone frontalière parfois disputée n'a pas tardé à être instrumentalisé. Dans un contexte déjà tendu entre les deux voisins, la désinformation attise encore davantage les tensions. Ce mardi 17 décembre, notre rédaction à Dakar nous alerte. Une vidéo publiée sur TikTok, affirme, à tort, que l'armée mauritanienne aurait réagi à ces arrestations en « bombardant un poste militaire malien à Laghdaf ». Selon cette infox, l'attaque aurait causé « la mort de 69 soldats maliens et mercenaires russes ». À l'image, on voit une explosion avec des flammes de plusieurs dizaines de mètres. Cette scène, impressionnante, a été filmée de nuit, par un témoin situé à une vingtaine de mètres de l'incendie. En réalité, ce récit a été fabriqué de toutes pièces. L'armée mauritanienne n'a pas attaqué le Mali. Il n'y a eu aucun bombardement, ni aucun mort. Il n'y a d'ailleurs pas de poste militaire malien dans la zone. Du côté des images aussi, il y a manipulation. La vidéo n'a pas été tournée à la frontière entre les deux voisins, mais dans la capitale, Bamako. La scène se passe dans le quartier Faladié, juste en face de l'école de la gendarmerie, bien loin de la Mauritanie.On sait que plusieurs camions citernes ont déjà pris feu à cet endroit, notamment le 30 octobre 2024. Cette vidéo est donc liée à un accident sans le secteur.Géolocalisation des imagesPour savoir ce que montre réellement cette vidéo, nous avons commencé par la géolocaliser. Pour ça, nous nous sommes appuyés sur plusieurs commentaires évoquant une scène possiblement filmée à Bamako, avant d'identifier les éléments visuels les plus marquants : un panneau publicitaire, une route bitumée de deux voies et des arbres visibles en arrière-plan.Sur des logiciels de cartographie satellite, comme Google Maps ou Yandex Maps, nous avons cherché ces éléments, sans succès. Nous avons donc fini par utiliser Mappilary, une plateforme collaborative qui permet à n'importe qui de prendre des photos d'une route, ou d'un centre-ville et de les rendre accessibles gratuitement au monde entier. Grâce à ça, nous avons pu arpenter les grands axes de la capitale. Au bout de quelques heures, nous avons fini par retrouver notre panneau et nos arbres, sur la RN7, après la Tour de l'Afrique. Désinformer pour attiser les tensionsÀ l'origine de cette infox, on retrouve un mystérieux compte TikTok suivi par plus de 250 000 personnes. Il publie presque quotidiennement des vidéos sorties de leur contexte, en affirmant, à tort, que la Mauritanie attaquerait ou envahirait le Mali. Des infox souvent virales puisque ses 31 vidéos cumulent plus de 25 millions de vues.Cette désinformation est particulièrement nocive au vu des relations déjà tendues entre les deux voisins. Les journalistes locaux sont quotidiennement confrontés à cette réalité. « La manipulation de l'information expose les populations à des risques, souligne Kissima Diagana, directeur du site InitiativeNews, présent lors du dernier webinaire du Timbuktu Institute. D'autant plus dans un pays comme la Mauritanie où il y a différentes communautés face à un pays en crise au Mali, également exposé à des tensions communautaires. C'est donc facile de créer des tensions entre les deux pays. »Ces tensions entre les deux voisins sont déjà largement palpables sur les réseaux sociaux.À lire aussiNon, cette vidéo ne montre pas la Mauritanie sur le point d'attaquer le Mali
Depuis la chute du régime de Bachar el-Assad en Syrie, chassé par une coalition de rebelles islamistes, de nombreuses fausses informations circulent à son propos. Ces rumeurs cumulent des millions de vues et sèment le trouble sur la fuite de l'ex-dictateur syrien. L'une des dernières infox en date affirme que Bachar el-Assad aurait officiellement démissionné, exprimant des regrets avant de fuir son pays. Cette affirmation repose sur une bande son diffusée sur les réseaux sociaux. On pense y entendre l'ex-dictateur déclarer « Chers citoyens, dans les circonstances difficiles que traverse le pays, et en raison de l'état du peuple syrien, moi, Bachar el-Assad, après avoir pleinement reconnu ma responsabilité dans ce qui s'est passé dans le pays au cours des dernières années, j'ai décidé de renoncer à la fonction de président de la République. (...) J'ai signé des décrets récents exigeant le retrait des forces étrangères et des milices, et j'appelle ces forces à se retirer du territoire syrien. Enfin, je présente mes excuses au grand peuple syrien pour mes actions ».En réalité, cet enregistrement écouté des millions de fois n'est pas réel. Bachar el-Assad n'a ni annoncé sa démission, ni présenté ses excuses. En scriptant la bande son et en faisant des recherches par mots clés, nous avons identifié une vidéo publiée sur YouTube, le 2 septembre 2023. On y retrouve exactement le même audio de 56 secondes.En légende, il est indiqué que cet audio a été généré via l'intelligence artificielle « à des fins de divertissement », ce que confirment les détecteurs d'IA que nous avons utilisés.L'avion de Bachar el-Assad victime d'un crash ?Une autre infox qui revient avec insistance avance que l'ex-dictateur syrien serait mort durant sa fuite en avion. Selon les internautes à l'origine de cette rumeur, un avion-cargo russe, transportant Bachar el-Assad, se serait crashé au nord de la Syrie. Certains assurent, images à l'appui, que l'appareil aurait été abattu par les rebelles islamistes. En réalité, tous les clichés présentés comme des preuves sont sortis de leur contexte. Nous avons identifié des images provenant des États-Unis, d'Inde, mais jamais de Syrie.Si les données de vol étrange d'un Iliouchine-76 en partance de Damas ont bien semé le doute, rien ne permet de dire qu'un avion s'est crashé, ni que Bachar el-Assad figurait parmi les passagers. Entre l'ancienneté de l'appareil et le brouillage GPS dans la zone, les données du transpondeur sont à prendre avec précautions, comme le rappelle la plateforme de tracking en ligne, FlightRadar24. Enfin, aucune carcasse d'avion n'a aujourd'hui été retrouvée sur les prétendus lieux du crash.Des découvertes farfelues dans sa résidence ?Un flot de fausses informations vise aussi les découvertes réalisées dans l'ancienne résidence de Bachar el-Assad, pillée par des civils et des rebelles. Les images authentiques montrant des dizaines de voitures de luxe, des œuvres d'art, des écrans géants, ont fait le tour du monde. Dans ce contexte, certains ont saisi l'occasion pour désinformer et faire du clic. À en croire leurs publications, le parchemin d'une torah vieille de plus de 500 ans, une collection de films pour adultes et des milliers de lingots d'or auraient aussi été retrouvés.Vérifications faîtes, l'exemplaire de la Torah a été filmé en Tunisie en 2017. La collection de films X date d'une vente aux enchères en 2021, en Australie. Quant aux lingots d'or, ils ont été générés par intelligence artificielle. Ces trois infox ont été vues des millions de fois ces dernières heures.
En Syrie, la coalition conduite par le groupe islamiste radical, Hayat Tahrir Al-Sham, poursuit son offensive contre l'armée de Bachar el-Assad. Après leur prise d'Alep, les rebelles ont capturé la ville d'Hama. Dans ce contexte, tout et son contraire circule sur les réseaux sociaux. Certains affirment notamment, à tort, que le chef du mouvement islamiste HTS, Abou Mohammed al-Jolani, aurait été tué dans un bombardement russe. La photo a fait le tour des réseaux sociaux ces derniers jours. On y voit le cadavre d'un homme barbu, vêtu d'une chemise de camouflage, les yeux et la bouche entrouverts. Son corps est mis en scène sur un canapé, devant un mur criblé d'impacts. En légende, les internautes parlent d'une « frappe aérienne russe contre le quartier général opérationnel dans lequel le chef du groupe HTS, Abu Muhammad al-Julani, se trouvait et aurait été tué ». D'autres évoquent aussi, sans preuve, la présence « de hauts responsables des services de renseignements ukrainiens et turcs ».Vérification faite, cette photo n'a rien à voir avec les combats en cours en Syrie. En faisant une recherche par image inversée, on retrouve ce même cliché dans un article publié sur un site d'information libanais, le 5 septembre 2015. Le média évoque, en arabe, la mort du terroriste jordanien, membre de l'état islamique, Abu Al-Qaqa, en Syrie, lors d'un bombardement en 2015.Cette version est confirmée par une publication Facebook de la 105ᵉ brigade électronique de la Garde républicaine syrienne, également datée du 5 septembre 2015.Une photo manipuléeUne comparaison minutieuse entre cette photo de 2015 et celle qui circule ces derniers jours, montre que l'image a été manipulée. Sur le cliché de 2015, l'homme ne ressemble pas à Abou Mohammed al-Jolani. Il a du sang sur le nez et sur les lèvres. Son regard est vide.Au contraire, sur l'image partagée ces derniers jours, l'homme ressemble fortement au leader de Hayat Tahrir Al-Sham. Il n'a pas le même nez, ni les mêmes yeux. Quelqu'un a donc pris une vieille photo d'un terroriste tué en 2015, et a visiblement modifié son visage pour le faire passer, à tort, pour Abou Mohammed al-Jolani.Contrairement à ce qu'affirme cette infox, Abou Mohammed al-Jolani est apparu vivant ce mercredi 4 décembre 2024. Le chef du groupe islamiste a été vu, déambulant dans la citadelle d'Alep. Plusieurs vidéos amateurs le montrent en chemise et pantalon kaki, entouré par des dizaines de personnes.Des comptes pro-Bachar el-Assad à la manœuvre ?Si on ne sait pas précisément qui est à l'origine de cette infox, on sait qu'elle a notamment été poussée par des influenceurs pro-Bachar el-Assad ainsi que par des comptes pro-russes désireux de glorifier l'action de leur armée en Syrie. Des agences de presse en Afghanistan et au Yémen ont aussi relayé cette fausse information.Résultat, cette image manipulée et sortie de son contexte cumule actuellement plusieurs millions de vues sur les réseaux sociaux. Des dizaines d'infox de ce genre circulent présentement. Ce bruit de fond sème le trouble sur le véritable déroulement de ce conflit en cours en Syrie.
Une semaine après le tir par la Russie d'un missile capable d'emporter des charges atomiques sur Dnipro en Ukraine, le chantage nucléaire brandi par le Kremlin n'a jamais semblé aussi fort. En déplacement au Kazakhstan, Vladimir Poutine a menacé ce jeudi 28 novembre de frapper Kiev avec ce nouveau missile. Dans ce contexte, certains diffusent sur les réseaux le récit d'une guerre nucléaire imminente entre la Russie et l'Otan. Ce narratif est poussé à coups d'infox, pour terroriser les Occidentaux. Cette petite musique alarmiste d'une guerre nucléaire imminente entre la Russie et l'Otan est omniprésente sur les réseaux sociaux. Le dernier exemple en date est une vidéo censée montrer « une nouvelle bombe nucléaire russe en cours de fabrication ». On y voit une énorme machine noire, haute comme un immeuble de dix étages, de forme cylindrique, transportée sur un plateau roulant long de plusieurs dizaines de mètres. Des ouvriers en tenue de chantier filment la scène. Côté son, l'ambiance est volontairement plutôt inquiétante. L'internaute à l'origine de cette publication parle de « rapports alarmants suggérant que la Russie intensifie ses préparatifs et son arsenal nucléaire ».Vérification faîte, ces images ne montrent pas une bombe nucléaire, ni une quelconque arme russe. Grâce à une recherche par image inversée, on retrouve plusieurs photos de cette même machine dans un article publié sur le site internet de l'entreprise Mammoet. Cette société néerlandaise est spécialisée dans le levage et le transport d'objets lourds. On y apprend qu'il s'agit en réalité d'une gigantesque colonne de régénération qui sert au traitement des produits issus du raffinage. L'appareil pèse plus de 3 000 tonnes et a été transporté vers la raffinerie de pétrole de Dangote, au Nigeria, en 2021. À ce jour, il s'agit de l'élément le plus lourd jamais transporté sur une voie publique en Afrique. Un faux message du gouvernement françaisToujours pour alimenter les peurs, d'autres vidéos sorties de leur contexte simulent même le début d'une guerre nucléaire. C'est le cas d'une publication TikTok consultée des centaines de milliers de fois ces dernières heures. On y voit le symbole nucléaire jaune et noir, apposé sur des images de Paris.Ces visuels sont accompagnés d'un prétendu message d'alerte nucléaire du gouvernement français. Ce message, angoissant, semble réel. La charte graphique, le logo bleu-blanc-rouge, l'intonation de la voix, tout paraît correspondre avec les alertes officielles diffusées sur d'autres sujets par la République française. Sauf qu'en réalité, ce message a été fabriqué et diffusé sur YouTube par un vidéaste, en avril 2023. Il précise bien que c'est un « contenu fictif ». Malgré ça, sa vidéo est aujourd'hui réutilisée à des fins de désinformation. Affaiblir le soutien à l'UkraineL'analyse de la propagation de ces infox alarmistes montre qu'elles sont, en partie, diffusées et amplifiées par des comptes habitués à relayer quotidiennement la propagande russe sur les réseaux sociaux. Leur but est d'installer ce bruit de fond d'une guerre nucléaire imminente entre la Russie et l'Otan, pour créer un sentiment de panique chez les Occidentaux. Cette peur pourrait engendrer une volonté de ne plus soutenir l'effort de guerre ukrainien. Cette stratégie informationnelle a été mise en place par le Kremlin depuis le lancement de son invasion de l'Ukraine.
La France envisage-t-elle d'abaisser la limitation de vitesse sur les autoroutes, passant de 130 à 90 km/h ? L'infox a fait le tour des réseaux sociaux ces derniers jours. Cette fausse rumeur s'appuie sur une vidéo manipulée du Premier ministre, Michel Barnier, en déplacement à Angers la semaine dernière pour les Assises des départements de France. En réalité, il s'agit d'un nouveau deepfake du Premier ministre français. La vidéo dure précisément trente-trois secondes. On y voit Michel Barnier tenir un discours derrière un pupitre, sur lequel est inscrit « Assises des départements de France ». Plusieurs bandeaux textuels, communément appelés des synthés, sont apposés sur ces images. On y retrouve notamment le logo de la chaîne de télévision française BFM TV. Côté son, on entend le Premier ministre annoncer, qu'à partir de 2025, « la vitesse sur autoroute sera limitée à 90 km/h pour les véhicules thermiques, afin de réduire les émissions de dioxyde de carbone et d'améliorer la sécurité routière. En revanche, les véhicules électriques conserveront la limitation actuelle de 130 km/h. Cette distinction vise à encourager la transition vers des technologies plus propres et à soutenir notre engagement envers l'écologie et l'innovation. Nous comptons sur votre compréhension et votre soutien dans cette démarche essentielle pour l'avenir ».Face à cette prétendue déclaration, des internautes s'agacent. L'un deux commente : « Ce sont des fous ! Ils sont payés pour détruire la France en faisant semblant de combattre une menace qui n'existe pas. Pendant combien de temps allez-vous les laisser vous enlever tout ? Ce sont vos pires ennemis ». En réalité, Michel Barnier n'a jamais prononcé ces mots. Hypertrucage généré par l'intelligence artificielleVérification faîte, cette vidéo est un deepfake, un hypertrucage généré par l'intelligence artificielle. Autrement dit, la voix du Premier ministre et le mouvement de ses lèvres ont été modifiés pour lui faire dire n'importe quoi. Si la synchronisation labiale n'est pas parfaite, la voix de Michel Barnier est plutôt bien reproduite.La manipulation est vraiment convaincante, ce qui explique que de nombreux internautes tombent dans le panneau.La vérificationPour vérifier ces images, nous avons commencé par remonter à la source. Nous avons donc revisionné la prise de parole de Michel Barnier, diffusée sur BFM TV le 15 novembre dernier. On y retrouve bien, les mêmes gestes, le même pupitre, mais à aucun moment, Michel Barnier ne parle de la limitation de vitesse sur les autoroutes.À partir de là, on sait qu'il y a eu manipulation. Pour savoir de quel ordre, nous avons passé la vidéo au crible de plusieurs détecteurs d'intelligence artificielle. Les résultats sont sans appel, c'est un deepfake. Des recherches par image inversée montrent que ce deepfake a été fabriqué par un compte parodique sur TikTok. Un nouveau deepfakeParmi ceux qui partagent cette fausse information, on retrouve des comptes complotistes ou d'autres simplement opposés au gouvernement et au président Emmanuel Macron. Ce qui est intéressant, c'est que certains d'entre-eux avaient déjà diffusé un autre deepfake de Michel Barnier en septembre dernier. Là aussi, la voix du Premier ministre avait été manipulée pour lui attribuer, à tort, des mesures chocs, comme l'augmentation du carburant ou du temps de travail. Ces infox sont souvent accompagnées d'appels à la mobilisation.
Accusations de déstabilisation, passes d'armes à la tribune de l'ONU. Les relations entre le Mali et l'Algérie sont particulièrement tendues ces dernières semaines. Dans ce contexte, plusieurs infox sèment le trouble sur les réseaux sociaux. Certains comptes affirment notamment que le Mali viendrait de reconnaître la Kabylie, région montagneuse du nord de l'Algérie, qui a souvent manifesté pour son indépendance. Une fausse information sur un sujet particulièrement sensible pour Alger. La rumeur provient d'une vidéo partagée sur X, Facebook et YouTube ces dernières heures. On y voit un extrait d'une conférence de presse d'un haut gradé malien, suivi des images d'une manifestation en faveur de l'indépendance de la Kabylie.Côté son, une voix, superposée sur les images, affirme « le Mali devrait accueillir, au plus haut sommet de l'État, des représentants du Mouvement pour l'autodétermination de la Kabylie ».Les comptes qui partagent cette vidéo l'assurent, à tort, le Mali viendrait de reconnaître l'indépendance de cette région algérienne. « Le Mali est le premier pays à le faire », se félicite un internaute. Sauf que c'est faux, le Mali ne vient pas de reconnaître l'indépendance de la Kabylie.Des images détournéesVérification faîte, ces images sont sorties de leur contexte, à commencer par la conférence de presse. Grâce à une recherche par image inversée (voir ici comment faire), on sait qu'il s'agit d'un extrait d'une déclaration du capitaine Amadou Haya Sanogo, en mars 2012. Le chef de la junte alertait sur la situation critique au nord du Mali, mais à aucun moment il ne parle de l'Algérie.Concernant les images de manifestation, on les retrouve dans un reportage diffusé sur YouTube en septembre 2022. La scène, que nous avons géolocalisée, se déroule à Barcelone, sur la célèbre avenue du Parallèle.Des militants en faveur de l'indépendance de la Kabylie avait défilé à l'avant d'un cortège le jour de la Diada, la fête nationale de la Catalogne, ce qui explique les nombreux drapeaux catalans visibles sur la vidéo.Une bande son manipuléeCes images datées sont accompagnées d'une bande son, elle aussi, détournée. En effet, la voix que l'on entend n'a rien à voir avec les images. Si nous ne sommes pas parvenus à identifier qui parle exactement, on sait que cette voix lit un communiqué du ministère malien des Affaires étrangères, en date du 25 janvier 2024. Le gouvernement de la transition y dénonce, entre autres, des actes inamicaux de la part des autorités algériennes.En page trois, il est écrit, : « le Gouvernement de la Transition serait curieux de savoir le sentiment des autorités algériennes, si le Mali devrait accueillir, au plus haut sommet de l'État, des représentants du Mouvement pour l'autodétermination de la Kabylie ».Quelqu'un a donc volontairement supprimé la première partie de cette déclaration, « serait curieux de savoir si », une interrogation au conditionnel, pour faire croire, à tort, à un acte concret. On est ainsi face à une infox, avec trois niveaux de manipulation : des images détournées, une bande son superposée et une déclaration tronquée.Des comptes marocains à la manœuvre ?D'après nos recherches, plusieurs comptes marocains ont participé à amplifier la propagation de cette fausse information. Les commentaires sont assez parlants. En référence au Sahara occidental, une internaute marocaine écrit : « ils voulaient diviser notre pays, mais la réponse est finalement venue de chez eux ». Cet affrontement numérique entre le Maroc et l'Algérie est de plus en plus palpable ces derniers mois sur les réseaux sociaux, le tout sur fond de lutte d'influence grandissante au Sahel et au Sahara.
En Israël, Benyamin Netanyahu a limogé ce mardi 5 novembre son ministre de la Défense, Yoav Gallant, remplacé par Israël Katz. Le Premier ministre a justifié son choix par leurs divergences sur les guerres en cours, notamment à Gaza et au Liban. Pour contester cette décision, des milliers de personnes ont manifesté ce mardi à Tel-Aviv. Dans ce contexte, des internautes affirment qu'un coup d'État serait en cours dans le pays. Une infox basée sur des images sorties de leur contexte. La vidéo se déroule de nuit. On y voit une quinzaine de policiers israéliens marcher en formation sur une autoroute. Certains tiennent des extincteurs, d'autres repoussent des manifestants qui les interpellent. Plusieurs journalistes sont présents, appareil photo à la main.Cette scène a été vue plus de 10 millions de fois ces dernières heures, rien que sur X. Ceux qui partagent ces images parlent d'un « coup d'État militaire en cours en Israël ». « Des milliers de soldats israéliens en uniforme marchent vers la résidence de Benyamin Netanyahu et des rumeurs circulent selon lesquelles ils ont l'intention de l'expulser », commente l'un d'eux. Un autre ajoute : « c'est le chaos total à Tel Aviv ».Vérification faîte, cette vidéo ne montre pas un coup d'État en cours à Tel Aviv. Les policiers visibles sur les images ne sont pas en train de se soulever, ni de marcher vers la résidence du Premier ministre. En réalité, ils se rendent simplement sur les lieux d'une manifestation organisée dans la soirée du mardi 5 novembre, par des habitants de Tel Haviv pour protester contre le limogeage de Yoav Gallant. Cette rumeur de coup d'État est donc totalement fausse. Vérification étape par étapePour vérifier ces images, nous avons d'abord cherché à les localiser. Pour ça, nous nous sommes appuyés sur les éléments visuels les plus significatifs : à savoir l'autoroute sur laquelle marchent les policiers, la voie de chemin de fer à côté de la route, et les deux grandes tours visibles en arrière-plan.En longeant l'autoroute 20, l'axe central de Tel Haviv, sur un logiciel de cartographie type Google Maps, on retrouve bien cette même disposition au niveau du quartier Tsamarot Ayalon. Une fois ces images géolocalisées, nous avons cherché à savoir qui les a filmées, et quand. Cette fois-ci, nous avons effectué plusieurs recherches par image inversée (voir ici comment faire) pour trouver la première occurrence de cette vidéo en ligne. Cela nous a permis de la retrouver sur le compte Twitter d'un journaliste du quotidien israélien Haaretz. Il précise en légende : « Des policiers d'Ayalon Sud se déplacent en groupe pour éteindre les incendies avec des extincteurs, suivis de centaines de manifestants ». Cette description des faits est partagée par l'ensemble de la presse israélienne qui a couvert cette manifestation organisée à différents endroits de Tel Haviv. Au total, des milliers de personnes ont bloqué les routes d'Ayalon pendant environ quatre heures et demie. Une quarantaine de personnes ont finalement été arrêtées par la police.Désinformer pour semer le troubleSi on ne sait pas précisément qui est derrière cette fausse information, on sait qu'elle a été poussée par des comptes influents, habitués à diffuser des infox autour de la situation au Proche-Orient. Leur mission consiste à semer le trouble sur ce qu'il se passe réellement et à faire du clic en diffusant des contenus trompeurs et sensationnalistes.
L'élection présidentielle américaine du 5 novembre, est caractérisée par une perte de confiance d'une partie de l'électorat, amplifiée par la diffusion de fausses informations. Ainsi, une nouvelle vidéo a généré des millions de vues ces derniers jours. On y verrait un agent électoral de Pennsylvanie détruire des votes par correspondance favorables à Donald Trump. Une scène fabriquée de toute pièce, conçue, selon Washington, par la propagande du Kremlin qui dément ce samedi être à l'origine de la vidéo. Il s'agit d'une énième tentative destinée à ruiner la confiance des électeurs américains envers le processus démocratique et les institutions de leur pays. Particulièrement ciblés : les soutiens à Donald Trump qui imaginent volontiers que leur candidat est la cible d'un vaste complot destiné à empêcher son élection. La scène est censée se passer dans un bureau électoral de Pennsylvanie où sont collectés des bulletins de votes envoyés par courrier. Afin de tenter de localiser la scène, nous avons fait un arrêt sur image. En regardant les enveloppes avec attention, on distingue l'adresse du destinataire ; on peut lire : « Comté de Bucks ». Nous avons regardé sur une carte, cela se situe bien en Pennsylvanie, un état de l'Est des États-Unis. Dans ce comté vivent environ 650 000 habitants et la Pennsylvanie est un état « indécis » qui pourrait faire pencher l'élection. Dans ce comté de Bucks, le vote par anticipation est autorisé, cependant les règles sont claires : l'ouverture de ces bulletins n'est autorisée que le jour même du scrutin, et pas avant, comme le rappellent nos confrères de France 24.Une manipulation poussée par des complotistes américainsSur cette vidéo, on peut voir un prétendu agent administratif se débarrasser des votes favorables à Trump. Il ouvre les enveloppes, déchire les bulletins républicains et conserve les bulletins démocrates. La vidéo a pour origine la sphère complotiste américaine et devient virale : plusieurs millions de vues, accompagnées de commentaires laissant penser que l'élection est truquée, et que les démocrates sont des tricheurs. La vidéo est une Infox, rien de ce qui apparait à l'image n'est conforme à la réalité. L'enveloppe qui apparait à l'écran n'est pas de la bonne couleur. La bordure de la fausse enveloppe est vert foncé, alors qu'en réalité, elle est vert clair. Nous avons pu procéder à une comparaison, en nous appuyant sur des photos publiées sur la banque d'images Getty Images. L'enveloppe intérieure, de couleur jaune et destinée à garantir la confidentialité du vote, n'est pas scellée, or ça devrait être le cas.Les mains que l'on voit à l'image, ainsi que la voix que l'on entend ne correspondent à aucun employé du bureau électoral précise, dès le 24 octobre, le comté de Bucks dans un communiqué officiel dans lequel il dénonce la diffusion de cette vidéo trompeuse. « Ce type de comportement vise à semer la division et la méfiance envers nos systèmes électoraux ». Les républicains du comté ont également dénoncé une manipulation et une enquête a été ouverte par la justice, comme le révèle notamment la presse locale en ligne.Sur le bureau du directeur du renseignement américain L'ODNI (Office of Director of National Intelligence), le FBI, le bureau fédéral d'enquête et l'agence américaine pour la cybersécurité, signent dès le 25 octobre un communiqué commun, extrêmement clair, pointant la responsabilité de la Russie dans la création et la diffusion de la vidéo.Pour sa part, la cellule Info Vérif de RFI, avait déjà identifié plusieurs comptes connus pour être des vecteurs de la désinformation russe ayant repris cette infox.En septembre, nous évoquions un autre cas au schéma de diffusion très similaire ayant alerté les autorités nord-américaines : une fausse interview d'une prétendue victime d'un accident de la route, impliquant la candidate démocrate Kamala Harris. Le discours, les décors, la victime se présentant en fauteuil roulant, avaient entièrement été fabriqués en vue de perturber la campagne électorale en semant le doute dans la tête des électeurs.
La Côte d'Ivoire est la cible ces derniers jours de plusieurs attaques informationnelles. Fausse couverture de journal, fausse vidéo de coup d'État, faux communiqué de presse, les infox se multiplient sur les réseaux sociaux. Cette désinformation s'attaque principalement au régime d'Alassane Ouattara, mais aussi à la présence militaire française sur place, avec un objectif : déstabiliser le pays. L'exemple le plus marquant de ces récentes attaques informationnelles est une vidéo publiée sur TikTok cette semaine. Elle affirme qu'un « un coup d'État civil vient de tomber en Côte d'Ivoire, Alassane Ouattara renversé au pouvoir ». Évidemment, c'est irréel puisqu'il n'y a pas eu de coup d'État ces derniers jours en Côte d'Ivoire. Malgré ça, cette infox cumule actuellement plus de 5 millions de vues, rien que sur TikTok. Les commentaires montrent que certains internautes tombent dans le panneau.Cette fausse information s'appuie sur des images prétendument filmées en Côte d'Ivoire, mais en réalité, totalement sorties de leur contexte. La vidéo commence par exemple avec des militaires qui brisent la vitre d'un bus avant d'y entrer en force. Une recherche par image inversée (voir ici comment faire) montre qu'il s'agit d'une formation anti-terroriste menée par des militaires sud-coréens en 2023.S'ensuivent les images d'une dizaine de voitures de police poursuivant un pick-up de couleur noire. Vérification faîte, cette scène a été filmée aux États-Unis lors d'une course poursuite en Californie, en 2022.On y retrouve aussi des images venues du Mali ou encore de France, mais pas de Côte d'Ivoire. Le tout est accompagné d'une voix synthétique et d'une musique épique.Une recette simple en apparence, mais malheureusement plutôt efficace selon les statistiques d'audience.Fausse déclaration d'Alassane OuattaraCe faux coup d'État a été accompagné dans le même temps d'une fausse déclaration d'Alassane Ouattara. À en croire une capture d'écran sur les réseaux, le président ivoirien aurait déclaré, dans une interview à Jeune Afrique en mai 2011, : « Je ne dois rien à personne, sauf à la France ». En réalité, la citation originale ne parle pas de la France, mais de la Côte d'Ivoire. « Je ne dois rien à personne, sauf aux Ivoiriens » avait titré l'hebdomadaire. Cette formule a été volontairement modifiée pour décrédibiliser Alassane Ouattara.Faux communiqué de presseLes militaires français présents sur le sol ivoirien sont également ciblés par ces opérations de désinformation. Cette fois, l'infox repose sur un faux communiqué de presse attribué à l'État-major général des armées de la Côte d'Ivoire. Il y est écrit, avec plusieurs fautes d'orthographe grossières, que l'armée française aurait « involontairement attaqué des soldats ivoiriens à Bouaké », ce qui est entièrement faux. Ce document, fabriqué de toutes pièces, a poussé la police ivoirienne à publier un démenti.Un écosystème de comptes sahéliensSi on ne sait pas précisément qui se cache derrière ces opérations de désinformation, nos recherches montrent le rôle joué par un écosystème de comptes domiciliés notamment au Burkina Faso et au Mali. Ces profils diffusent à la fois la propagande des présidents de transition au Sahel, et des fausses informations destinées à déstabiliser les régimes voisins, comme le Bénin et la Côte d'Ivoire.Face à l'intensification de ces attaques informationnelles, les autorités ivoiriennes ont lancé une campagne de sensibilisation contre les infox en ligne. Alors que l'élection présidentielle est prévue d'ici à un an, le scrutin s'annonce d'ores et déjà particulièrement exposé à la désinformation.
Au Liban, la tension est encore montée d'un cran cette semaine entre la Force intérimaire des Nations unies et Israël. La Finul a affirmé ce mercredi 16 octobre qu'un char israélien a tiré sur l'une de ses positions dans le sud du pays. Jusqu'ici, au moins cinq casques bleus ont été blessés par des tirs israéliens. Dans ce contexte, certains assurent, que la force onusienne collaborerait avec le Hezbollah. Un narratif mensonger qui s'appuie sur une image détournée. Tout repose sur une photo activement relayée en ligne ces derniers jours. On y voit un véhicule blindé léger de couleur blanche, avec le logo UN (United nation), caractéristique de la Force intérimaire des Nations unies au Liban. Un militaire au casque bleu est posté sur le toit du blindé. L'élément important, c'est le drapeau jaune et vert du Hezbollah attaché sur la partie arrière gauche du véhicule. Ce cliché fait dire à des internautes que la Finul serait « une organisation criminelle qui aide les terroristes du Hezbollah ». Certains vont même jusqu'à encourager les tirs israéliens sur les positions de la force onusienne. Sauf qu'en réalité, cette photo est totalement sortie de son contexte. Une recherche par image inversée nous a permis de retrouver la première occurrence de cette image en ligne. Elle apparaît le 1ᵉʳ avril 2024 dans une vidéo publiée sur X par un journaliste israélien. Il raconte alors que des habitants de Baraachit, dans le sud du Liban, ont attaqué une patrouille de la Finul qui pénétrait dans un quartier résidentiel. Les assaillants auraient crevé les pneus des blindés avant d'y accrocher un drapeau du Hezbollah.Une version confirmée par la FinulDans un rapport publié le 12 juillet 2024, identifié par nos confrères de TF1, le Conseil de sécurité des Nations Unis fait bien mention d'un incident survenu le 1ᵉʳ avril 2024 dans le nord-est de Baraachit. D'après le compte-rendu, une quarantaine d'individus s'en est pris à une patrouille de la Finul, nécessitant l'intervention de l'armée libanaise pour calmer la situation. D'ailleurs, si on regarde attentivement la photo de départ, on remarque bien un pneu crevé et plusieurs traces d'impact sur le blindé. Cette photo montre donc un véhicule de la Finul attaqué par des sympathisants du Hezbollah, et non la force de l'ONU collaborant avec la milice chiite.La Finul prise pour ciblePlusieurs incidents de ce type ont été signalés ces dernières années. En décembre 2023 par exemple, un casque bleu indonésien de l'ONU avait été blessé lors d'une patrouille. Cette fois aussi, des habitants s'en étaient pris à un convoi pour dénoncer la présence de la Finul qui compte environ 10 000 soldats en provenance d'une quarantaine de pays. Pour rappel, la Finul est chargée de surveiller la fin des hostilités à la suite de la guerre de 2006 entre Israël et le Hezbollah, de confirmer le retrait des forces israéliennes du Sud-Liban et d'aider le gouvernement libanais à rétablir son autorité dans la région.Propagande pro-IsraëlDerrière cette manipulation, on retrouve plusieurs comptes israéliens ou pro-israéliens suffisamment influents pour rendre l'infox virale en quelques heures. Leur but, c'est de dénigrer l'image de la force onusienne à l'international et de demander son départ. Jusqu'ici, l'armée israélienne a demandé à la Finul de se retirer des zones de combat. Une demande catégoriquement refusée par le secrétaire général des Nations unies.
Au moins 14 morts, de centaines de personnes secourues et des millions d'habitations privées d'électricité. Le bilan provisoire est moins lourd que prévu, mais reste considérable en Floride après le passage de l'ouragan Milton. Dans ce contexte, énormément de fausses informations circulent autour de cet événement météorologique. Ce déluge de désinformation est notamment poussé par des influenceurs politiques républicains, à un mois de l'élection présidentielle. Depuis le passage des ouragans Hélène puis Milton sur la Floride aux États-Unis, des comptes très influents diffusent le même message en boucle sur les réseaux sociaux. Ces phénomènes météorologiques ne seraient pas des événements naturels, mais « auraient été volontairement générés par l'homme ». Certains accusent l'armée américaine, quand d'autres pointent du doigt le gouvernement démocrate. Cette théorie du complot cumule des dizaines de millions de vues sur les réseaux sociaux ces derniers jours.Ce narratif s'appuie sur différents documents relayés en ligne, allant des faux témoignages, aux images sorties de leur contexte. Un exemple marquant est une vidéo dans laquelle on voit un inquiétant tapis de nuages noirs, de forme triangulaires, au-dessus d'une plage. Les internautes qui la partagent prétendent qu'elle montrerait des nuages fabriqués artificiellement.Grâce à une recherche par image inversée, on sait pourtant que ces images n'ont rien à voir avec l'ouragan Milton. Cette même vidéo a en effet déjà été diffusée sur Facebook en juin 2021. La légende évoque des nuages au-dessus de la plage de Fort Walton, en Floride.Quant à cette formation nuageuse spectaculaire, il s'agit d'un phénomène tout à fait naturel. Cette structure, baptisée asperitas par les scientifiques, est régulièrement visible en Amérique du Nord.Le projet Haarp, obsession des complotistesAu-delà de diffuser des images sorties de leur contexte, certains évoquent également avec insistance l'utilisation d'un programme de recherche à haute fréquence capable, selon eux, de « manipuler la météo ». Le projet Haarp, c'est son nom, est présenté par des milliers d'internautes comme une « arme météorologique secrète capable de générer des ouragans ». Sauf qu'en réalité, ce programme scientifique américain ne vise pas à manipuler la météo. Il a été lancé il y a plus de trente ans pour étudier l'ionosphère, la couche supérieure de l'atmosphère. Ce projet, porté par d'autres pays, cristallise aujourd'hui tous les fantasmes complotistes à chaque catastrophe naturelle. Plusieurs internautes dénoncent aussi, à tort, l'utilisation de la géo-ingénierie.Instrumentalisation politiqueCes théories complotistes sont poussées par des personnalités politiques de premier plan côté républicain, à l'image de Marjorie Taylor Greene. L'élue de Géorgie a affirmé dans un tweet que le gouvernement fédéral pouvait contrôler la météo. Une façon d'instrumentaliser la catastrophe à moins d'un mois du scrutin présidentiel.Cette stratégie est portée par Donald Trump lui-même. Le candidat républicain a lancé une véritable campagne de désinformation autour de ces ouragans pour s'attaquer à l'administration de sa rivale Kamala Harris. Il a notamment assuré, à tort, que les fonds de soutien aux victimes auraient été détournés pour aider les « immigrés clandestins », ou encore que les Démocrates empêcheraient l'arrivée de l'aide dans les territoires républicains. La multiplication de ces fausses informations a poussé l'Agence fédérale de gestion des urgences (Fema) à démentir ces rumeurs sur son site internet. Le président des États-Unis, Joe Biden, a dénoncé « une propagation irresponsable, dangereuse et continue de désinformation et de mensonges » autour de ces ouragans.Résultat de toute cette désinformation sur le terrain, les fausses informations prennent parfois le dessus sur les dispositifs de secours et les consignes d'évacuation. Dans certaines régions, des résidents ont discuté de la création d'une milice pour se défendre contre l'arrivée des secouristes de l'agence fédérale, rapporte le New York Times. Cette rhétorique électoraliste rend donc la catastrophe encore plus dramatique.
Trois jours après l'attaque massive de missiles lancée par l'Iran contre Israël, les images de cette nouvelle montée des tensions sont partout sur les réseaux sociaux. Dans ce contexte, un flot d'images sorties de leur contexte circule encore activement. Dès les premières minutes de cette attaque, des comptes influents ont diffusé massivement des fausses informations, à tel point qu'il est encore difficile de démêler le vrai du faux. Tout commence au moment même où l'armée israélienne annonce que des missiles viennent d'être tirés depuis l'Iran. Pendant que les sirènes d'alerte retentissent en Israël, une première vidéo devient virale sur les réseaux sociaux. On y voit des dizaines de camions lance-roquettes multiples, parfaitement alignés, à flanc de colline, en train de lancer des centaines de projectiles dans le ciel. Des internautes affirment que ces images impressionnantes montreraient la pluie de missiles lancées par l'Iran en direction d'Israël. Certains vont même jusqu'à dire, à tort, que la télévision iranienne aurait diffusé cette séquence.Sauf que vérification faîte, ces images ne sont pas réelles. Cette vidéo, apparue pour la première fois en ligne sur TikTok en novembre 2023, est tirée d'un jeu vidéo. L'analyse des graphismes et des camions lance-roquettes, des M-77 Oganj de fabrication yougoslave, montre que cette scène est issue d'un jeu de simulation militaire baptisé Wargame : Red Dragon.D'autres images de ce type circulent ces derniers jours. Après que les premiers missiles ont frappé Israël, certains ont diffusé une vidéo censée montrer un avion iranien attaquant Tel Aviv.Mais là encore, cet extrait est issu d'un jeu vidéo. Aucun avion iranien n'a attaqué Israël. Ces images de synthèse sont destinées à faire du clic et à semer la terreur.Benyamin Netanyahu ciblé par les infoxPour faire croire à des scènes de paniques sans précédent en Israël, certains partagent une vidéo dans laquelle on voit, Benyamin Netanyahu, courir dans un couloir. Ceux qui la diffusent affirment qu'elle montre le premier ministre israélien, en panique, en train de se réfugier dans son bunker présidentiel.Sauf qu'une nouvelle fois, c'est faux. La vidéo en question a été diffusée par Benyamin Netanyahu lui-même sur son compte X (ex-Twitter), le 13 décembre 2021. Il courrait alors dans les couloirs de la Knesset pour aller voter, et non pas pour se mettre à l'abri d'une attaque de missiles.Les images de dégâts, le vrai du fauxConcernant l'ampleur des dégâts sur le territoire israélien, une nouvelle fois, parmi les vraies images se cachent énormément de documents sortis de leur contexte. Une vidéo vue plus d' 1 600 000 fois prétend notamment montrer un missile frapper de plein fouet un immeuble résidentiel à Tel-Aviv.Une recherche d'image inversée montre pourtant qu'il s'agit d'un drone ukrainien percutant une tour à Moscou, en 2023. En plus de diffuser ces infox, les mêmes comptes affirment qu'Israël aurait recouvert l'une de ses bases militaires frappées par les Iraniens, avec des faux nuages pour empêcher les satellites de voir les dégâts.Une fausse information vue des millions de fois, démentie par les images satellites publiée ces dernières heures, et qui montre bien des dégâts, notamment sur la base de Nevatim.
La tension ne redescend pas au Proche-Orient. Cinq jours après les premières frappes, l'armée israélienne continue de bombarder le Liban ce vendredi 27 septembre. Parmi les images terribles de ce conflit qui circulent les réseaux sociaux, plusieurs d'entre elles n'ont en réalité rien à voir avec cette guerre. Ces infox virales bouleversent les perceptions du conflit, et participent à semer la panique chez les populations civiles. L'exemple le plus marquant est une vidéo sortie de son contexte, vue plusieurs millions de fois ces derniers jours. Durant les trois premières secondes, on y voit des voitures à l'arrêt, sur un boulevard, sous un ciel illuminé par des centaines de projectiles incandescents de couleur rouges. Une deuxième séquence, plus longue, montre une ville ravagée par les flammes. Côté son, on entend une femme crier et une alarme retentir.Selon les comptes qui partagent, cette vidéo, on retrouve différents narratifs. Certains affirment que ces images montreraient « un incendie provoqué par des roquettes tirées par le Hezbollah sur Haïfa », ville portuaire du nord d'Israël. D'autres, au contraire, évoquent « un bombardement israélien sur le sud du Liban ». Un spectacle pyrotechnique à AlgerGrâce à une recherche par image inversée, on sait que les premières images montrent en réalité un spectacle pyrotechnique, à Alger, le 7 août 2024, à l'occasion du 103ᵉ anniversaire du club de football du Mouloudia d'Alger. Les projectiles rouges qui tombent du ciel sont donc des feux d'artifices lancés par les supporters, et non pas des missiles ou des roquettes.Concernant la deuxième séquence, là aussi, il y a manipulation. Contrairement à ce qu'assurent certains comptes influents, ces images d'une ville en feu n'ont pas été filmées au Liban ou en Israël, mais en Indonésie. Cet incendie a touché, le mois dernier, un marché dans la localité de Benoa Baru, à plus de 9 000 km du Proche-Orient.Quant à la bande son, on ne sait pas d'où elle provient, mais ce qui est certain, c'est qu'elle n'a aucun rapport avec les images.Cette fausse information est partagée la fois par des comptes pro-israéliens et des comptes pro-Hezbollah. Ceux qui parlent d'un bombardement du Hezbollah, se servent de cette vidéo détournée pour justifier les bombardements israéliens au Liban ou pour glorifier l'organisation chiite. À l'opposé, ceux qui parlent de frappes de l'État hébreu, s'en servent pour encenser l'armée israélienne.Une désinformation dangereuseCette désinformation est particulièrement nocive dans un tel contexte. D'abord, car ce type d'images sorties de leur contexte se comptent par dizaines ces derniers jours.Enfin, ces infox sèment le doute sur ce qu'il se passe vraiment, radicalisent les uns et les autres, et participent aussi à occulter les vraies images de cette guerre, malheureusement souvent tout aussi terrifiantes.
En Russie, un important dépôt de munitions a été frappé par une attaque de drone ukrainienne ce mercredi 18 septembre, dans la localité de Toropets, à 380 km au nord de Moscou et à 500 km de la frontière avec l'Ukraine. L'explosion a été si puissante qu'elle a provoqué un tremblement de terre d'une magnitude de 2,8 dans la zone. La vidéo de cette explosion a fait le tour du monde sur les réseaux sociaux, entraînant beaucoup d'interrogations, mais aussi beaucoup de désinformation. Les images filmées de nuit sont impressionnantes. On y voit une énorme boule de feu s'élever à plusieurs dizaines de mètres dans le ciel. Le souffle provoqué par l'explosion principale se fait alors ressentir à plusieurs dizaines de kilomètres aux alentours. Rapidement, un immense nuage en forme de champignon se forme au-dessus de Toropets, où se situe ce dépôt de munitions. Cette vidéo fait dire, à tort, à plusieurs internautes que l'Otan viendrait « de frapper la région russe de Tver à l'aide d'une bombe nucléaire tactique ». Un message, vu plus d'un 1 500 000 fois sur X, parle même de « la troisième guerre mondiale ». Un autre affirme même qu'il s'agit de « la plus grande attaque nucléaire de l'histoire depuis la Seconde Guerre mondiale ».Sauf qu'en réalité, il ne s'agit ni d'une explosion nucléaire, ni d'une « attaque de l'Otan ». Cette explosion est survenue à la suite d'une attaque de drones menée par l'armée ukrainienne. Le jour même, le 18 septembre 2024, le gouverneur de la région russe de Tver, Igor Rudenya, évoquait « une attaque massive de drones » sur Toropets, annonçant dans le même temps l'évacuation partielle de la ville « à cause d'un incendie en cours ». Le bilan officiel fait état de plus d'une dizaine de blessés.Côté ukrainien, un responsable du bureau du renseignement a fait avoir à l'agence Associated Press, que plus de cent drones kamikazes fabriqués en Ukraine ont été utilisés durant cette opération. Un nombre actuellement impossible à vérifier de façon indépendante.Aucune anomalie de radioactivitéCertains internautes parlent aussi de l'explosion possible d'ogives nucléaires russes prétendument stockées dans ce dépôt de munitions. Une nouvelle fois, cette piste est écartée. Grâce aux mesures de radioactivité collectées par le Centre commun de recherche de la surveillance environnementale de la radioactivité de la commission européenne (Eurdep), on sait que les derniers relevés des stations d'Ostaskov et de Novgorod, situées à environ 100 et 200 km du dépôt de munitions, ne montrent absolument aucune anomalie.Or, l'explosion d'ogives nucléaires tactiques aurait provoqué une importante fuite de radiations détectables non seulement dans la région, mais aussi dans les pays voisins.Nuage en champignonSi aucune ogive nucléaire n'a explosé à Toropets, comment expliquer ce nuage en forme de champignon ? C'est simple, toute grosse explosion peut provoquer un nuage de la sorte en raison de la chaleur générée. Concernant le dépôt de munition de Toropets, les analystes en sources ouvertes évoquent la présence possible de 30 000 tonnes de munitions sur site. Enfin, lors de l'explosion du port de Beyrouth en août 2020, le nuage avait aussi pris la forme d'un champignon.À noter aussi que ce n'est pas la première fois que certains parlent, à tort, de l'utilisation d'ogives nucléaires dans la guerre entre la Russie et l'Ukraine. Cette accusation refait régulièrement surface à chaque grosse explosion filmée en Russie. Les comptes de propagande pro-russe l'agitent pour alimenter la peur d'une escalade, faire croire à l'entrée en guerre de l'Otan, mais aussi pour ne pas reconnaître la capacité de frappe des Ukrainiens sur le sol russe.
Il n'y aura pas de nouveau débat entre Kamala Harris et Donald Trump. Le candidat républicain a finalement décliné l'invitation trois jours après son duel face à la vice-présidente. Si les observateurs s'accordent à dire que la candidate démocrate a dominé les échanges, Donald Trump parle lui, d'une « affaire truquée ». Une accusation reprise par ses partisans qui affirment, à tort, que Kamala Harris aurait triché, à l'aide d'écouteurs connectés camouflés en boucles d'oreilles. Les soutiens de Donald Trump en sont persuadés, Kamala Harris aurait été assistée en direct durant son débat face à son rival républicain. « Regardez bien ses boucles d'oreilles. Ce ne sont pas des bijoux, mais des oreillettes connectées », s'insurge un internaute américain. « Voilà donc le vrai secret de sa performance », croit savoir un compte francophone qui rappelle que le port d'oreillettes est interdit durant le débat. Cette rumeur mensongère cumule aujourd'hui plus de 40 millions de vues sur X, Facebook et TikTok.Cette fausse information s'appuie sur un comparatif visuel entre les boucles d'oreilles portées par la candidate démocrate, et un bijou développé par une start-up allemande. Les écouteurs audio Nova H1, c'est leur nom, ressemblent à des boucles d'oreilles classiques avec une perle de nacre sur une monture dorée. Sauf qu'un haut-parleur situé à l'intérieur permet d'écouter de la musique ou de communiquer en toute discrétion. Ce modèle, financé par une cagnotte participative, était vendu en 2021 aux alentours de 300 euros.En réalité, Kamala Harris ne portait pas ces écouteurs discrets lors de son débat face à Donald Trump. En visionnant l'ensemble du débat, on remarque clairement que les boucles d'oreilles portées par Kamala Harris ne correspondent pas au modèle Nova H1. Si on retrouve bien la même perle nacrée, la monture, elle, est différente. L'une se tient en un seul bloc, l'autre a la forme d'un anneau recourbé avec deux branches.La vice-présidente a d'ailleurs déjà porté ces boucles d'oreilles, notamment lors d'un rassemblement en Pennsylvanie et lors d'un concert organisé à la Maison-Blanche. Un site internet de fan de mode, intitulé, What Kamala Wore (ce que portait Kamala en français), a publié un article sur le sujet. Plusieurs photos montrent que ce sont des boucles de la marque Tiffany, et non pas des écouteurs sans fil.Une vieille théorie complotisteÀ l'origine de cette fausse information, on retrouve plusieurs influenceurs d'extrême-droite américains, ouvertement pro-Trump. Ces comptes diffusent régulièrement de la désinformation et des théories complotistes pour dénigrer le camp démocrate. Ce n'est d'ailleurs pas la première fois que cette théorie complotiste circule. En 2020, une campagne de publicité financée par le clan Trump sur les réseaux sociaux, affirmait que Joe Biden avait triché lors de son débat face à Donald Trump grâce à une oreillette sans fil. En 2016, cette théorie ciblait Hillary Clinton lors de son débat face à Donald Trump. En 2012, c'est Barack Obama qui était la cible de ces attaques.À lire aussiÉlections aux États-Unis: l'IA générative comme outil de propagande politiqueSi on remonte encore plus loin, en 2004, George Bush avait, lui aussi, été accusé d'avoir un récepteur audio dissimulé, cette fois, au niveau de l'épaule. Les États-Unis n'ont pas le monopole de cette infox. En 2017, Emmanuel Macron en avait fait les frais après son débat face à Marine Le Pen. Mais à chaque fois, ces affirmations ont été démenties par les faits.
Aux États-Unis, la campagne électorale s'accélère à moins de deux mois du vote. Au coude à coude dans plusieurs états-clés, Donald Trump et Kamala Harris multiplient les meetings. Les deux candidats le savent, l'élection se joue sur le terrain, mais aussi en ligne, sur les réseaux sociaux. Au cœur de cette bataille d'opinion, les contenus fabriqués par l'intelligence artificielle générative se multiplient. Un phénomène qui brouille encore davantage la frontière entre le vrai et le faux. Si vous passez du temps sur les réseaux sociaux, vous avez surement déjà dû voir passer l'une de ces images générées par l'intelligence artificielle. On peut par exemple y voir Donald Trump derrière les barreaux ou Kamala Harris serrant la main de Joseph Staline. On retrouve aussi des vidéos fabriquées via l'IA montrant les deux candidats s'embrasser, ou Donald Trump cambrioler une supérette.La plupart de ces contenus sont facilement identifiables, pour d'autres, c'est parfois plus difficile. Quoi qu'il en soit, ces productions sont devenues de véritables outils de propagande politique. Un temps partagées presque exclusivement par des internautes lambdas, ces fausses informations sont aujourd'hui également diffusées par des candidats et des personnalités de premier plan. Le dernier exemple en date n'est autre qu'Elon Musk.Kamala Harris cible prioritaireLe patron du réseau social X, a publié ce lundi 2 septembre 2024, une image de Kamala Harris portant un uniforme soviétique, faucille et marteau, sur le front. « Kamala promet d'être une dictatrice communiste dès le premier jour. Pouvez-vous croire qu'elle porte cette tenue !? », commente le milliardaire, sans préciser qu'il a utilisé l'intelligence artificielle. C'est un moyen pour lui de faire passer Kamala Harris pour une dangereuse communiste, tout en faisant la promotion indirecte de l'IA générative intégrée à son réseau social et baptisée Grok.À lire aussiNous avons testé Grok, l'IA d'Elon Musk qui favorise la désinformation à travers les imagesCe narratif mensonger d'une candidate communiste a déjà été véhiculé par Donald Trump. Juste avant l'ouverture de la convention démocrate, le candidat républicain avait partagé une image synthétique montrant Kamala Harris tenir un discours sur fond de drapeau communiste. Ces deux infox ont été vues plus de 163 millions de fois, rien que sur X.Climat de défianceL'omniprésence de ces images et de ces vidéos manipulées conduit à une méfiance généralisée. Tout le monde doute de tout, mettant au même niveau le vrai et le faux. Pour s'en rendre compte, il suffit de regarder les commentaires sous chacune des publications des candidats. Quotidiennement, certains dénoncent l'utilisation de l'intelligence artificielle, parfois à raison, mais aussi souvent à tort.Cette défiance a récemment été exploitée par Donald Trump. En effet, l'ex-président a accusé Kamala Harris d'avoir utilisé l'intelligence artificielle pour fabriquer une photo de foule lors de son meeting dans le Michigan. Nous avons vérifié et la photo est bel et bien authentique. Malgré ça, son mensonge circule encore et réapparaît désormais à chaque meeting de la candidate démocrate.« C'est une forme de révisionnisme visuel », analyse le journaliste indépendant et expert de l'IA générative et des manipulations de l'information, Gérald Holubowicz . « Il tente de modifier la perception de la réalité en invoquant le doute, la suspicion et la méfiance, usant des mêmes armes rhétoriques de réalité alternative que sa porte-parole Kellyanne Conway en 2017, au lendemain de son inauguration à Washington. Ce qui est inquiétant, ce n'est pas tant l'exercice, la tentative de corruption des esprits et du récit de campagne, mais bien sur le long terme, la destruction petits bouts par petits bouts d'une réalité commune sur laquelle nous pouvons nous accorder », note-t-il dans sa newsletter Synth.Quelles conséquences sur le vote ?Si la multiplication des contenus générés par l'intelligence artificielle altère le débat public, il ne faut pas pour autant surestimer son impact sur les résultats de l'élection, assurent les experts. Ces contenus sont d'abord noyés dans un immense flot d'informations. À cela s'ajoute la difficulté de cibler un public précis sur réseaux sociaux. Cela rend donc les tentatives de manipulation de masse compliquées.Le comportement électoral est en réalité un phénomène très complexe, dépendant de nombreux facteurs, rappelle un rapport de la MIT Technology Review. Raison pour laquelle, le détournement de l'IA générative ne doit pas faire perdre de vue les autres menaces qui pèsent sur les démocraties.
En Côte d'Ivoire, une rumeur revient avec insistance ces derniers jours sur les réseaux sociaux. Certains affirment, à tort, qu'une attaque terroriste aurait eu lieu ce mercredi 28 août, dans le département de Bouna, dans le nord du pays, à la frontière avec le Burkina Faso. En réalité, aucune attaque de ce genre n'a été recensée dans le pays. Il s'agit là d'une fausse information destinée à dénigrer la Côte d'Ivoire et sa politique dans la région. Tout commence ce mercredi 28 août, aux alentours de 16 h 10, lorsqu'un internaute burkinabè signale sur Facebook « une attaque terroriste à 5 h du matin dans le village de Binguélena, à la frontière avec le Burkina Faso ». Il évoque, sans aucune preuve, une situation difficile avec « plusieurs morts et 31 blessés graves ».Quelques minutes plus tard, le même récit mensonger est partagé par des dizaines de comptes sur Facebook et sur X (ex-Twitter). Certains parlent alors d'une attaque sans précédent ayant causé une « centaine de morts ».Cette fausse information est ensuite repris mot pour mot par d'obscures médias en ligne africain.En réalité pourtant, cette histoire a été inventée de toutes pièces. Les sources gouvernementales, sécuritaires et locales que nous avons contactées sont unanimes, aucune attaque de ce type n'a été recensée en Côte d'Ivoire. C'est d'ailleurs ce que font remarquer plusieurs internautes ivoiriens, dans l'espace commentaire de certaines publications trompeuses, en vain.Photos sorties de leur contexteFace à cette contradiction, certains comptes diffusent une photo censée servir de preuve. On y voit plusieurs combattants armés, à moto, chèche sur la tête, en train d'attaquer un village. Au second plan, une épaisse fumée noire s'échappe dans le ciel, montrant la dureté des combats.Sauf que cette photo est sortie de son contexte. Une recherche d'image inversée nous a permis de retrouver la trace de ce cliché dans un rapport publié par l'ONG Human Rights Watch le 10 février 2020. La légende parle d'un groupe d'islamistes armés au cours d'une attaque contre une base militaire dans le nord du Mali en 2019.Même constat pour une autre photo mise en avant par certains comptes. Cette fois, on y voit trois véhicules blindés de transport de troupes, deux Bastions et un Mamba Mk7.En réalité, cette image est utilisée depuis plus de six ans par la presse nigérienne pour illustrer l'action de ses forces armées.Détourner l'attentionSi on ne peut pas identifier nommément un acteur derrière cette opération de désinformation, on sait que l'infox a été diffusée puis poussée par des comptes maliens et burkinabè. Ces profils, pour la plupart, ont été crées récemment entre 2022 et 2024. Certains cochent toutes les cases d'un faux compte. Quand on s'intéresse à ce qu'ils diffusent, on retrouve presque exclusivement des contenus à la gloire des dirigeants de l'Alliance des États du Sahel. Cette propagande s'accompagne parfois de fausses informations.Au vu de la teneur des messages, l'objectif semble être de dénigrer la politique sécuritaire de la Côte d'Ivoire, en faisant passer le pays pour une zone dangereuse. « Abidjan s'apprête à entrer dans une période trouble qui pourrait encore occasionner des milliers de morts. L'enjeu des élections 2025 est crucial », commente ainsi un internaute. D'autres s'imaginent même « un complot organisé par Alassane Ouattara pour envoyer des soldats français à la frontière ». Cette infox pourrait aussi viser à détourner l'attention face à la dégradation actuelle de la situation sécuritaire au Sahel.
Sur fond de guerre en Ukraine, certains internautes affirment, à tort, qu'un défilé nazi se serait déroulé récemment en Estonie, dans les rues de Valga, à la frontière avec la Lettonie. En réalité, la vidéo publiée sur les réseaux sociaux est sortie de son contexte et montre une reconstitution militaire. Cette fausse information, diffusée par des comptes pro-russes, vise à discréditer l'Estonie et les pays Baltes. Cette vidéo, d'une minute et trois secondes, montre une trentaine de personnes, défilant au pas, sur une route de campagne, au rythme des tambours. Ces hommes et ces femmes, fusil sur l'épaule, portent les uniformes utilisés par l'armée allemande lors de la Seconde Guerre mondiale. Ils sont suivis par plusieurs motos et un semi-chenillé blindé léger, type Sd.Kfz 250, caractéristiques de l'arsenal de Wehrmacht entre 1939 et 1945. Sur le bord de la route, une dizaine de spectateurs prennent des photos et filment le défilé.Les commentaires qui accompagnent cette vidéo parlent, à tort, d'un « défilé nazi, en l'honneur d'une division SS estonienne ». Un autre internaute ajoute : « l'Estonie rend hommage aux SS avec l'uniforme et tout, voilà l'Europe nazie qui ne se dit pas nazie ».Pour savoir ce que montrent réellement ces images, nous avons effectué plusieurs recherches par image inversée. Cela nous a permis de retrouver des photos et des vidéos prises au même endroit au même moment, parfois dans des angles différents, par des spectateurs. Ces témoignages évoquent tous un festival militaire à Valga.Grâce à une requête par mots clés, on retrouve bien la trace de cet événement organisé par le musée de la guerre de Valga les 16 et 17 août dernier. L'établissement, que nous avons contacté, nous a confirmé par mail que cette vidéo a bien été filmée durant le 16ème Festival international d'histoire militaire de la ville.Le plus grand festival militaire de la baltiqueChaque année, des centaines de passionnés se réunissent à Valga durant deux jours pour participer à des conférences, des concerts et des reconstitutions de batailles. Cet été, le thème du festival, était « août 1944 » pour marquer le 80ème anniversaire des batailles sur le sol estonien, entre les Soviétiques et les Allemands. Au total, 220 reconstituteurs de sept pays différents se sont mobilisés.Le moment fort du festival, c'est ce fameux défilé militaire, où étaient notamment représentées l'armée allemande, soviétique et finlandaise. Quelqu'un a donc isolé le passage des uniformes allemands pour faire croire à un défilé nazi. « La vidéo montre les reconstituteurs défiler à travers la ville et, comme l'alignement était composé de l'armée allemande, puis de l'armée rouge, il est facile de l'adapter à son propre récit », explique la directrice adjointe du musée, Anni Marie Adson.Désinformation et propagandeCette infox a d'abord été publiée sur le compte Telegram d'un influenceur ukrainien connu pour ses positions pro-russes, avant d'être poussée sur les réseaux sociaux de premier plan par des comptes en faveur de Moscou. Un schéma de propagation caractéristique de la propagande russe, qui a permis à cette vidéo d'atteindre rapidement le million de vues, rien que sur X.Cette opération de désinformation vise à dénigrer l'Estonie et plus globalement les pays Baltes en présentant leurs citoyens comme des nazis. Ce récit s'inscrit parfaitement dans le narratif officiel du Kremlin. « Le nazisme est devenu la norme non seulement en Ukraine, mais aussi dans les pays Baltes », avait déclaré Vladimir Poutine, le 5 septembre 2023. Une réécriture de l'histoire qui lui a déjà servi de justification pour envahir l'Ukraine.
Dix jours après le début de son incursion dans la région de Koursk, l'armée ukrainienne continue de progresser en territoire russe. Kiev affirme contrôler 1 150 kilomètres carrés de territoire et plus de 82 localités. Si ces chiffres ne sont pas vérifiables de manière indépendante, la Russie est bien confrontée à la plus grande incursion d'une armée étrangère sur son sol depuis la Deuxième Guerre mondiale. Pour sauver la face, la propagande russe multiplie les infox, assurant notamment que des soldats de l'Otan participeraient à cette opération. À en croire plusieurs publications virales sur les réseaux sociaux ces derniers jours, des militaires américains, britanniques, polonais ou encore allemands auraient été vus sur le sol russe, en pleine offensive ukrainienne dans la région de Koursk. Ce narratif s'appuie notamment sur une vidéo dans laquelle on voit des soldats, brassard bleus sur l'épaule, progresser sous le feu ennemi. On les entend alors échanger dans un anglais parfait, autour de la stratégie à adopter. Le compte qui diffuse ces images commente « les médias ne vous montreront jamais ça. Voici la preuve que des terroristes de l'Otan traversent la frontière pour envahir Koursk ».Vérification faîte, ces images ont été détournées. Grâce à une recherche d'image inversée, on sait qu'elles proviennent d'une vidéo publiée sur YouTube le 17 janvier 2023, soit bien avant l'offensive ukrainienne dans la région de Koursk. Cette vidéo, d'une dizaine de minutes, montre en réalité des soldats de la Légion internationale ukrainienne, combattre l'armée russe dans la ville de Petropavlivka, à l'est de Kharkiv, en pleine contre-offensive ukrainienne. De plus, ce ne sont pas des soldats de l'Otan ou des mercenaires, mais des volontaires étrangers intégrés dans la Légion internationale ukrainienne, fondée au début de l'invasion russe. Légalement, rien ne les distingue des militaires ukrainiens.À lire aussiComment la Russie a faussement annoncé la mort de «mercenaires» français en UkraineInstrumentalisation des patchsÀ l'origine de cette fausse information, on retrouve un certain Aussie Cossack. Cet australien, naturalisé russe, est actuellement réfugié au consulat russe de Sydney. Sous le joug d'un mandat d'arrêt pour l'agression d'un homme de 76 ans lors d'un rassemblement de soutien à l'Ukraine, c'est aujourd'hui l'un des principaux relais de la propagande du Kremlin sur les réseaux sociaux.En plus de cette vidéo détournée, il a également publié une photo sur laquelle on voit deux soldats prendre un selfie devant un cadavre. Ces militaires portent un drapeau américain en guise de patch. Ce qui permet à Aussie Cossack d'affirmer, à tort, que « des mercenaires américains auraient été démasqués dans la région russe de Koursk ».Une nouvelle fois, cette image, vue plus d'un million de fois, est sortie de son contexte. On la retrouve dans plusieurs articles de presse ukrainiens en septembre 2022, pour illustrer les combats dans la région de Kharkiv.Un logiciel de reconnaissance faciale nous a permis d'identifier l'un de ces soldats. Il s'appelle Serhii Filimonov. C'est un influenceur d'extrême droite, né en Ukraine, à Kiev en 1994. Il a notamment pris les armes en 2014 au sein du bataillon Azov, avant de commencer une brève carrière d'acteur. Il combat aujourd'hui l'armée russe dans les rangs du célèbre 1ᵉʳ bataillon mécanisé, baptisé « Da Vinci Wolves », au sein de la 59ᵉ brigade d'infanterie motorisée ukrainienne.Sur différentes photos, on le voit aussi régulièrement porter le drapeau indépendantiste tchétchène sur l'épaule droite. Ce qui ne l'empêche pas de rester un soldat ukrainien.
Avec plusieurs milliards de personnes qui suivent la compétition, les Jeux olympiques figurent en tête des événements les plus regardés et les plus médiatisés au monde. Au total, il y a deux fois plus de journalistes accrédités que d'athlètes aux Jeux de Paris. Un coup de projecteur exceptionnel qui n'échappe pas à la désinformation. Pour dénigrer l'image des JO, certains n'hésitent pas à surfer sur cette médiatisation, en usurpant l'identité de médias reconnus. Durant les Jeux olympiques, les médias français, Libération, Le Parisien et Marianne, ont-ils publié un journal avec, en couverture, la photo d'un triathlète en train de vomir ? C'est ce que prétendent, à tort, plusieurs captures d'écran diffusées sur les réseaux sociaux ces dernières semaines Les titres affirment que 24 athlètes auraient « eu besoin de soins médicaux après avoir nagé dans la Seine ». Le logo, la charte graphique, la date, ou encore le code barre laissent penser que ce sont de véritables Unes de journaux. En réalité pourtant, ce sont des contrefaçons.Libération, Marianne et Le Parisien n'ont effectivement jamais publié ces couvertures. Ce sont de simples montages photos, diffusés sous forme de capture d'écran sur les réseaux sociaux. Pour se rendre compte de la supercherie, il suffit de consulter les sites officiels de ces médias.Ce mode opératoire fonctionne. Pour preuve, cette fausse couverture de Libération a été rapidement partagée par des comptes populaires sur des réseaux sociaux de premier plan. Une députée de la France Insoumise, Ersilia Soudais, a même partagé cette fausse information sur X, avant de retirer son post et de s'excuser.Sur le fond aussi, il s'agit d'une infox. Vingt-quatre athlètes n'ont pas eu besoin de soins médicaux après avoir nagé dans la Seine. L'athlète que l'on voit vomir en photo s'appelle Tyler Mislawchuk. Le Canadien a vomi à cause de l'effort qu'il a fourni durant son triathlon et non de la qualité de l'eau de la Seine.Qu'importe, cette image a été activement relayée par certains internautes pour dénigrer l'organisation des JO. S'il y a bien eu des critiques sur la qualité de l'eau, il n'y a, au moment de l'écriture de cet article, aucun cas avéré d'athlètes tombé malade à cause de la pollution et des bactéries présentes dans la Seine.La main russeLes médias français ne sont pas les seules victimes de ces infox usurpant leur identité. Toute la presse internationale est concernée. L'une des dernières contrefaçons en date cible l'agence de presse américaine, Associated Press. Cette fois, c'est un article web qui a été manipulé. Le titre affirme que Thomas Jolly, le directeur artistique de la cérémonie d'ouverture des Jeux, aurait été frappé par la foudre et hospitalisé. Une infox qui peut prêter à sourire, mais qui a été vue plus d'un million de fois ces derniers jours.L'analyse de la propagation en ligne de ces contrefaçons montre qu'elles apparaissent en premier sur des chaînes Telegram russophones. Cet écosystème de comptes diffuse quotidiennement de faux reportages et de faux articles de presse, dans le but de dénigrer l'Ukraine, l'Occident et les Jeux olympiques notamment. Certaines infox deviennent virales tandis que d'autres restent sous les radars. Ce procédé de fabrication est aujourd'hui caractéristique de la propagande russe.À lire aussiLa propagande russe accélère la production de faux reportagesCette usurpation d'identité leur permet de rendre leurs fausses informations plus crédibles, de saturer les services de fact-checking et aussi de semer le doute entre ce qui est vrai et ce qui est faux sur les réseaux sociaux. Raison pour laquelle il faut faire attention à qui partage une information, en privilégiant des sources de confiance.
Les Jeux olympiques n'échappent pas au contexte géopolitique international. Depuis l'automne, le CIO s'efforce de rester à l'écart de la guerre entre Israël et le Hamas à Gaza. Mais sur les réseaux sociaux, des contenus trompeurs et des infox ont fait leur apparition à l'occasion de ces Jeux. Des images sorties de leur contexte pour faire croire à des coups d'éclats médiatiques durant les épreuves afin de soutenir le peuple palestinien ou d'obtenir la libération des otages israéliens. L'image qui a fait le plus parler sur les réseaux est censée montrer des athlètes israéliens en train de lancer un appel depuis le bassin olympique. Soixante-dix millions de vues, rien que sur X. Une photo à la verticale des nageuses israéliennes qui se sont mise dans différentes positions aquatiques pour former le message « bring them home now » : « ramenez-les à la maison maintenant » en référence aux otages encore aux mains du Hamas.Une image de 2023 L'image est l'œuvre du photographe Adam Spiegel. Elle est très esthétique, mais ce cliché a été pris bien avant les Jeux comme l'ont fait remarquer les équipes de fact checkers de la chaîne française TF1. Une simple recherche par image inversée permet d'en retrouver la trace sur Instagram dès le 19 novembre 2023. D'ailleurs, les épreuves de natation artistique par équipe ne commenceront que lundi prochain, le 5 août.Une photo détournée Une autre photo qui circule actuellement sur les réseaux sociaux montre des sportifs égyptiens en kimono, aux deux premières marches d'un podium d'une compétition de karaté. Un athlète israélien, juste à côté, occupe la 3ᵉ place. Les Égyptiens ont déployé un drapeau palestinien en signe de solidarité.Vérification faite, nous avons retrouvé cette image. Elle remonte à 2022, avant la guerre à Gaza, et a été prise lors d'une compétition qui s'est déroulée en Slovénie et pas durant les JO. Pourtant, elle refait surface à partir du 29 juillet 2024, précisément au moment où commençaient les compétions. Ce cliché détourné a cumulé plus de 10 millions de vues sur un seul compte-X pro palestinien. De plus, comme le rappellent nos confrères de France 24, cette photo ne peut pas avoir été prise durant les JO puisque le karaté n'est pas une discipline olympique cette année.L'esprit des JeuxLa charte olympique est très claire. Elle stipule : « qu'aucune sorte de démonstration ou de propagande politique, religieuse ou raciale n'est autorisée dans un lieu, site ou autre emplacement olympique ». Toutefois, on se souvient par exemple du poing levé des athlètes noirs américains sur le podium du 200 m des JO de Mexico en 1968, en pleine lutte contre la discrimination raciale aux États-Unis. Cette image est même considérée comme l'une des manifestations politiques les plus importantes de l'histoire des JO.À y regarder attentivement, durant la cérémonie officielle, on a vu une partie de la délégation palestinienne défiler avec un keffieh sur les épaules. Un symbole national palestinien, mais aussi un symbole de résistance mondialement connu. Cela n'a pas posé de problème, et a été accepté tout comme la chemise du porte-drapeau de la délégation palestinienne, Wassim Abu Sal, sur laquelle étaient brodées des silhouettes d'avions de guerre bombardant des civils.Ceux qui l'ont vu sur les réseaux ont compris le message, mais le boxeur palestinien s'est bien gardé, à cette occasion, de prendre position ouvertement contre la délégation portant les couleurs de l'ennemi et adversaire israélien, ce qui aurait été sanctionné.
À quelques heures de la cérémonie d'ouverture des Jeux olympiques de Paris, un important périmètre de sécurité est en place autour de la Seine. Au total, plus de 45 000 policiers et gendarmes, et 18 000 soldats sont déployés dans la capitale pour sécuriser l'événement. L'espace aérien sera complètement fermé dans un rayon de 150 km autour de Paris. Un dispositif inédit, qui donne lieu à plusieurs fausses informations sur les réseaux sociaux. Des chars de combat ont-ils été déployés dans les rues parisiennes pour sécuriser les Jeux olympiques ? C'est ce qu'affirment, à tort, plusieurs internautes sur les réseaux sociaux ces derniers jours. Leur fausse information s'appuie sur une vidéo vue plus d'un million de fois, rien que sur X (ex-Twitter). On y voit plusieurs véhicules militaires blindés, défilant les uns derrière les autres, en pleine ville, sur une route pavée.Les comptes qui partagent ces images assurent que la scène se déroule à Paris et qu'elle montrerait le dispositif de sécurité mis en place pour sécuriser les Jeux. « Paris est en guerre », « On se croirait au Chili en 1973 à la suite du coup d'État ! », ou encore « Il y a une guerre ou les #JO2024 ? », commentent des internautes.Un défilé militaire à MarseilleEn réalité, cette vidéo n'a pas été filmée à Paris. L'accent de l'homme qui filme et l'architecture des bâtiments visibles en arrière-plan montrent que la scène se déroule à Marseille. En utilisant des services de cartographie en ligne, comme Google Maps, on sait que la scène se déroule sur le Vieux-Port, au niveau du quai des Belges.De plus, ces images n'ont rien à voir avec le dispositif de sécurité des JO puisqu'elles ont été filmées lors du défilé de la fête nationale, le 14 juillet dernier, à Marseille. Parmi les engins militaires visibles figurent : deux engins de reconnaissance de type Jaguar, deux VAB, des véhicules de l'avant blindés et un bulldozer Caterpillar D6K.En consultant les images de l'événement publiées par les différentes unités de l'armée de terre, on sait même que ces véhicules appartiennent au 1ᵉʳ régiment étranger de cavalerie, basé à Carpiagne dans le sud de la France.Ces véhicules militaires ne vont pas être déployés pour sécuriser les Jeux. Ils sont destinés à des missions de combat en terrain de guerre et non à des missions de maintien de l'ordre. Les Jaguars et les véhicules de l'avant blindés, visibles dans la vidéo, n'ont d'ailleurs jamais été déployés dans le cadre de Sentinelle, l'opération antiterroriste menée sur le sol français depuis 2015.Les JO ciblés par la désinformationDerrière cette infox, on retrouve tout un écosystème de comptes X et Telegram déjà largement identifiés comme des vecteurs de désinformation. Après la pandémie de covid-19, l'invasion de l'Ukraine, et la guerre entre Israël et le Hamas, leur fonds de commerce, consiste désormais à critiquer l'organisation des JO.Certains de ces comptes ont relayé la vidéo du cambriolage de la voiture de l'athlète australien, Logan Martin, pour dénoncer l'insécurité dans Paris. En réalité pourtant, l'incident a eu lieu à Bruxelles, en Belgique. Une infox vue plus de 8 millions de fois, reprise quelques heures plus tard par des comptes d'extrême droite et par des chaînes Telegram russophones, toujours dans le but de s'attaquer à l'image de la France et des Jeux de Paris. À lire aussiComment la désinformation pollue l'espace médiatique et berne les chatbots
Retour vendredi 19 juillet sur la tragédie du vol Malaysia Airlines MH17 en Ukraine il y a 10 ans, quand 298 personnes avaient perdu la vie au-dessus de l'Ukraine. Les familles se sont réunies mercredi 17 juillet sur la stèle à la mémoire des victimes à l'aéroport d'Amsterdam. L'avion avait été abattu par un missile russe, mais durant une décennie, Moscou a alimenté les chaînes de TV et les réseaux de fausses informations afin de proposer une « vérité alternative » permettant de disculper la Russie. Les images sont encore dans toutes les mémoires. Les débris blancs rouges et bleus de l'avion de Malaysia dispersés dans un champ de tournesols dans l'est d'Ukraine. L'avion était tombé dans la région du Dombass frappé en plein vol par un missile sol-air « BUK », tiré depuis les zones séparatistes comme allait le prouver par la suite la commission d'enquête.Des images amateurs, postées quelques heures après la catastrophe. En novembre 2022, après un longue enquête, des juges néerlandais ont déclaré les Russes Igor Guirkine, Sergueï Doubinski et l'Ukrainien Leonid Khartchenko coupables de meurtres pour leur implication dans la destruction de l'avion civil. « Nous n'avons pas été impliqués dans l'enquête et notre attitude à l'égard de ces conclusions est donc bien connue » a répété mercredi Dmitri Peskov, porte-parole du Kremlin. En 2014, il faut se souvenir que cette partie de l'Ukraine en guerre, était déjà très difficilement accessible aux médias occidentaux et aux enquêteurs à cause des combats. Cette tragédie, lointaine, au cœur de l'été 2014 a donc été principalement documentée sur les réseaux sociaux, mais avec une vision bien souvent biaisée et des commentaires venant alimenter une véritable usine à infox mise en place par la Russie.Un cas d'école de la désinformation russeLa stratégie de Moscou est désormais bien connue : tout d'abord nier l'évènement : en l'occurrence nier la destruction en plein vol de l'avion de ligne. À l'image de cette stratégie, les autorités russes avaient eu la même attitude lors du massacre de Boutcha en Ukraine en 2022. Ensuite, elles se sont employées à démentir toute implication dans la catastrophe, et enfin, elles ont cherché à accuser l'Ukraine et l'Occident en poussant des théories complotistes.Les spécialistes de la désinformation ont par exemple affirmé que tout avait été mis en scène par l'Ukraine. Ou encore que l'avion de la Malaysia Airlines avait été détruit par un chasseur ukrainien et pas par un missile russe, ou que l'appareil présidentiel de Vladimir Poutine avait été visé alors qu'il passait à proximité. Et que le drame s'expliquait par une méprise des forces armées ukrainiennes, donc que toute cette affaire n'était qu'une manipulation des ukrainiens ou de la CIA. Quelques exemples parmi tant d'autres.Dix ans après, ces théories ressortent sur les réseaux sociaux Ces théories mensongères ont été battues en brèches, par des experts aéronautiques, des « fact-checker », par la commission d'enquête, ceci étant, elles sont tenaces. Ainsi, on a vu réapparaître ces derniers jours une photo satellite truquée, censée montrer un chasseur ukrainien Sukhoi-27 tirant sur le Boeing.Ce montage avait été diffusé en 2014 par la télévision d'État Russe. Après vérifications, le Boeing n'appartient pas à la Malaysia, le type d'avion n'est pas le bon, le missile n'arrive pas du bon côté, le fond de scène a été trouvé sur la plateforme Google Earth. Il n'a pas fallu plus de 48 heures pour s'en rendre compte, mais dix ans après, cela circule toujours. Le service européen d'action extérieure, c'est-à-dire la diplomatie européenne, dans son programme de lutte contre la désinformation, a listé 481 cas d'infox relayés par la Russie sur l'affaire du MH17 depuis 2014.La naissance d'une communauté d'enquêteurs numériquesParallèlement à cette diffusion de fausses informations à grande échelle, on a assisté à l'émergence d'une communauté d'observateurs. Ces derniers ont donné de leur temps pour passer en revue des milliers de documents sonores, vidéos, photographies sur l'affaire du MH17 afin de contribuer à la manifestation de la vérité.L'enquête la plus fréquemment citée en exemple, est celle de Bellingcat un groupe de contributeurs spécialisé dans la recherche en sources ouvertes (open source intelligence en anglais ou OSINT). Dès la fin de l'année 2014, les enquêteurs avaient réussi à identifier les soldats en charge de la mise en œuvre de la batterie anti-aérienne, à localiser le site de tir et à récupérer une vidéo du véhicule lanceur avec un missile.Les enquêteurs internationaux ont conclu qu'il existait de « fortes indications » selon lesquelles le président russe Vladimir Poutine avait approuvé la fourniture du missile qui a abattu l'avion. Moscou a catégoriquement rejeté le verdict du tribunal de 2022, le qualifiant de « politique » et « scandaleux ». La Russie n'a jamais accepté d'extrader les responsables directs de l'attaque et la justice internationale. L'an dernier, les enquêteurs internationaux ont suspendu leurs investigations, estimant qu'il n'y avait pas suffisamment de preuves pour poursuivre davantage de suspects.Avec Louis Champier.
Une énorme pénurie d'essence va-t-elle paralyser la France à partir du 15 juillet ? C'est ce qu'affirment, à tort, plusieurs vidéos publiées sur TikTok ces derniers jours. Pour tromper les internautes, les comptes à l'origine de cette fausse information essayent de se faire passer pour des médias crédibles. Le narratif, les ressemblances visuelles et les dates de publication laissent penser à une action coordonnée avec pour but de faire du clic, mais aussi de créer la panique. « Près de 40 % des stations services fermées », « une hausse de 80 % du prix des carburants », si l'on en croit ces publications TikTok, une pénurie sans précédent va toucher la France. Ces vidéos, au ton volontairement alarmiste, respectent le même procédé de fabrication : un visuel accrocheur avec des images d'illustrations, accompagné d'une voix artificielle et d'une musique dramatique.Ces vidéos se comptent actuellement par dizaine sur les réseaux sociaux. Elles partagent toutes, à quelques mots près, le même narratif : « Alerte France ! Une énorme pénurie de carburant est à venir et les conséquences s'annoncent particulièrement graves. Premier point, les prix vont augmenter En raison de la rareté imminente, les prix du carburant devraient augmenter considérablement. Des sources fiables telles que BFM Business prévoient une hausse d'au moins 80 % des prix. (...) Près de 40 % des stations service en France devront fermer temporairement. En réponse, le gouvernement envisage d'instaurer une loi d'ouverture intermittente pour mieux gérer la crise. Concrètement, les stations service n'ouvriront que certains jours de la semaine, ces jours étant définis à l'avance pour éviter une surcharge des infrastructures disponibles. Cette pénurie de carburant est une crise sans précédent qui exige une planification minutieuse de la part de tous les automobilistes ». Sauf que tout est faux.Pas de risque de pénurie« Cette histoire d'une pénurie imminente est totalement fausse », explique Geoffrey Caillon, coordinateur de la CFDT chez Total Énergies. « Aujourd'hui, on est très serein sur la question de l'approvisionnement de carburant en France. La logistique carburant est calibrée et elle est constituée par un système qui permet d'approvisionner les stations service de manière continue. Des pénuries, on en a connu, mais même celles qu'on a connues, elles n'ont pas eu les conséquences qui sont annoncées dans ce type de fake news. »Les experts du secteur que nous avons contactés affirment également qu'il n'y a pas de risque de pénurie prévu à court terme. Le dernier tableau de bord publié par l'Institut français du pétrole indique, de plus, qu'il n'y a pas de tensions en Europe sur le marché du pétrole.Concernant la hausse annoncée, « de 80 % du prix des carburants », là aussi, il s'agit d'une fausse information. Si le prix du baril de Brent devrait légèrement augmenter dans les prochaines semaines, une augmentation de 80 % des prix du jour au lendemain, sans tension sur le marché pétrolier et sans hausse de taxe, n'est pas imaginable en France. « Le prix d'un litre de carburant est lié à un marché du pétrole. Il est lié à des taxes, notamment en France, où le poids des taxes sur le coût d'un litre de carburant peut représenter jusqu'à 60 % du prix final. Sachant que l'État n'a pas annoncé une hausse des taxes sur les carburants, je ne vois pas comment on pourrait avoir une telle hausse en quelques jours », précise Geoffrey Caillon.Cette infox, montée de toutes pièces, vise donc à pousser, à tort, les automobilistes à aller faire leur plein pour stocker du carburant. Un comportement qui, en cas de demande massive, pourrait provoquer de véritables situations de tension.Un écosystème de comptes à la manœuvreDerrière cette manipulation, on retrouve toute une myriade de comptes TikTok créées très récemment. Pour tromper la vigilance de leur public, ils se font passer pour des médias de confiance. Leur nom, actu_france24, Info Actu TV7 ou Abstract Média, et leur logo sont volontairement trompeurs.Leur production se résume à de courtes vidéos sensationnalistes qui sont souvent des fausses informations. On les reconnait par l'utilisation systématique d'une voix générée par l'intelligence artificielle. Signe que leurs mensonges circulent, l'un de nos auditeurs nous a signalé l'une de ces vidéos cette semaine sur notre groupe WhatsApp, Les Dessous de l'Infox, que vous pouvez rejoindre en envoyant un message au +33 6 08 94 93 05.
En Côte d'Ivoire, un nouveau vaccin antipaludique vient d'être introduit dans le calendrier vaccinal des enfants de moins de cinq ans. Le R21 Matrix-M, sera progressivement déployé dès le 15 juillet 2024, dans l'ensemble du pays. Le ministère de la Santé ivoirien affirme qu'il dispose déjà de plus de 656 000 doses en stock. Ce nouveau vaccin est symbole d'espoir, mais son arrivée sur le sol ivoirien génère aussi beaucoup de désinformation sur les réseaux sociaux. Après le Ghana, le Nigeria, le Burkina Faso et la République Centrafricaine, la Côte d'Ivoire devient le 5ᵉ pays à autoriser l'utilisation du R21 Matrix-M. Ce vaccin, développé par l'Université d'Oxford et le Serum Institute of India, est recommandé par l'Organisation mondiale de la Santé depuis octobre 2023. Le RTS,S ou Mosquirix et ce R21 Matrix-M sont aujourd'hui les seuls vaccins antipaludiques préqualifiés par l'OMS.Les deux agissent contre la même cible, le plasmodium falciparum, le parasite du paludisme le plus meurtrier et prédominant sur le continent africain. Ils doivent être administrés « selon un schéma à quatre doses aux enfants à partir de l'âge de cinq mois. Les programmes de vaccination peuvent choisir d'administrer la première dose à un âge plus tardif ou légèrement plus précoce en fonction de considérations opérationnelles », précise l'OMS. Si le R21 Matrix-M pourrait présenter une meilleure efficacité, à ce stade, cela n'a pas encore été formellement démontré. Les deux vaccins sont donc aujourd'hui considérés comme équivalents.« Une excellente tolérance »Sur les réseaux sociaux, certains internautes assurent, sans en apporter la preuve, que le R21 Matrix-M provoquerait de graves effets secondaires. « C'est totalement faux », répond Marc Thellier, responsable du Centre national de référence du paludisme, à l'Hôpital de la Pitié-Salpêtrière à Paris. « C'est un vaccin qui a été préqualifié par l'OMS. Les essais de la phase 2 et 3 montrent qu'il a une très bonne efficacité, mais également une excellente tolérance. La balance bénéfices/risques est largement positive et c'est pour ça qu'on autorise leur administration dans le cadre de procédures nationales de vaccination. Comme pour chaque vaccin, il y a un très petit nombre de sujets qui peuvent faire des réactions à la vaccination, mais ce n'est rien comparé au bénéfice de son administration à une large population ».Autre argument phare du narratif anti-vaccin, ce R21 Matrix-M serait « inutile dans la lutte contre le paludisme en Afrique ». Là encore, il s'agit d'une fausse information selon Marc Thellier. « On a réussi entre 2000 et 2015 à faire baisser de manière importante le nombre de cas et le nombre de décès. Mais on est en ce moment, en échec, notamment en Afrique, continent qui souffre le plus du paludisme. On essaye donc de trouver des solutions et ce vaccin en est une parmi d'autres ».Les experts insistent, ce vaccin ne vient pas remplacer, mais compléter les mesures déjà en place, comme les distributions de moustiquaires ou le traitement des sites où prolifèrent les moustiques.À lire aussiVaccination contre le paludisme au Cameroun : quand la désinformation s'en mêleL'ombre des théories complotistesÀ l'origine de toutes ces infox, on retrouve des activistes anti-vaccin de longue date, mais aussi des influenceurs bien connus sur le continent. Leur désinformation vaccinale se mêle souvent avec des théories complotistes. Ils avancent par exemple que ce vaccin, financé en partie par la fondation du milliardaire américain Bill Gates, s'inscrirait dans un « plan d'asservissement des populations ».Un récit déconnecté de la réalité. « Les vaccins ne sont pas développés par des individus ou des instituts isolés. C'est un travail collectif qui s'appuie toujours sur les travaux antérieurs. Ce sont des progressions qui se font pas à pas, dans des conditions qui sont très contrôlées, standardisées, et de façon très ouverte. C'est-à-dire qu'on peut librement consulter les données qui sont issues des études qui sont faites autour de ces vaccins. On est donc certain que ce vaccin est efficace, sûr et qu'on peut l'administrer dans un programme de vaccination », rappelle Marc Thellier. Ces études sont, pour la plupart, librement accessibles en ligne.Une désinformation dangereuseCette désinformation vaccinale représente un véritable danger pour la santé publique, regrette Marc Thellier. « La vaccination est une arme très efficace de lutte contre les maladies. C'est démontré au plan scientifique, il n'y a aucun doute. Si on introduit un doute sur l'intérêt de la vaccination, si les pays, finalement, sont contraints à abandonner une solution comme celle-là, ça peut devenir dramatique puisqu'on peut revenir à des épidémies qui étaient contrôlées et qui ne le seraient plus ».
La rumeur a inondé la Toile cette semaine. La France aurait « imprimé des faux billets de francs CFA pour déstabiliser le Mali ». Ces mots, attribués à Assimi Goïta, sont apparus en ligne au lendemain de l'intervention du président de la transition à Sikasso, dans le sud du Mali, samedi dernier. Rapidement, des milliers d'internautes, et des dizaines de médias africains s'en font fait l'écho. En réalité pourtant, il s'agit d'une fausse information. Assimi Goïta a-t-il récemment accusé Paris d'avoir imprimé des faux billets de francs CFA pour nuire à l'économie du Mali ? C'est ce qu'affirment, à tort, des dizaines d'articles de presse et des centaines d'internautes sur les réseaux sociaux ces derniers jours. Ces allégations se basent sur le discours tenu par le président de la transition dans le sud du pays, à Sikasso, le samedi 22 juin 2024. Dans son allocution d'une vingtaine de minutes, en bambara, devant plus de 10 000 personnes, on l'entend évoquer les menaces qui, selon lui, cibleraient directement le Mali. Le terrorisme armé, médiatique et économique sont notamment pointés du doigt.Sur ce dernier point, il déclare « beaucoup de gens ne le savent pas. Cela fait quatre ans que le Mali affronte ce type de terrorisme. Le premier exemple, c'est quand nous avons voulu que nos marchandises passent par le port de la Guinée au moment où nous n'étions pas en phase avec la Cédéao. Quand les autres payaient par exemple 5 000 francs CFA en Guinée, on nous obligeait à payer 15 000 francs CFA. L'objectif était que nos chargeurs se fâchent et refusent que leurs marchandises passent par le port de la Guinée. Ils voulaient nous empêcher d'acheminer nos produits à partir d'un autre pays. Deuxièmement, ils ont fabriqué beaucoup de faux billets. Ils les ont acheminés par voie terrestre deux fois. Mais, grâce à la vigilance de la douane, ces faux billets ont été saisis, ils n'ont pas pu arriver à destination. Ils ont abandonné la voie terrestre pour passer par la voie aérienne à fin d'acheminer toujours ces faux billets en CFA. Encore une fois, la vigilance de la douane a permis leur saisie. Tout cela montre que l'objectif, était d'étouffer l'État, et aussi pousser nos concitoyens dans l'extrême pauvreté. Heureusement que la douane a été vigilante pour y mettre un terme. (...) Mais, je vous le dis, ces manœuvres ne vont pas s'arrêter ».À aucun moment Assimi Goïta ne cite nommément la France dans ces accusations. Ce « ils », utilisé au pluriel, fait référence aux « terroristes économiques » cités plus tôt par le président de la transition. Concrètement, on ne sait pas avec certitude qui il désigne. Ce que l'on sait par contre, c'est que le président de la transition n'évoque pas directement la France, contrairement à ce qu'affirment certains médias et des internautes.Le rôle de SputniknewsCette accusation envers la France provient d'un article de presse publié au lendemain de l'allocution d'Assimi Goïta, par Sputniknews Afrique, l'agence de presse liée au gouvernement russe et interdit dans l'Union européenne depuis février 2022. Le titre est clair, « Goïta accuse Paris d'avoir imprimé de faux billets de francs CFA pour nuire à l'économie du Mali ». Dans la foulée, de nombreux médias africains ont repris tel quel l'article de Sputnik Afrique.Le papier établi aussi un lien avec l'opération « Persil » menée par la France contre la Guinée en 1960. Cette campagne de déstabilisation du régime de Sékou Touré reposait, entre autres, sur la fabrication de faux francs guinéens. Cette comparaison entre la Guinée de 1960 et sa monnaie nationale et le Mali d'aujourd'hui avec sa monnaie partagée par une dizaine d'autres pays ne tient pas. Cette interdépendance monétaire protège le Mali d'une telle opération.À lire aussiLe franc CFA, toute une histoire« C'est complètement impossible de cibler uniquement le Mali dans le cadre actuel. Pourquoi ? Parce que le Mali partage la même monnaie avec un certain nombre de pays en Afrique. Le Mali a des liens commerciaux et financiers assez forts avec ces pays-là. Ce sont des pays intégrés et donc ce sont des vases communicants. Une telle opération provoqueraient obligatoirement des dommages collatéraux dans les autres pays », explique Carles Grekou, économiste au Centre d'études prospectives et d'informations internationales (Cepii).« La France n'aurait absolument aucun intérêt à déstabiliser économiquement le Mali »L'hypothèse d'une opération menée par la France, n'est d'ailleurs pas plus crédible, selon l'expert. « C'est assez difficile de commenter parce que personne n'est cité nommément. Cette rumeur vient se greffer à la propagande faite par les autorités maliennes. Mais pour aller dans cette interprétation-là, la France n'aurait absolument aucun intérêt à déstabiliser économiquement le Mali dans la mesure où il y aurait des répercussions sur les autres pays. Cela mettrait en danger ses intérêts potentiels au Mali, mais aussi ses intérêts dans les autres pays utilisant le franc CFA. Une telle opération n'aurait pas de sens. »« La France tient à préserver le franc CFA et a donc intérêt à crédibiliser cette monnaie », rappelle l'économiste et chercheur sénégalais Demba Moussa Dembelé à nos confrères des Observateurs de France 24. Certains évoquent aussi l'hypothèse de l'implication de la Cédéao. Une piste également rejetée, pour les mêmes raisons, par les experts que nous avons contactés.