Info ou intox ? désormais le mot Infox –validé par l’Académie française– désigne une fausse information, conçue dans le but d’ induire en erreur le public,en particulier sur les réseaux sociaux où les rumeurs se répandent sans filtre. Chaque semaine, RFI épingle une de ces tentatives de manipulation…

Emmanuel Macron s'est rendu en Inde cette semaine pour renforcer le partenariat stratégique entre les deux pays. Les discussions entre Paris et New Delhi ont porté sur l'intelligence artificielle, mais aussi sur la vente possible de plus de cent avions de chasse français Rafale. Un dossier hautement sensible, ciblé par une série de deepfake détournant le visage du président français et du Premier ministre indien, Narendra Modi. Tout commence mardi 17 janvier avec la diffusion sur X (ex-Twitter) d'une vidéo de quarante trois secondes. On voit Emmanuel Macron, drapeaux français en arrière-plan, en pleine déclaration, devant un pupitre décoré avec des fleurs. On pense alors l'entendre parler en anglais. Il semble affirmer que la France ne « pourra pas devenir un partenaire de l'Inde dans le domaine de la défense ». « Nous avons déjà perdu un milliard de dollars sur le marché Rafale en raison de l'inefficacité de l'armée de l'air indienne. Nous ne pouvons pas faire partie d'une organisation défaillante qui ternirait davantage notre réputation ». Ce narratif mensonger fait référence à l'opération militaire Sindoor menée par l'Inde au Pakistan en mai 2025 et où New Delhi aurait perdu au moins un avion Rafale. Un deepfake anglophone En réalité, Emmanuel Macron n'a jamais prononcé ces mots. C'est un deepfake, un hypertrucage généré par intelligence artificielle. Ce type d'outil permet de faire dire n'importe quoi à n'importe qui en quelques clics. La première étape de vérification consiste à identifier l'origine précise de cet extrait. Pour ça, nous avons procédé à plusieurs recherches par image inversée (voir ici comment faire). Cela nous a permis de retrouver la déclaration d'Emmanuel Macron et de Narendra Modi à Bombay, le 17 février 2026. Si on y retrouve bien le même décor, les mêmes gestes, les propos eux, sont totalement différents. L'extrait qui a été manipulé débute à 27'53. D'abord, Emmanuel Macron s'exprime en français et non en anglais. De plus, durant les quinze minutes de son allocution, le président loue un partenariat sans « limites » et en pleine « accélération » avec l'Inde. Il ne parle pas des Rafales, ni ne critique l'armée de l'air indienne. Comptes pro-pakistanais et pro-chinois À l'origine de cette fausse information, on retrouve un compte X anonyme, qui se présente, à tort, comme un lanceur d'alerte. Dans les faits, il publie quotidiennement des deepfake et des infox destinées à dénigrer l'armée indienne et, au contraire, à vanter la puissance du Pakistan. Il a notamment partagé un hypertrucage de Narendra Modi au sujet, une nouvelle fois, des avions français Rafale. Ces infox s'inscrivent dans une vaste opération de désinformation. En effet, depuis la série de bombardements menés par l'armée indienne contre le Pakistan en mai 2025, le Rafale est victime d'une intense campagne de dénigrement dans la région. Derrière tout ça, on retrouve un écosystème de comptes et de médias chinois et pakistanais. Leurs objectifs consistent à ternir la réputation de l'avion fabriquée par Dassault, à promouvoir le matériel de fabrication chinoise et à affaiblir, par la même occasion, le partenariat franco-indien.

Alors que les attentats et les enlèvements se multiplient au Nigéria, les États-Unis renforcent leur lutte antiterroriste dans la région. Dans ce contexte, une infox est apparue sur les réseaux. Selon une vidéo trompeuse, l'organisation terroriste État islamique en Afrique de l'Ouest s'adresserait au président Donald Trump, en le menaçant d'utiliser des armes récupérées en Ukraine pour frapper les intérêts occidentaux. Un faux message qui a soulevé des interrogations sur la toile. Le message dure 52 secondes. Son auteur a tenté de faire croire à une publication officielle du groupe ISWAP. Sur cette vidéo, on distingue cinq hommes en armes. Au premier plan, un combattant le visage enturbanné s'exprime en anglais. Il menace directement Donald Trump, et conseille aux Américains de « ne pas interférer dans le conflit interne au Nigéria ». La séquence est précédée d'une introduction où apparait un logo sur fond noir identique à celui que l'on retrouve sur certaines publications de l'État islamique. Ce montage est destiné à donner du crédit à cette infox. Pour analyser la vidéo, nous avons tout d'abord utilisé un outil de détection d'IA (Hive) afin de savoir si cette séquence a été générée artificiellement. Résultat : selon le logiciel, les images proviennent d'un véritable enregistrement vidéo, peut-être une mise en scène avec des acteurs, mais le son a été fabriqué de toutes pièces. Attention, on sait que les outils employés par la détection des images créées par IA ne sont pas fiables à 100 %. Nous avons donc recherché parallèlement des invraisemblances ou des aberrations graphiques pour nous permettre d'en savoir plus. Visuellement, deux éléments ont attiré notre attention. Plusieurs personnages ont le regard fixe, sans aucun battement de cils durant la totalité de la vidéo. Par ailleurs, le missile portable posé sur l'épaule de l'un des prétendus combattants de l'État islamique, situé à l'arrière-plan, est incomplet. Il manque le poste de tir, c'est-à-dire la poignée et le système de visé. Tel qu'il apparait à l'image, son utilisation est impossible. Pas de missiles Javelin ukrainiens au Nigeria Le tube de missile montré à l'écran, semble identique à ceux des FGM-148 Javelin livrés par les États-Unis à l'Ukraine. C'est un élément central dans cet infox. Pour ses auteurs, c'est une sorte de preuve par l'image de la dispersion de ces armes. Un narratif récurrent. Sauf qu'aucun de ces missiles anti-char trés modernes, n'a été retrouvé au Nigéria. Cependant, on estime que Washington a fourni plus de dix-mille engins de ce type à l'armée Ukrainienne. Sur la piste son, une voix synthétique, enfonce le clou, en anglais, en affirmant que « le groupe islamique a récupéré des missiles Javelin en Ukraine, et qu'ils vont être utilisés contre les infidèles ». En quelques jours, la vidéo a été vue plusieurs millions de fois rien que sur X. Les commentaires fusent. Un utilisateur s'interroge : « Encore combien de missiles perdus, dans la nature ? (...) C'est effrayant, la question est à présent de savoir comment ces missiles sont arrivé là (...) Il est largement temps de rendre des comptes », écrit un autre LÉtatt islamique n'a pas produit cette vidéo Les spécialistes des mouvements djihadistes que nous avons consulté, n'ont pas cru une seconde que cette vidéo provenait de l'État islamique. L'un d'entre eux note sur X : « L'utilisation de deux traductions simultanées en arabe et en anglais est contraire aux pratiques médiatiques de l'organisation terroriste. L'utilisation d'un bandeau blanc pour la traduction ne correspondant pas aux vidéos déjà vérifiées. Enfin, le logo de l'EI est absent dans le coin supérieur droit de l'image ». Un message qui reprend les codes de la désinformation russe À l'écran, la mise en scène est très proches de celle de trois précédentes vidéos, dont nous avions déja parlé ici : à savoir de prétendues menaces jihadistes contre la France en Juillet 2024 juste avant les JO, mais aussi janvier 2025, et septembre 2025. La fausse nouvelle apparue à partir du 30 janvier dernier, a d'abord circulé à bas bruit, avant d'être amplifiée par une poignée de comptes pro-Trump, complotistes ou d'extrême droite principalement sur X, le réseau d'Elon Musk. Selon plusieurs contributeurs, cette infox présente des caractéristiques communes avec l'opéraiton de désinformation russe baptisée STORM 15-16. Cette campagne comporte différents objectifs : décrédibiliser l'Ukraine dénigrer les politiques occidentales, tout en jouant sur les peurs du public autour de sujets comme le terrorisme ou l'immigration. Risque réel de dissémination des armes utilisées en Ukraine Si la vidéo est le fruit d'une mise en scène ou même une création par l'IA, la dispersion des armes employées sur le champ de bataille est une préoccupation des autorités. Ce n'est pas nouveau. Ce fut le cas, en Europe, après les guerres, dans les Balkans dans les années 90, ou encore en Afrique, au Sahel après la guerre civile libyenne qui débuta en 2011. Dans son rapport 2025, Europol, l'agence européenne de lutte contre la grande criminalité internationale et le terrorisme assure qu'il n'y a pas eu pour l'heure de saisies en grande quantité d'armes de contrebande en provenance d'Ukraine mais précise que « des inquiétudes persistent quant à la possibilité de voir ce pays devenir une source importante d'approvisoonement illicite à court et moyen terme ».

Au Cameroun, une vidéo mensongère sème le doute sur Tik Tok. Ce clip prétend montrer, à tort, l'arrivée de plusieurs missiles nucléaires de fabrication russe dans le pays. En réalité, il s'agit de cuves de fermentation destinées à une usine de production de bière, à Bafoussam. Si ces images détournées prêtent à sourire, elles illustrent en réalité un mode opératoire récurrent sur les réseaux sociaux. La vidéo est assez impressionnante. Durant 37 secondes, on voit deux camions gros porteurs transporter deux énormes machines de forme cylindrique. Ce convoi exceptionnel circule sur une route bitumée, sous le regard surpris de quelques passants. La légende parle, à tort, de l'arrivée au Cameroun d'au moins deux « Satan », des missiles balistiques intercontinentaux de fabrication russe. Ces engins de 35 mètres de long sont capables de transporter des ogives nucléaires. Dans les faits, ces images n'ont rien à voir avec des missiles nucléaires. Plusieurs éléments permettent rapidement de douter de cette version. D'abord, ni les Russes ni les Camerounais n'ont communiqué sur une telle livraison. Ce convoi exceptionnel n'est d'ailleurs pas escorté par des véhicules militaires, ce qui est la norme quand on transporte du matériel aussi sensible. Enfin, un missile nucléaire ne serait certainement pas protégé par une simple bâche en plastique et quelques morceaux de bois, comme c'est le cas ici. Des cuves de fermentation inoffensives Pour savoir ce que montre réellement cette vidéo, nous nous sommes intéressés à cette inscription visible sur la partie avant de l'une de ces grosses machines. Il y est écrit SABC. Il s‘agit du nom de la Société Anonyme des Boissons du Cameroun. Nous avons contacté la société qui produit notamment de la bière et des spiritueux. « Les équipements visibles dans la vidéo sont des TOD (Tank Out Door) destinées à notre usine de Bafoussam. Il s'agit de deux cuves de fermentation utilisées dans le cadre normal de notre processus de production », précise l'entreprise qui nous a envoyé plusieurs photos de ces cuves sur le site de Bafoussam. Ces nouveaux tankers sont arrivés à destination le vendredi 30 janvier 2026. Ils permettent de faire de la bière mais certainement pas de fabriquer des missiles. Un mode opératoire en vogue Ce n'est pas la première fois qu'une machine industrielle est présentée, à tort, comme une arme de destruction massive. En novembre 2024, nous avions déjà épinglé une infox similaire à propos d'une prétendue « nouvelle bombe nucléaire russe en cours de fabrication ». En réalité, il s'agissait d'une gigantesque colonne de régénération qui sert au traitement des produits issus du raffinage. À chaque fois, on retrouve une énorme machine de forme cylindrique accompagnée d'une légende racoleuse à coups de bombe nucléaire ou de missiles supersoniques. À en croire les indicateurs de viralité, cette recette fonctionne. Cette fausse information au Cameroun approche par exemple les 2 millions de vues, rien que sur Tik Tok. Il faut dire que le cocktail images impressionnantes et narratif spectaculaire plaît aux algorithmes qui mettent en avant la vidéo, même si celle-ci est mensongère. En règle générale, il vaut mieux se méfier de ces comptes qui affirment repérer des armes nucléaires circulant dans la nature.

En Syrie, les forces gouvernementales mènent depuis début janvier une vaste offensive dans le nord-est du pays. Le président Ahmed al-Charaa cherche à reprendre le contrôle des territoires dirigés par l'Administration autonome du nord et de l'est de la Syrie. Alors qu'un cessez-le-feu entre Damas et les Forces démocratiques syriennes (FDS), à majorité kurde, a été prolongé, la désinformation gagne du terrain. La dernière infox en date cible les FDS et la Croix-Rouge. Tout repose sur une vidéo mensongère diffusée sur les réseaux sociaux en début de semaine. Durant quarante-neuf secondes, on y voit des dizaines de caisses métalliques, remplies d'argent liquide, entassées dans un hangar. Ces boîtes portent le logo du Comité international de la Croix-Rouge (CICR). Les commentaires affirment, à tort, que « les services de renseignement turc et syrien viendraient ainsi de saisir une importante cargaison d'argent liquide en provenance des Émirats arabes unis, à destination des Forces démocratiques syriennes ». En réalité, ces images n'ont rien à voir avec la situation en cours en Syrie. Grâce à une recherche par image inversée, on sait que cette vidéo est ancienne. Elle circule en ligne depuis maintenant plus de huit ans. Nous nous sommes également intéressés à ce texte en arabe visible sur l'une des caisses métalliques. Il y est écrit « Grande Jamahiriya arabe libyenne populaire et socialiste - Tripoli - 15 juillet 2011 ». Il s'agit du nom utilisé par l'État libyen sous le régime de Mouammar Kadhafi. Le CICR dément Cette vidéo est similaire à deux photos publiées dans un rapport de l'ONU en juin 2017. Il y est question de la transition politique en Libye, et de potentiels transferts d'argent dissimulés en Afrique de l'Ouest après la chute du dictateur. On y apprend que ces caisses étaient entreposées dans un hangar à Accra, au Ghana. Sur ces clichés, on retrouve le même sol, les mêmes caisses métalliques, et surtout la même inscription en arabe, que sur cette vidéo. Cette vidéo mensongère avait poussé le Comité international de la Croix-Rouge à réagir. Début 2018, le CICR déclarait, dans un communiqué, qu'il n'avait « absolument rien à voir avec le stockage ou le transport d'argent liquide mentionné dans cette vidéo ». L'organisme dénonçait une « utilisation abusive de son logo » et « une vidéo alimentant de fausses théories du complot ». Une infox à la mode Depuis son apparition en 2018, ce clip refait régulièrement surface dans différents contextes. De l'argent envoyé par l'Union européenne à des combattants ukrainiens, des millions de dollars détournés au Brésil, des billets envoyés par les Américains à Haïti pour encourager la corruption : les narratifs mensongers collés à cette vidéo se comptent par dizaines. Avec très peu d'éléments de contexte, ces images sont faciles à détourner, au gré de l'actualité. Une chose est sûre, elle ne documente pas un transfert d'argent des Émirats arabes unis, à destination des Forces démocratiques syriennes.

Alors que les frappes russes sur les infrastructures énergétiques ukrainiennes se multiplient, les attaques informationnelles se poursuivent aussi sur les réseaux sociaux. Une énième opération de désinformation pro-russe ciblent actuellement l'Ukraine et la France. Cette fausse information, assez complexe, repose sur une affaire de corruption, inventée de toutes pièces. Tout commence avec l'apparition d'une vidéo assez étrange sur les réseaux sociaux le 18 janvier. Il y est question d'un supposé « scandale » autour du projet d'achat de chasseurs français Rafale par l'Ukraine. On y entend une voix robotique, avec un accent très prononcé, affirmer, à tort, que des hauts fonctionnaires et des militaires français et ukrainiens, auraient ainsi « détourné 2 milliards d'euros ». Le major général des armées français et des proches du président Volodymyr Zelensky sont notamment cités. L'infox cumule près de quatre millions de vues, rien que sur X (ex-Twitter). Typosquatting Cette opération de désinformation s'appuie sur une enquête prétendument publiée par le Bureau national anticorruption d'Ukraine (NABU). La vidéo renvoie directement vers une page internet qui se présente comme le site officiel de cet organisme ukrainien. On y retrouve leur logo, leur charte graphique ainsi que des liens vers leurs réseaux sociaux. Dans les faits, cette page internet n'est pas authentique. Si visuellement, tout porte à croire qu'il s'agit du site officiel, c'est en réalité un clone. Le nom de domaine n'est pas correct. L'adresse du vrai site internet commence par nabu.gov.ua. Or, cette copie utilise nabu-gov.com. Ce site miroir a été enregistré le 15 janvier 2026. Il s'agit donc d'une page jetable, dédiée uniquement à cette opération de désinformation. Ce mode opératoire s'appelle le typosquatting. Cette technique consiste à enregistrer des noms de domaine, presque identiques à ceux d'institutions ou de médias reconnus pour tromper et désinformer. Le Bureau national anticorruption d'Ukraine dément Vérification faite, cette prétendue enquête n'existe pas. Ces accusations sont introuvables sur le site officiel du Bureau national anticorruption d'Ukraine. L'organisme a d'ailleurs rapidement démenti cette fausse information, dénonçant une usurpation d'identité. Ce scandale de corruption a été totalement inventé afin de nuire à l'image de Kiev et de Paris, l'un de ses principaux alliés. À l'origine de cette infox, on retrouve un écosystème d'acteurs pro-russe participant régulièrement à ce type d'opération de désinformation. Ces comptes, aux centaines de milliers d'abonnés sur X ou Telegram, servent à viraliser et à blanchir des narratifs mensongers, en français et dans d'autres langues. Grâce à ce réseau, ces infox parviennent souvent à atteindre des millions de vues. Le mode opératoire informationnel Storm-1516 Cette infox s'inscrit dans une vaste campagne de désinformation pro-russe baptisée Storm-1516. Ce n'est pas la première fois qu'on en parle dans cette chronique. Ce mode opératoire informationnel (MOI) prend différentes formes, des faux sites internet, au mise en scène en passant par les hypertrucages générés par intelligence artificielle. À lire aussiLa France ciblée par une nouvelle opération de désinformation russe Ces attaques informationnelles visent à dénigrer l'Ukraine, critiquer les politiques occidentales, mais aussi troubler le débat public en désinformant sur des sujets d'actualité.

Quand l'intelligence artificielle s'empare de la Coupe d'Afrique des Nations. Alors que la finale opposera le Maroc et le Sénégal ce dimanche 18 janvier, à Rabat, la désinformation autour de cette CAN 2025 ne faiblit pas sur les réseaux sociaux. Des centaines de vidéos artificielles ciblent notamment l'arbitrage, et le Maroc, pays hôte de cette 25e édition. Depuis le lancement de cette CAN 2025, les accusations d'un arbitrage maison, en faveur des Lions de l'Atlas, sont alimentées par une vague de contenus mensongers sur les réseaux sociaux. Parmi les exemples les plus marquants, on retrouve une vidéo à propos du 8e de finale remporté 1-0 par le Maroc contre la Tanzanie. Durant dix secondes, on pense y voir, à tort, l'arbitre de la rencontre présenter ses excuses aux supporters tanzaniens. Vérification faite, cette vidéo n'est pas réelle. Ces images, vues plus de 5 millions de fois, ont été entièrement générées par intelligence artificielle. Plusieurs éléments le prouvent, comme cet homme qui ne ressemble pas du tout à Boubou Traoré, l'arbitre malien au sifflet de ce match. On note aussi l'absence de bleu sur les drapeaux tanzaniens, un texte illisible sur le logo de la Fifa, ou encore un public anormalement immobile. Les joueurs pris pour cible Ces infox générées par IA détournent également l'image des joueurs, à commencer par la sélection algérienne éliminée en quart de finale contre le Nigeria sur le score de deux à zéro. Une vidéo prétend montrer un Fennec critiquer violemment l'arbitrage et le Maroc en conférence de presse. Mais là encore, tout a été généré par intelligence artificielle. Le maillot algérien ne correspond pas à la tenue officielle. Le logo de la Confédération africaine de football n'est pas correct. Une économie du faux Ce type de vidéos artificielles se comptent par centaine sur les réseaux sociaux. En effet, nous avons identifié plusieurs comptes TikTok qui diffusent quotidiennement ce genre d'infox. Des interviews d'après-match qui dérapent, des arbitres en pleurs, des coachs giflant leurs joueurs dans les vestiaires : les mises en scène touchent toutes les sélections et tous les acteurs, sur ou en dehors du terrain. Au total, ces vidéos cumulent plus de 50 millions de vues, rien que sur TikTok. Si certaines prêtent à sourire, d'autres visent délibérément à désinformer et à attiser les tensions. Les commentaires montrent que certains supporters se font avoir. Comment détecter l'IA Pour détecter l'usage de l'intelligence artificielle, il faut être attentif aux détails visuels. Les logos, les inscriptions textuelles comportent régulièrement des défauts. Les visages des joueurs ne sont pas ressemblants. Le son aussi est souvent trop lisse, trop parfait. De plus, il ne faut pas oublier l'indicateur temporel. Toutes ces fausses vidéos durent de 5 à 15 secondes. C'est un élément qui peut trahir l'utilisation d'un outil d'intelligence artificielle.

Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l'armée danoise chargée d'assurer la sécurité de ce territoire. Le président américain parle d'une « priorité de sécurité nationale pour les États-Unis » afin de justifier son intention de faire main basse sur le Groenland, ce territoire situé non loin du pôle Nord, entre l'Europe et les États-Unis. Selon Donald Trump, « le Danemark ne fait rien pour la sécurité du Groenland (...) Ils ont seulement ajouté un traineau à chiens », a-t-il affirmé le 4 janvier devant quelques journalistes présents à bord de l'avion présidentiel Air Force One. Visiblement, cette histoire amuse beaucoup le président américain et pourtant, c'est une affaire très sérieuse. Après vérification, ces traineaux appartiennent à une unité spéciale danoise, baptisée patrouille Sirius et rattachée au commandement danois pour l'Arctique. Depuis 2012, ce commandement interarmées assure des missions militaires, des missions de garde-côtes et des interventions en cas de catastrophe, le tout au sein d'une seule organisation. L'unité Sirius est capable de mener des missions de surveillance à longue distance dans ce territoire glacial. Jusqu'alors, la patrouille Sirius disposait de six équipages avec deux hommes et de 11 à 15 chiens. De l'avis des experts, il s'agit du moyen le plus fiable pour opérer en autonomie dans une région du monde où les conditions météo sont extrêmement dures pendant l'hiver. Préoccupations stratégiques Une fois de plus, Donald Trump exagère beaucoup quand il dit « que le Danemark ne fait rien pour la sécurité du Groenland ». Ainsi, la Première ministre danoise Mette Frederiksen a immédiatement dénoncé ces propos en rappelant que Copenhague avait alloué l'an dernier 1,2 milliard d'euros à la sécurité de la région et pas seulement en achetant des traineaux. Mais aussi en se dotant, dans les années à venir, de drones, de navires spécialisés, de radars et d'avions de patrouille maritime tout en passant commande également de 16 chasseurs supplémentaires : des F-35, fabriqués aux États-Unis. Nuire à l'image de l'armée danoise L'armée danoise a été visée par des infox, ou des propos déplacés provenant le plus souvent des sphères pro-russe ou MAGA (Make America Great Again), proches du président Donald Trump. Comme ce compte qui diffuse une vidéo où l'on voit un soldat chuter en tentant de descendre d'un véhicule de transport de troupe. Commentaire moqueur : « Quand l'armée danoise débarque pour stopper l'invasion américaine du Groenland ». Vérification faite, l'image a été détournée. Elle montre des soldats suisses et non des forces spéciales danoises. Cette vidéo sortie de son contexte a été vue plus de deux millions de fois rien que sur ce compte. D'autres vidéos cherchent à tourner au ridicule l'équipement de l'armée danoise, ou laissent supposer que les soldats danois ne seraient pas assez virils. À lire aussiPeut-on contrer les volontés expansionnistes de Donald Trump ? Donald Trump a la mémoire courte Beaucoup d'utilisateurs rappellent que l'armée danoise n'a pas failli à ses engagements, soulignant qu'elle a perdu 44 soldats dans la mission de l'Otan en Afghanistan, aux côtés des États-Unis, dans les années 2010. Durant cette crise politico-diplomatique, les responsables danois ont utilisé les réseaux sociaux (dont le réseau X d'Elon Musk) avec beaucoup d'agilité, afin d'essayer de faire valoir leur point de vue. Sur son compte X, l'ambassadeur du Danemark à Washington conclut : « Le Danemark prend la sécurité dans l'Arctique très au sérieux (...) les États-Unis ont la possibilité d'établir des bases militaires supplémentaires au Groenland en vertu d'un traité datant de 1951. »

En pleine négociation avec les États-Unis, la Russie accuse l'Ukraine d'avoir attaqué une résidence appartenant à Vladimir Poutine. Sans preuves tangibles, l'armée russe évoque un raid de 91 drones. Kiev et ses alliés dénoncent des mensonges destinés à saper les pourparlers diplomatiques en cours. Dans ce contexte, une vidéo générée par intelligence artificielle sème le doute sur les réseaux sociaux. La vidéo a dépassé les 10 millions de vues en seulement vingt-quatre heures. Durant quinze secondes, on y voit deux drones tirer un projectile sur une résidence luxueuse, située en pleine forêt. La toiture prend feu, pendant qu'un véhicule stationné sur le parvis essaye de prendre la fuite. Des éléments visuels comme l'heure, la date ou la mention « REC », poussent à croire, à tort, que ces images auraient été filmées par une caméra de surveillance. Les comptes qui diffusent ce clip parlent d'une « preuve » qui viendrait confirmer le narratif diffusé par le Kremlin. Mais vérification faite, ces images ne sont pas réelles. Cette vidéo a été entièrement générée par intelligence artificielle. Plusieurs incohérences visuelles le prouvent, à l'image de cette voiture qui roule à travers une fontaine et ne fait aucune trace sur la neige. On remarque, de plus, une explosion qui ne provoque aucun dégât, ou encore les secondes de l'horloge qui ne défilent pas dans le bon ordre. Désinformer pour combler le vide D'autres éléments prouvent l'utilisation d'un outil d'intelligence artificielle. Il y a la bande son, anormalement trop parfaite. On se croirait dans un film d'action alors que les micros des caméras de surveillance sont souvent de mauvaise qualité voire inexistants. Enfin, il ne faut pas oublier l'indicateur temporel. Cette vidéo dure précisément quinze secondes. C'est la durée standard permis par certains outils d'IA comme Sora 2 de la start-up américaine Open AI. À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox Derrière cette infox, on retrouve différents comptes influents, habitués à diffuser de la désinformation. Certains sont déjà identifiés comme des vecteurs importants de la propagande du Kremlin. L'auteur de cette infox a profité de la rareté des images liées à cette attaque présumée d'une résidence de Vladimir Poutine, pour viraliser son infox. Une stratégie payante, puisque cette vidéo artificielle cumule plus de 11 millions de vues. Mais contrairement à ce que certains affirment, le Kremlin n'a pas diffusé ce clip sur ses canaux de communication officiels. Aucune preuve tangible À ce stade, Moscou n'a apporté aucune preuve tangible. La vidéo d'un débris de drone diffusé par les autorités russes ne permet en aucun cas de confirmer l'existence de cette supposée attaque. Ces images ont été filmées en gros plan, de nuit, en plein milieu d'une forêt, rendant tout travail de vérification et de géolocalisation impossible. Les experts pointent l'absence d'images amateurs alors que la Russie affirme que 91 drones auraient survolé la région concernée. À ce stade, aucune preuve factuelle ne vient corroborer la version du Kremlin, démentie par Kiev et ses alliés. À lire aussiGuerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles

En guise de mot de l'année 2025, le dictionnaire américain Merriam-Webster a choisi « slop ». Cette expression définit les contenus numériques de mauvaise qualité produits en masse par l'intelligence artificielle. Cette bouillie de photos absurdes, de sons loufoques, ou de vidéos plus ou moins réalistes, inondent les réseaux sociaux. Ces contenus « slop » polluent de plus en plus l'espace numérique, à tel point que le phénomène inquiète. Un chat avec la tête du président américain Donald Trump, une baleine qui mange un ours polaire, des bébés qui parlent comme des adultes. Si vous êtes un utilisateur de TikTok, Facebook, X ou Instagram, vous avez forcément déjà été confronté à du « slop ». Ces contenus, plus ou moins réalistes, sont très populaires sur les réseaux sociaux. Certains cumulent des dizaines voire des centaines de millions de vues. Grâce à leur caractère surréaliste, choquant ou humoristique, ces productions jouent sur nos émotions et attirent l'attention des utilisateurs. Les algorithmes l'ont bien compris, et amplifient donc artificiellement ce type de contenu. Cela aboutit à une saturation de l'espace informationnel sur les réseaux sociaux. Si certaines plateformes proposent des filtres pour échapper au « slop », la plupart surfent sur le phénomène. L'économie du « slop » Derrière ces contenus « slop », on retrouve différents acteurs qui ont saisi l'opportunité pour gagner de la visibilité et monétiser leur audience. Les derniers outils d'IA leur facilitent la tâche puisqu'il n'a jamais été aussi simple de créer ce type de contenus. Une véritable économie s'est donc mise en place autour de ce phénomène. Une vidéo vue près de 20 millions de fois peut vous rapporter, selon la plateforme, plus de 1 000 dollars. En Asie, plusieurs « fermes à slop » ont ainsi vu le jour ces dernières années. Quand le faux prend le dessus Si ça ne fait pas de mal de rigoler devant une vidéo loufoque, certains contenus artificiels posent problème, car ils prennent le dessus sur la réalité. Dans leur guerre au clic, certains producteurs de « slop » adaptent leur contenu à l'actualité et tombent dans la désinformation. C'est particulièrement le cas lors de catastrophes naturelles. Récemment, lors des inondations mortelles au Maroc, des dizaines de vidéos artificielles censées documenter la catastrophe ont circulé sur les réseaux sociaux. Pour le buzz, certains n'hésitent pas à générer des faux témoignages de victimes. Ces infox invisibilisent les vraies images, masquent les messages d'alerte des secours et bouleversent notre rapport à la réalité. Vers une auto-intoxication des IA ? Ces contenus artificiels omniprésents sur les réseaux sociaux pourraient-ils intoxiquer les intelligences artificielles qui les produisent ? C'est le risque pointé par plusieurs experts du numérique. Puisque les intelligences artificielles IA se nourrissent de ce qui circule en ligne, elles pourraient bel et bien finir par s'auto-intoxiquer. À cela s'ajoute aussi la prolifération des faux comptes se faisant passer pour des humains. Reste à savoir si les publics vont finir par se lasser de cette nouvelle esthétique, plus que jamais à la mode sur les réseaux sociaux.

Réunis à Bruxelles, les dirigeants européens ont trouvé ce vendredi 19 décembre un accord pour financer l'effort de guerre de l'Ukraine, à hauteur de 90 milliards d'euros. Dans ce contexte, plusieurs fausses informations ciblent directement l'aide militaire à Kiev. La dernière infox en date, diffusée sur TikTok, s'attaque à la France et à ses avions de chasse. À en croire une série de vidéos mensongères diffusées sur les réseaux sociaux, la Russie aurait récemment « abattu plusieurs aéronefs français remis à Kiev ». La rumeur parle « d'appareils stratégiques livrés en cachette par Emmanuel Macron à Volodymyr Zelensky ». Certains évoquent, sans preuves, la destruction de Rafale, le chasseur polyvalent du constructeur français Dassault. Un narratif repris dans une dizaine de vidéos diffusées sur TikTok et vu plus de deux millions de fois. En réalité, tout est faux, de la livraison secrète de ces appareils à leur destruction au combat. Dans les faits, aucun avion de chasse français n'a été abattu par la Russie en Ukraine. L'armée russe n'a d'ailleurs jamais communiqué sur un tel événement. Aujourd'hui, les seuls avions de chasse fournis à l'Ukraine par la France sont des Mirage 2000. Selon Kiev, ces appareils sont majoritairement engagés dans des missions de défense aérienne pour contrer les vagues de drones et de missiles russes. Quant aux Rafale, la livraison d'appareils à l'Ukraine n'en est qu'au stade des tractations. Un réseau de désinformation Les images que l'on voit dans la vidéo sont toutes sorties de leur contexte. Les différentes séquences sont sans rapport avec la France et ses avions de chasse. L'une montre un char de combat américain Abrams en plein exercice. Une autre documente une patrouille de F-16 polonais en plein vol. À l'origine de cette infox, nous avons identifié un écosystème de comptes TikTok francophones, habitués à diffuser de la désinformation. Au gré de l'actualité internationale, ils diffusent chaque jour des vidéos sensationnalistes avec un titre et des images chocs, le tout accompagné d'une musique angoissante et d'une voix générée par intelligence artificielle. Ces comptes font tout pour se faire passer pour des médias. Leur nom, Info monde, Info Actuality, Info Paris, et leur photo de profil sont volontairement trompeurs. Ce verni cache en réalité un vaste réseau de désinformation. Désinformation et propagande Ces vidéos servent à saturer les réseaux sociaux de contenus trompeurs, souvent à la gloire de la Russie et de son armée. Les comptes à la manœuvre comptabilisent des millions de vues et des centaines de milliers de likes. Cette audience, conséquente, permet de viraliser la propagande du Kremlin et de monétiser des fausses informations produites en quantité industrielle. À lire aussiGuerre en Ukraine: une vague de faux journaux TV alimente la désinformation

Alors que la République démocratique du Congo et le Rwanda ont signé un accord de paix la semaine dernière à Washington, les attaques ont repris dans l'est de la RDC. Le groupe armé AFC/M23, soutenu par Kigali, a investi la ville d'Uvira. Cette intensification des combats s'accompagne d'un regain de désinformation sur les réseaux sociaux, à l'image d'un « deepfake » viral du capitaine burkinabè Ibrahim Traoré. À en croire une vidéo mensongère devenue virale sur les réseaux sociaux ces dernières heures, Ibrahim Traoré aurait longuement critiqué le président rwandais Paul Kagame. Durant plus de cinq minutes, on y voit le chef de l'État burkinabè, béret rouge sur la tête, parler devant un micro. On pense alors l'entendre dire : « Paul Kagame. Aujourd'hui, je parle au nom des millions d'Africains qui n'acceptent plus le sang versé et les mensonges répétés. Aujourd'hui, je ne parle pas seulement à un chef d'État, je parle à celui qui croit pouvoir manipuler les peuples et cacher la vérité derrière des sourires diplomatiques. Goma, Goma, une ville meurtrie, une région martyrisée par des guerres qui ne sont pas neutres. Et pourtant, vous, Kagamé, vous avez choisi d'être partie prenante de cette tragédie ». Les comptes qui partagent ce clip affirment qu'Ibrahim Traoré serait « très en colère contre son homologue rwandais pour son rôle dans la guerre à l'est de la RDC ». Détecter un deepfake En réalité, ce discours a été inventé de toutes pièces. Ibrahim Traoré n'a jamais prononcé ces mots. Nous avons consulté l'ensemble des canaux de communications officiels du pouvoir burkinabè et cette déclaration est introuvable. Il s'agit donc d'un deepfake, un hypertrucage généré par intelligence artificielle. L'image et le son ont été manipulés. Ce type d'outil permet de faire dire n'importe quoi à n'importe qui. En observant attentivement la vidéo, on remarque plusieurs incohérences visuelles. D'abord, la synchronisation entre ses lèvres et les mots qu'il prononce n'est pas parfaite. Il y a parfois un décalage de quelques secondes. De plus, on retrouve ce même défaut au niveau du mouvement de ses paupières. Enfin, il y a cet homme visible derrière Ibrahim Traoré qui ne bouge pas d'un pouce durant toute la déclaration. L'élément le plus parlant reste l'une des mains du capitaine burkinabè qui ne compte pas cinq mais six doigts. Ces anomalies sont difficiles à distinguer sur l'écran d'un smartphone. À lire aussiComment RFI démasque les «deepfake» ? Hypertrucages en série Ce n'est pas la première fois qu'un deepfake d'Ibrahim Traoré devient viral sur les réseaux sociaux. Nous avions déjà épinglé une vidéo similaire en octobre dernier, dans le cadre de l'élection présidentielle au Cameroun. Cette fois, on pensait entendre Ibrahim Traoré critiquer le régime de Paul Biya. Mais, là encore, c'était un deepfake. À lire aussiPrésidentielle au Cameroun: attention à ce deepfake d'Ibrahim Traoré Grâce à une recherche par image inversée, nous avons pu remonter la piste de ce deepfake. Le primo-diffuseur est une chaîne YouTube baptisée Rêves Panafricains. Au gré de l'actualité, ce compte diffuse presque quotidiennement des hypertrucages d'Ibrahim Traoré. On pense l'entendre s'adresser à Donald Trump, Emmanuel Macron, Vladimir Poutine ou encore Kylian Mbappé. En légende de ces vidéos, un texte indique bien que le contenu a été généré numériquement. Un message difficile à trouver et volontairement ignoré par ceux qui partagent ce clip sur les réseaux sociaux. Résultat, ces deepfakes d'Ibrahim Traoré cumulent plusieurs millions de vues.

Dans les Caraïbes, la présence de l'armée américaine depuis plusieurs mois suscite de vives tensions avec le Venezuela. Washington y a déployé des navires de guerre, officiellement pour lutter contre le narcotrafic. De son côté, Caracas dénonce une agression en préparation et multiplie les manœuvres militaires. Si Donald Trump et Nicolás Maduro se sont téléphoné, la situation reste volatile. Une crise à laquelle s'ajoute un flot de désinformation. À en croire plusieurs vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, les États-Unis auraient « déjà déclaré la guerre au Venezuela ». Le clip le plus viral cumule plus de 7 millions de vues. Durant trente secondes, on pense y voir un groupe de soldats vénézuéliens paniqués, en bord de mer. Impuissants, ils observent l'arrivée de plusieurs navires de guerre et d'avions de chasse, prétendument américains. L'un d'eux allume même une fusée de détresse. En réalité, cette vidéo n'est pas réelle. Plusieurs éléments montrent que ces images ont été générées par intelligence artificielle. Visuellement, on remarque plusieurs incohérences. Un objet apparaît sans raison dans la main de l'un des soldats. Un texte étrange, illisible, est inscrit sur la fusée de détresse. De plus, les navires de guerre sont beaucoup trop proches de la côte. Trouver le primo-diffuseur Grâce à une recherche par image inversée (voir ici comment faire) nous avons retrouvé le primo-diffuseur, c'est-à-dire le compte à l'origine de ces images. Il s'agit d'un créateur TikTok, hispanophone, habitué à diffuser des fausses informations. Lui-même indique que cette vidéo a été générée par une IA. Ce message d'avertissement est volontairement ignoré par les comptes qui repartagent sa vidéo. L'indicateur temporel est un autre élément de vérification. En effet, la vidéo est composée de trois séquences de dix secondes chacune, mises bout à bout. C'est la durée standard d'une vidéo générée par les outils d'IA les plus populaires. À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox Un exercice militaire en 2020 Au-delà de ce type de contenus artificiels, nous avons également identifié plusieurs vidéos sorties de leur contexte, à l'image de cet extrait montrant des soldats vénézuéliens, sur le toit d'un immeuble à Caracas. Sous l'œil des journalistes, ils s'entraînent à utiliser des MANPADS, des systèmes portatifs de défense antiaérienne. Ici, ce sont de vieux modèles russes, type Igla 1. Les comptes qui diffusent ces images parlent d'une scène filmée ces dernières semaines. Vérification faite, c'est faux puisque nous avons retrouvé cette même vidéo publiée par des médias hispanophones, il y a plus de cinq ans, en février 2020. C'était dans le cadre d'un exercice militaire baptisé Bouclier bolivarien. Semer la peur Les tensions entre les États-Unis et le Venezuela sont un sujet porteur sur les réseaux sociaux. Avec ces fausses informations, certains cherchent donc, par opportunisme, à surfer sur la crise pour faire des vues et monétiser leur audience. D'autres cherchent véritablement à attiser les tensions en semant le doute et la peur.

En République démocratique du Congo, une vidéo mensongère de Marine Le Pen sème le doute sur les réseaux sociaux. Certains affirment, à tort, qu'elle montrerait la présidente du Rassemblement National critiquer Félix Tshisekedi. Vérification faite, il s'agit là d'une nouvelle infox destinée à dénigrer le président congolais. C'est un de nos auditeurs qui a lancé l'alerte. À en croire cette vidéo, Marine Le Pen aurait récemment pris la parole à propos de la situation politique en République démocratique du Congo. Les images montrent la présidente du Rassemblement National lors d'un discours à l'Assemblée nationale, en France. On pense alors, à tort, l'entendre critiquer le président congolais. Cet extrait, vu plusieurs millions de fois, circule sur TikTok, Facebook, X, YouTube et WhatsApp. Un hypertrucage ultra-réaliste En réalité, Marine Le Pen n'a jamais tenu ces propos. Cette vidéo est un deepfake, un hypertrucage sonore généré par intelligence artificielle. Ce type d'outil permet de faire dire n'importe quoi à n'importe qui en seulement quelques clics. Si l'on regarde bien la vidéo, on remarque que le mouvement de ses lèvres ne colle pas avec l'audio. L'auteur s'est donc contenté de manipuler le son, mais pas l'image. Grâce à une recherche par image inversée, nous avons retrouvé l'origine précise de ces images. Elles sont tirées du discours tenu par Marine Le Pen à l'Assemblée nationale, le 16 octobre 2025. Son parti venait de déposer une motion de censure infructueuse contre le gouvernement de Sébastien Lecornu. Sans surprise, durant les quatorze minutes de prise de parole, la cheffe de file du Rassemblement National n'y évoque à aucun moment la RDC ou son président Félix Tshisekedi. Un mode opératoire à la mode Ce n'est pas la première fois qu'un deepfake d'une personnalité politique française circule en RDC. Au début du mois, nous avions déjà épinglé un hypertrucage d'Éric Zemmour. Cette fois, on pensait voir le président du parti Reconquête critiquer Félix Tshisekedi lors d'une interview sur la chaîne de télévision française LCI. Mais là encore, c'est une infox, Éric Zemmour n'a jamais tenu une telle déclaration. Les images proviennent d'une émission spéciale diffusée sur LCI le 29 octobre dernier, à propos du vote du budget 2026 en France. Durant les trente-cinq minutes d'interview, Éric Zemmour ne parle à aucun moment de Félix Tshisekedi. D'après nos recherches, ces deux infox ont été diffusées par un influenceur congolais, fervent opposant à Félix Tshisekedi. La plupart de ses vidéos sont des deepfake destinés à critiquer le président congolais. Son compte TikTok cumule actuellement plus de 33 millions de j'aime.

Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Le Groupe de soutien à l'islam et aux musulmans lié à Al-Qaïda a annoncé, mardi 18 novembre, un durcissement de l'embargo décrété sur les importations de carburant. Faux communiqués, images sorties de leur contexte, cette crise sécuritaire est particulièrement propice à la désinformation sur les réseaux sociaux. Personne n'échappe à ce flot de désinformation, à commencer par les Forces armées maliennes (Famas). À en croire un communiqué mensonger diffusé cette semaine, les Famas auraient décidé de procéder à « l'instauration du recrutement militaire obligatoire ». Il y est écrit, à tort, que la mesure devrait entrer en vigueur le 1er décembre prochain, et concerner « tous les citoyens maliens âgés de 18 à 45 ans ». Vérification faite, ce communiqué est faux sur le fond, mais aussi sur la forme. En réalité, l'état-major général des Armées n'a jamais publié un tel document. Nous avons consulté l'ensemble des canaux de diffusion officiels liés aux Famas et ce communiqué est introuvable. On note aussi une erreur dès le début du texte avec une lettre en minuscule et non en majuscule comme le veut la règle. Face à la viralité de cette infox, l'armée malienne a publié un démenti, appelant à éviter de relayer ce type de contenus. Le fléau des faux communiqués Ce n'est pas le seul faux communiqué qui circule actuellement au Mali. En effet, nous avons également identifié un autre document mensonger, attribué cette fois au ministère de l'Administration et de la décentralisation. Alors que plusieurs pays ont appelé leurs ressortissants à quitter le Mali ces dernières semaines, ce communiqué affirme que les autorités maliennes auraient, en représailles, mis en place une mesure d'interdiction de territoire à l'encontre de ces ressortissants. Là encore, tout est faux. On remarque déjà plusieurs erreurs au niveau de la charte graphique. Le texte est bizarrement centré au milieu de la page, il n'est pas justifié, comme dans les documents officiels. Il y a aussi des fautes de syntaxe avec des mots manquants. L'élément le plus important, c'est le numéro 78 attribué à ce communiqué. Lorsque l'on cherche le communiqué n°78 sur le site officiel du ministère malien de l'Administration et de la décentralisation, on trouve un communiqué bien différent. Il y est question du glissement de terrain mortel survenu en Guinée, à Manéah et non des ressortissants occidentaux présents au Mali. Des terroristes du Jnim déposent les armes ? Des infox ciblent également les jihadistes du Jnim. Ces derniers jours, plusieurs comptes affirment, à tort, que « 234 terroristes du Groupe de soutien à l'islam et aux musulmans se seraient rendus à l'armée malienne ». Leur infox repose sur une série de photos où l'on voit des terroristes alignés devant leur moto. Dans les faits, ces images proviennent d'une vidéo de propagande montrant des membres du Jnim priant avant l'attaque d'un village dans le sud du Mali. La capture de 234 combattants jihadistes n'est donc pas réelle. L'armée malienne elle-même n'a jamais communiqué sur un tel événement.

Le général nigérien, Abdourahamane Tiani, était cette semaine en tournée dans le pays. À Dosso, dans un discours devant des militaires, il a laissé entendre que la France préparait des opérations de déstabilisation contre le Niger et plus largement contre les états de l'AES. Il a pointé du doigt l'arrivée d'un navire de guerre français dans le port de Cotonou, affirmant, à tort, que ce bateau était venu à plusieurs reprises décharger des soldats français au Bénin. Ce n'est pas la première fois que le chef du Conseil national pour la sauvegarde de la patrie (CNSP) affiche des positions hostiles à la France. Ces dernières années, des accusations mensongères, ont visé la France et l'Europe. Ces narratifs, ont été régulièrement relayés par les médias d'État au Niger. Cette fois-ci, le chef de la junte s'en est pris à la France alors que les relations entre le Bénin et le Niger sont dans l'impasse. Accusations récurrentes Dans son allocution du 8 novembre 2025 à Dosso, il a affirmé : « la volonté de la France à nous déstabiliser, est une vérité, et nous ne cesserons jamais de le dire (...) un porte-hélicoptère qui s'appellerait Tonnerre, a accosté au port autonome de Cotonou, à bord ce sont des milliers de soldats français, et ça doit être le dixième débarquement à travers des portes hélicoptères amphibies ». Après vérification, il apparaît que le général Abdourahmane Tianni s'est saisi d'une information tout à fait officielle, à savoir l'escale d'un navire français au Bénin, pour nourrir un narratif complotiste. Nous avons retrouvé la trace du porte-hélicoptère Tonnerre entre le 5 et 9 novembre dans le Port de Cotonou. La présence de ce bateau a d'ailleurs été annoncée sur la page Facebook de l'ambassade de France au Bénin. Exercices communs dans le golfe de Guinée Joint par RFI, l'état-major français, précise que ce navire participe à la mission de surveillance et de lutte contre la piraterie baptisée « Corymbe » et qu'il sera présent dans la zone du golfe de Guinée jusqu'à décembre prochain. D'ailleurs, le Bénin ne sera pas sa seule escale, puisque jusqu'au 17 novembre, l'équipage du bateau va participer à des exercices avec les marines de 18 pays de la région, du Sénégal à l'Angola, en passant par la Guinée et le Cameroun. La présence de navires de la Marine nationale française dans la région est courante, dans le cadre de Corymbe comme dans le cadre de l'exercice international Grand African Nemo qui se déroule depuis huit ans, donc bien avant l'arrivée de la junte au pouvoir au Niger. Des soldats français par milliers introuvables au Bénin… La capacité maximale d'un porte-hélicoptères comme le « Tonnerre » n'excède pas 900 hommes, et encore pour des opérations relativement courtes. Selon l'armée française, il y a, à bord du navire amphibie, un groupement tactique embarqué avec des véhicules militaires et environ 450 hommes, au total. Rappelons que le PHA est un gros navire. Il s'agit des fameux bateaux de la classe « Mistral » : 20 000 tonnes, 200 mètres de long, donc des bâtiments très visibles et facilement identifiables. En revanche, aucun convoi militaire français, n'a été observé, ni filmé à terre au Bénin, ces derniers temps. Or, on déduit aisément que ces milliers d'hommes ne seraient pas passés inaperçus.

En Ukraine, la situation est très compliquée pour la défense ukrainienne à Pokrovsk. Assiégée par l'armée russe depuis plus d'un an, cette ville en ruine figure comme l'épicentre des combats sur le front est. L'offensive des soldats de Moscou s'intensifie sur le terrain, mais aussi en ligne, à coups d'infox générées par intelligence artificielle. À en croire une série de vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, des milliers de soldats ukrainiens « se seraient rendus à l'armée russe dans la région de Pokrovsk ». L'une d'entre-t-elle montre des dizaines d'hommes, désarmés, abandonnant leur tranchée. Une autre met en scène des centaines de combattants ukrainiens, alignés dans un champ, les mains sur la tête. Ces vidéos cumulent des millions de vues sur X, TikTok et Facebook. Vérification faite, ces clips ne sont pas réels. Ils ont tous ont été générés par Sora 2, le générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT. Plusieurs éléments le prouvent, à commencer par le petit logo Sora, apposé sur les images. Visuellement, on remarque aussi plusieurs incohérences, notamment au niveau des visages et des tenues portées par les soldats. De plus, ces vidéos durent chacune dix secondes. C'est, à ce jour, la durée standard des clips générés par Sora 2. Dans les faits, des milliers de soldats ukrainiens n'ont pas déposé les armes dans la région de Pokrovsk. L'armée russe elle-même n'a jamais communiqué sur un tel événement. À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox De jeunes soldats ukrainiens en pleurs ? Une autre vidéo mensongère censée montrer un soldat ukrainien en pleurs a également fait le tour des réseaux sociaux cette semaine. On y voit un jeune homme, dans un véhicule blindé, demander de l'aide en ukrainien. « J'ai été mobilisé, je me rends à Tchassiv Yar. Aidez-moi. Je ne veux pas mourir. Je n'ai que 23 ans », dit-il, les larmes aux yeux. Les comptes qui diffusent cette vidéo affirment que l'Ukraine forcerait les jeunes à aller à l'abattoir. Sauf qu'une nouvelle fois, tout est faux puisque cette vidéo a aussi été générée via Sora 2. Ce clip provient d'un compte TikTok, récemment supprimé, qui publiait quotidiennement ce type de contenu. C'est un cas particulier, car le visage du jeune homme visible dans ce clip correspond à celui d'un véritable influenceur russe, bel et bien vivant. Quelqu'un a donc détourné son identité. Dans les faits, la conscription en Ukraine ne concerne pas les moins de 25 ans. Désinformer et détourner l'attention Cette campagne de désinformation vise à dénigrer l'armée ukrainienne et affaiblir le soutien occidental à l'Ukraine. L'objectif, c'est aussi de détourner l'attention des difficultés rencontrées par l'armée russe depuis le lancement de son invasion à grande échelle en février 2022.

Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Ce mardi 28 octobre, le groupe terroriste proche d'al-Qaïda a attaqué un nouveau convoi transportant du carburant. Profitant de cette crise sécuritaire, plusieurs infox ciblent actuellement l'armée malienne. Le compte à l'origine de cette opération de désinformation vise à attiser les tensions avec la Mauritanie, dans un contexte diplomatique tendu entre les deux voisins. Tout commence ce mardi 28 octobre, avec la publication d'une vidéo mensongère sur TikTok. On y voit plusieurs jeunes hommes lancer des projectiles sur des militaires. Les soldats répondent par des tirs de sommation. L'affrontement se déroule en ville, sur une route bitumée. La légende affirme, à tort, que « l'armée mauritanienne aurait pris la ville de Tombouctou, détruit une base militaire et tué 200 soldats maliens ». Vérification faite, cette vidéo n'a rien à voir avec le Mali ou la Mauritanie. Cet affrontement a été filmé en Somalie. En réalité, l'armée mauritanienne n'a pas envahi le Mali et les deux pays ne sont pas entrés en guerre. Comme le confirment plusieurs habitants de Tombouctou dans les commentaires, ce récit a été inventé de toutes pièces. Une manifestation à Mogadiscio Grâce à une recherche par image inversée, nous avons retrouvé cette vidéo sur des comptes Facebook basés à Mogadiscio, en Somalie. En nous appuyant sur les éléments visuels les plus marquants, la route, les lampadaires, la végétation, nous avons pu géolocaliser précisément la scène, dans le district de Dayniile, en périphérie de la capitale. Selon la presse locale, des Somaliens manifestaient en septembre dernier contre les expulsions forcées de certains habitants. Opération de désinformation Cette infox s'inscrit dans une véritable opération de désinformation. Nous avons en effet identifié toute une série de contenus diffusant ce même narratif mensonger. Une autre vidéo prétend par exemple montrer des véhicules blindés de l'armée mauritanienne en direction de la ville de Nara, au Mali. Vérification faite, la vidéo a été filmée en Libye, par un soldat de l'Armée nationale libyenne. L'abréviation RIB, peinte sur la portière avant gauche du véhicule, indique qu'il s'agit d'une unité spéciale, chargée de la sécurité des frontières sud de la Libye. Un obscur compte TikTok à la manœuvre Derrière cette désinformation, on retrouve un obscur compte TikTok francophone créé en 2021. La plupart de ces contenus sont des infox faisant croire à un affrontement direct entre Bamako et Nouakchott. Ce récit fictionnel vise à dénigrer l'armée malienne et à attiser les tensions entre les deux voisins. Nous avions déjà épinglé ce profil en décembre 2024, avec une infox similaire. Inactif depuis plusieurs mois, il revient à la charge en exploitant la crise sécuritaire malienne et les récentes tensions diplomatiques avec la Mauritanie. Cet opportunisme lui permet de gagner en visibilité. La stratégie semble payante puisque ses 40 vidéos trompeuses totalisent plus de 24 millions de vues.

Les vidéos de Sora 2, le nouveau générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT, sont partout sur les réseaux sociaux. Tout comme Veo 3 de Google, cet outil permet de transformer un simple texte en un clip ultra-réaliste. Lancée en septembre, l'application est à ce jour uniquement disponible aux États-Unis et au Canada, sur invitation. La cellule Info Vérif de RFI a tout de même pu l'essayer, et le constat est assez inquiétant. La conclusion de notre essai est sans appel, il n'a jamais été aussi simple de produire des deepfakes, des hypertrucages ultra-réalistes. En seulement quelques clics, nous avons pu générer des dizaines de vidéos artificielles sur des sujets humoristiques, un crocodile faisant ses courses par exemple, mais aussi sur des sujets d'actualité beaucoup plus sensibles. Le résultat est bluffant à l'image, mais aussi au niveau du son. Contrairement à la première version, Sora 2 propose un rendu fidèle des gestes, des visages, des mouvements. Pour Marc Faddoul, chercheur en intelligence artificielle, directeur d'AI Forensics, « c'est une des premières fois qu'on arrive à avoir vraiment des vidéos qui font illusion pour la majorité des utilisateurs, donc il est vrai qu'on assiste encore à une nouvelle étape ». Un potentiel énorme de désinformation Ce tournant inquiète les experts de la lutte contre la désinformation. À juste titre puisque ce type d'outil peut rapidement devenir une arme de désinformation massive. Des chercheurs de la société NewsGuard ont ainsi mis Sora à l'épreuve en lui demandant explicitement de générer des infox. Résultat, l'outil accepte dans 80 % des cas de produire du faux sans le moindre message d'avertissement. L'un des seuls garde-fous mis en place par Open AI, c'est la présence d'un petit logo Sora, apposé sur les images qu'il génère. C'est ce que l'on appelle un watermark, une sorte de marque de fabrique. Mais dans les faits, certains parviennent à le supprimer ou à le dissimuler. Cette semaine, une fausse vidéo d'un coup d'État en Espagne a fait des millions de vues sur les réseaux sociaux. Le logo de Sora avait été dissimulé derrière un smiley. Distinguer le vrai du faux Avec le perfectionnement de ce type d'outil, il est de plus en plus difficile, voire parfois impossible, de distinguer visuellement une vraie vidéo d'une vidéo artificielle. Les IA génératives ne commettent presque plus d'erreurs grossières, comme des mains à six doigts ou des yeux perdus dans le vide. Le meilleur conseil, c'est d'abord de faire attention à la durée de la vidéo. Aujourd'hui, Sora permet de générer des vidéos de dix secondes maximum. La qualité visuelle est également limitée, les images sont donc souvent légèrement floues. En cas de doute, analysez bien le contexte, demandez-vous qui partage cette vidéo et cherchez à croiser l'information avec des sources fiables. La guerre des modèles Un autre processus de vérification consiste à utiliser des outils de détection d'IA. Le problème majeur, c'est que les résultats ne sont jamais fiables à 100 %. Marc Faddoul, rappelle que les modèles de vérification progressent toujours moins vite que les modèles de génération : « À partir du moment où vous avez un modèle qui est capable de détecter votre modèle, il suffit d'entraîner votre modèle existant face à ce modèle de détection pour lui apprendre à ne plus se faire détecter. Il y a vraiment un jeu de chat et de la souris qui est inéluctable. C'est donc difficile de penser qu'à terme, on aura une solution de vérification qui sera systématiquement fonctionnelle ».

Après l'élection présidentielle du 12 octobre, les Camerounais attendent toujours la publication des résultats définitifs par le Conseil constitutionnel. Une attente sous tension, alimentée par un flot de fausses informations sur WhatsApp et sur les réseaux sociaux. Notre rédaction est l'une des cibles privilégiées de ces infox. Tout commence le dimanche 12 octobre, quelques heures seulement après la fermeture des bureaux de vote. Le dépouillement vient tout juste de commencer quand de premiers faux résultats provisoires font leur apparition sur les réseaux sociaux. L'exemple le plus marquant et le plus viral est une série de faux articles web portant le logo de RFI. Le but, c'est de faire croire, à tort, que notre rédaction aurait d'ores et déjà publié un article sur le vainqueur de cette élection présidentielle. Ces articles qui circulent sur Facebook, TikTok et WhatsApp n'ont en aucun cas été produits par notre rédaction. Notre logo a été grossièrement détourné, apposé sur un texte inventé de toutes pièces. Nous n'avons jamais affirmé qu'Issa Tchiroma Bakary ou Paul Biya était le vainqueur du scrutin. Dans les faits, RFI ne donne pas de tendances, encore moins de suppositions sur l'issue du scrutin. Nous nous conformons strictement au Code électoral camerounais et attendons donc les résultats définitifs proclamés par le Conseil constitutionnel. L'instance a jusqu'au 26 octobre pour les officialiser. À lire aussiPrésidentielle au Cameroun: l'identité de RFI détournée avant la publication des résultats Un extrait de la Deutsche Welle Au-delà du détournement de notre logo, d'autres modes opératoires sont également utilisés pour usurper l'identité de RFI. Dernier exemple en date ce mercredi 15 octobre avec la publication d'une vidéo mensongère montrant un poste radio filmé dans une voiture. Durant près de cinq minutes, on y entend une voix féminine parler de l'attente des résultats. La journaliste commente les premières tendances du scrutin. Un texte apposé sur ces images assure, à tort, qu'il s'agirait d'un extrait de RFI. Vérification faite, cet extrait est tiré d'un journal radio diffusé par la Deutsche Welle, le lendemain du vote, le 13 octobre, dans son édition de 17 H en temps universel. La tranche d'information d'une heure dans laquelle on retrouve notre extrait est disponible sur la chaîne YouTube de la radiotélévision internationale allemande. À lire aussiPrésidentielle au Cameroun: un extrait de la Deutsche Welle attribué à tort à RFI Semer le trouble Ces opérations de désinformation cherchent à tirer profit de notre crédibilité pour semer le trouble dans un contexte électoral particulièrement sensible. Les auteurs de ces infox essayent de détourner la confiance de nos auditeurs pour rendre leurs fausses informations virales. Une pratique dangereuse et surtout illégale. Si vous avez le moindre doute face à un contenu portant notre logo, le meilleur réflexe, c'est de consulter notre site internet, nos réseaux officiels ou notre application Pure Radio. Si l'information en question n'y figure pas, vous êtes face à une fausse information.

En France, l'instabilité politique perdure. Ce vendredi 10 octobre, Emmanuel Macron doit tenter de trouver une issue à la crise gouvernementale. Ces derniers jours, des appels, au départ du président de la République ont été lancés par une partie de la classe politique. Dans un contexte international tendu avec la Russie, une vidéo affirmant, à tort, qu'Emmanuel Macron a entrepris la construction d'un coûteux bunker de luxe, a totalisé des millions de vues en moins de huit jours. De nombreux utilisateurs des réseaux sociaux, ont émis des doutes dans leurs commentaires dès l'apparition de cette infox. Mais depuis le 1ᵉʳ octobre, sa circulation n'a fait qu'augmenter sur les réseaux sociaux. Il s'agit d'une vidéo de 2 minutes 20 secondes, intitulée : « Macron construit un bunker de 148 millions d'euros au cas d'une 3ᵉ guerre mondiale ». On note déjà une formulation incorrecte, on dirait plutôt : « en cas de guerre » ou « si la 3ᵉ guerre mondiale éclate ». Une voix off, en français, avec un fort accent étranger, détaille, en images, le prétendu projet de bunker présidentiel et dénonce un financement occulte impliquant un proche du président. La vidéo se termine par une courte interview « face caméra » d'un pseudo-ingénieur qui donne quelques détails techniques sur la future construction. Faux site d'information Afin de renforcer la crédibilité de cette vidéo, une source est citée. Ces révélations proviendraient d'une enquête publiée par un obscur site d'information se faisant appeler « Brutinfo.fr » Après vérifications, c'est un site « bidon » créé de toutes pièces, fin septembre. Ce site enregistré chez un hébergeur lituanien n'est plus accessible. Il a été conçu uniquement dans le cadre de la diffusion de cette infox, et son existence a été réduite à quelques jours. Il était destiné à tromper les utilisateurs en se faisant passer pour le média-vidéo « Brut », considéré comme sérieux, et rassemblant une audience significative en France, particulièrement auprès des jeunes. Le site trompeur mélange des infos authentiques et des infox, et publie une galerie de portraits de journalistes connus présentés comme étant les auteurs de l'ensemble des articles. Parmi eux, Benoît Viktine, journaliste au quotidien Le Monde. Il a confirmé à nos confrères de la radio France Info qu'il n'est pas l'auteur de cet article. Son identité a donc été usurpée. Non sans ironie, Benoit Viktine, est l'auteur d'un article authentique, qui parle d'un président retranché dans son bunker, mais il s'agit de celui de Vladimir Poutine, et cela remonte à 2020 durant la crise du Covid-19 ! Ce qui ne fait qu'ajouter à l'ambiguïté. Nous avons retrouvé cet article ici. Acteur ou personnage créé par IA De sérieux doutes pèsent aussi sur l'identité de la personne qui apparait dans la vidéo : un personnage qui répondrait au nom de José Meier et qui travaillerait comme ingénieur, pour une société suisse spécialisée dans les constructions souterraines. Vérifications faites : l'entreprise Oppidum, - cité dans la vidéo -, n'existe plus : elle a été liquidée au printemps dernier. Par ailleurs, le visage de l'ingénieur présente de très fortes similitudes, avec d'autres visages découverts dans le catalogue d'une banque d'image en ligne. Il s'agit de visages créés à l'aide d'un outil d'intelligence artificielle générative et utilisée le plus souvent à des fins commerciales. Comme le fait remarquer le collectif Gnida-Project qui lutte contre la désinformation russe, ce même visage apparait dans une précédente vidéo offensante visant l'épouse du président Macron. Dans cette ancienne vidéo, l'avatar ou le comédien, avait pris l'apparence d'un médecin. À y regarder de près, les traits sont exactement les mêmes, mais la coupe de cheveux diffère. Le visage de l'homme présent dans l'infox sur le prétendu bunker, a été retrouvé dans un grand nombre de portraits, utilisés ou modifiés par le passé, comme le laisse apparaitre une recherche via un outil de reconnaissance faciale. Une fois de plus cela rappelle en partie, le mode opératoire informationnel russe Storm-1516, aussi bien dans la production : en faisant appel à un « hypertrucage » puis en s'appuyant sur un site internet dédié, mais également dans la diffusion : avec toute une série de relais de la propagande russe ou de thèses anti-occidentales. Ces comptes sont chargés d'amplifier la propagation de l'infox. L'agence Viginum qui en France surveille les ingérences numériques étrangères, rappelle que « Le schéma de diffusion de Storm-1516 a évolué au fil du temps. Il se caractérise par la primo-diffusion de contenus par des comptes jetables maîtrisés par les opérateurs, ou via des comptes rémunérés, éventuellement appuyés par le blanchiment du narratif par l'intermédiaire de médias étrangers. Les faux récits sont ensuite amplifiés par un réseau d'acteurs prorusses ou selon d'autres modes opératoires ».

En Côte d'Ivoire, la campagne présidentielle bat son plein. Dans un contexte politique tendu, les Ivoiriens seront appelés aux urnes le 25 octobre 2025. Sur les réseaux sociaux, ce vote n'échappe pas à la désinformation, à tel point qu'il est difficile de distinguer le vrai du faux. Si vous cherchez à vous informer sur l'élection présidentielle en Côte d'Ivoire en parcourant les réseaux sociaux, vous allez très probablement tomber sur des fausses informations. TikTok en est le parfait exemple. Le premier résultat proposé par l'algorithme lorsque nous avons tapé « Côte d'Ivoire » dans la barre de recherche, est une vidéo mensongère affirmant que « l'élection est annulée ». Ce clip évoque, à tort, une décision prise par l'Organisation des Nations unies, face aux « graves irrégularités dans le processus électoral ». En réalité, la présidentielle ivoirienne n'a pas été annulée. Cette vidéo a été fabriquée de toutes pièces pour semer le doute et mettre en cause l'intégrité du scrutin. Laurent Gbagbo et Vladimir Poutine Au-delà de la sincérité du scrutin, certaines infox ciblent directement certaines figures politiques ivoiriennes. À commencer par l'ancien chef de l'État, Laurent Gbagbo. D'après une vidéo mensongère diffusée sur TikTok, le leader du Parti des peuples africains-Côte d'Ivoire (PPA-CI), dont la candidature a été rejetée par le Conseil constitutionnel, aurait reçu le soutien de Vladimir Poutine. Ce clip affirme, à tort, que le président russe aurait menacé de lourdes conséquences si Laurent Gbagbo n'apparaissait pas sur la liste électorale. Sauf qu'une nouvelle fois, tout est faux. Vladimir Poutine n'a en réalité jamais tenu une telle déclaration. Pour le savoir, nous avons consulté l'ensemble des canaux de communication officiels du Kremlin. Cette citation, introuvable, a été inventée de toutes pièces afin d'influencer l'opinion publique ivoirienne. Un mode opératoire en pleine expansion Ces deux infox utilisent le même mode opératoire, avec une recette de fabrication presque millimétrée. Une voix, générée par intelligence artificielle, prétend qu'une annonce très importante vient de tomber. Le commentaire, robotique, est accompagné d'une musique angoissante. Côté visuel, des images d'illustrations sorties de leur contexte défilent dans un rythme soutenu. Le but de ces produits sensationnels, c'est de capter l'attention des utilisateurs et de désinformer en jouant sur leurs émotions. Ce mode opératoire est omniprésent sur TikTok, en Afrique, mais aussi en Europe. Des comptes anonymes aux noms trompeurs Derrière ses fausses informations, on retrouve un véritable écosystème de comptes anonymes dédiés à la production de ces contenus trompeurs. Certains cherchent principalement à faire des vues pour monétiser leur audience. D'autres, au contraire, semblent vouloir désinformer massivement en ciblant certains pays, comme c'est le cas de la Côte d'Ivoire. Le meilleur conseil pour ne pas se faire avoir, c'est de se méfier fortement de tous ces contenus comportant une voix artificielle. Cela doit devenir un signal d'alerte. Attention aussi, certains tentent de se faire passer pour des médias avec des noms volontairement trompeurs, comme Info+ ou Live News. Alors, en cas de doute, pensez à consulter des sources d'informations fiables.

En Moldavie, les électeurs sont appelés aux urnes ce dimanche 28 septembre pour les élections législatives. Le scrutin s'annonce déterminant pour l'avenir de cette ex-république soviétique, tiraillée entre l'Europe et la Russie. Pour faire valoir ses intérêts, Moscou a intensifié sa guerre de l'information dans le pays. Dernier exemple en date cette semaine, avec une nouvelle opération de désinformation russe ciblant la Moldavie et la France. À en croire une vidéo mensongère devenue virale sur les réseaux sociaux ces dernières heures, la France serait sur le point de « transférer plusieurs tonnes de déchets toxiques en Moldavie ». Cette fausse information évoque un prétendu accord trouvé entre Maia Sandu et Emmanuel Macron lors de leur rencontre en août dernier. En réalité, tout est faux. Paris ne va pas transférer ses déchets toxiques en Moldavie. Cette infox évoque les 42 000 tonnes de déchets actuellement stockés sur le site de Stocamine, en France, dans le Haut-Rhin. Nous avons contacté la société des Mines de Potasse d'Alsace (MDPA), responsable du site. Sa directrice, Céline Schumpp, confirme que cette infox a été inventée de toutes pièces. IA et images décontextualisées Cette vidéo est fausse sur le fond, mais aussi sur la forme. Côté son, la voix anglophone, présentée comme celle d'un journaliste, a été générée par intelligence artificielle (IA). L'intonation et le rythme ne sont pas naturels. Côté visuel, des images d'illustration défilent durant deux minutes et 18 secondes. On retrouve notamment un extrait d'interview du géologue suisse Marcos Buser. Ce passage est sorti de son contexte. Grâce à une recherche par image inversée, on sait qu'il a été diffusé sur France 24 en juin 2025. La Moldavie n'est jamais citée durant les dix minutes d'entretien. Le bandeau textuel a été falsifié. On retrouve également une capture d'écran d'un article publié le 18 juin 2025 par la rédaction anglophone de RFI. Comme pour l'interview de nos confrères de France 24, l'article en question n'évoque à aucun moment la Moldavie. Un mode opératoire informationnel russe Ce n'est pas la première fois qu'un tel narratif circule sur les réseaux sociaux. En juillet dernier, une vidéo similaire affirmait, à tort, que la France envoyait secrètement des déchets d'uranium en Arménie. Là aussi, tout était faux. Le mode opératoire et le narratif trahissent une opération semblable. En se penchant sur la circulation de cette nouvelle vidéo ciblant la Moldavie et la France, nous avons identifié un schéma de diffusion identique. Cette infox est apparue pour la première fois, le 23 septembre 2025, sur un obscur site internet. Le nom de domaine, gbreporter.com, a été enregistré seulement deux jours auparavant. Cela indique que ce site assure le rôle de primo-diffuseur, de premier vecteur de diffusion de l'infox. Élément important, tous les articles présents sur ce site ont été générés par IA. Tous, sauf celui concernant la France et la Moldavie. Une fois en ligne, cette vidéo mensongère a été blanchie et diffusée par un écosystème de comptes habitué à diffuser ce type d'infox. Des acteurs russes à la manœuvre ? Les caractéristiques techniques, le schéma de diffusion ainsi que le narratif, correspondent parfaitement au mode opératoire informationnel russe baptisé Storm-1516. Cette campagne de désinformation protéiforme s'attaque principalement à l'Ukraine, mais aussi à ses voisins européens. À deux jours des élections législatives, la Moldavie et sa présidente pro-européenne n'échappent pas à cette énième tentative de déstabilisation menée par le Kremlin. À lire aussiLa France ciblée par une nouvelle opération de désinformation russe

Alors que la France s'apprête à reconnaître l'État de Palestine, une énième opération de désinformation cible actuellement le pays. Une vidéo mensongère prétend montrer des militants pro-palestiniens menaçant de transformer l'Hexagone en État Islamique. Cette mise en scène coche toutes les cases d'une campagne de désinformation russe baptisée Storm-1516. La vidéo dure précisément 23 secondes. On y voit trois hommes, le visage masqué par un keffieh, filmés devant un mur en béton décoré d'un drapeau palestinien. Un couteau à la main, l'individu au centre s'exprime en arabe. Il menace de « transformer la France en État islamique », avant de déchirer un drapeau français. Pour vérifier l'authenticité et la crédibilité de cette vidéo, la cellule Info Vérif de RFI s'est penchée sur le mode opératoire. Ce qui frappe dans un premier temps, c'est la ressemblance de cet extrait avec deux autres vidéos mensongères diffusées ces dernières années. L'une, apparue en juillet 2024, prétendait montrer un membre du Hamas menaçant de conduire des attentats durant les Jeux olympiques de Paris. L'autre, plus récente, était censée illustrer des djihadistes menaçant d'incendier la cathédrale Notre-Dame de Paris. La présence d'hommes encagoulés, le mur en béton, le jeu d'acteur, les valeurs de plan ainsi que le narratif trahissent une mise en scène répétitive et millimétrée. En plus de ces similitudes visuelles, le déroulé des trois vidéos est identique. Un seul homme arabophone profère des menaces avant de dégrader un symbole de la France : Notre-Dame de Paris, le personnage de Marianne ou le drapeau tricolore. Des acteurs russes à la manœuvre D'après les différents travaux menés en sources ouvertes, ces vidéos s'inscrivent dans une vaste opération de désinformation russe baptisée Storm-1516. Cette campagne comporte différents objectifs : décrédibiliser l'Ukraine, dénigrer les politiques occidentales, mais aussi troubler le débat public en désinformant sur des sujets brûlants ou anxiogènes comme l'immigration et le terrorisme. Cette nouvelle mise en scène s'inscrit donc dans ce troisième angle d'attaque. L'implication d'un réseau de bots Au-delà du mode opératoire informationnel, l'analyse du schéma de diffusion, c'est-à-dire d'où provient cette mise en scène et comment elle s'est propagée en ligne, confirme l'origine de cette infox. La vidéo est d'abord apparue sur X (ex-Twitter), le 14 septembre 2025 à 17h06, sur un compte arabophone créé en septembre 2012. Ce sont jusqu'ici les seules images qu'il a publiées. Nous nous sommes aussi intéressés à ses quelque 140 abonnés. Cela nous a permis d'identifier un réseau de comptes créés en août 2025. Chacun de ses profils comporte entre 345 et 347 abonnés et arbore une photo de profil issu de l'univers manga. De plus, ils ont chacun publié un tweet, plus exactement un proverbe, le jeudi 11 août, précisément entre 21h06 et 23h16. Tous ces éléments montrent l'implication directe d'un réseau de bots, des faux comptes automatisés. Un schéma de diffusion bien connu Une fois publiée sur X, par ce que l'on appelle un compte jetable, dédié uniquement à cette opération de désinformation, la vidéo a ensuite été relayée par d'obscures médias égyptiens. Les deux articles que nous avons repérés utilisent la même photo d'illustration et diffusent exactement la même capture d'écran. Ce schéma de diffusion correspond parfaitement au mode opératoire informationnel russe Storm-1516. Dans un premier temps, des acteurs sont recrutés pour produire une mise en scène. Un compte jetable, crédibilisé par un réseau de bots, sert ensuite de premier canal de diffusion sur les réseaux. Dans un second temps, des médias étrangers sont alors rémunérés pour diffuser la vidéo et la blanchir. L'étape finale consiste à amplifier cette fausse information à l'aide d'un écosystème de comptes pro-russes déjà installé dans le pays ciblé. Une menace pour le débat public Cette stratégie de propagation, déjà largement documentée, permet aujourd'hui à cette infox de cumuler plus de 3 millions de vues sur les réseaux sociaux. Dans son rapport sur ce mode opératoire informationnel russe, le service technique et opérationnel français chargé de la vigilance et de la protection contre les ingérences numériques étrangères (Viginum), considère que les activités de Storm-1516 « représentent une menace importante pour le débat public numérique, à la fois en France et dans l'ensemble des pays européens ».

Dans la nuit du 9 au 10 septembre, près de 20 drones russes ont violé l'espace aérien polonais. Trois appareils ont été abattus, seize ont été retrouvés dans différentes parties du pays. Varsovie dénonce une « attaque sans précédent » et a convoqué une réunion d'urgence au Conseil de sécurité de l'ONU. Sur le front informationnel, cet incident s'accompagne d'une intense guerre des récits. Une véritable bataille informationnelle se joue actuellement sur les réseaux sociaux autour de cette incursion de drones russes en Pologne. Les récits mensongers se concentrent principalement sur les responsables de cette attaque. À en croire de nombreuses publications mensongères, c'est l'Ukraine qui aurait directement lancé ses engins sur son voisin. Des milliers de posts diffusent la thèse d'une prétendue « attaque sous faux drapeau dans le but d'étendre la guerre à l'ouest ». En réalité pourtant, les drones retrouvés sur le sol polonais sont bien des modèles russes. Les images d'engins tombés sur le sol polonais, analysées par la cellule Info Vérif de RFI, montrent en effet des drones de type Gerbera. Ces modèles, fabriqués par Moscou, sont assez proches des fameux Shahed-136 iraniens. Le soir de cette incursion, la Russie avait lancé plus de 450 drones et missiles sur l'Ukraine, ce que Moscou n'a pas démenti. Certains ont traversé l'espace aérien biélorusse avant de terminer leur course en Pologne. Les récits dominants Malgré ça, les accusations ciblant l'Ukraine sont particulièrement populaires sur les réseaux sociaux. L'ONG polonaise, Res Futura, spécialisée dans la sécurité de l'information en ligne, s'est penchée sur la viralité des récits dominants à propos de cette incursion. Résultat, sur environ 32 000 commentaires évoquant les responsables de l'attaque, 38 % l'impute à l'Ukraine. C'est quatre points de plus que pour la Russie. Le rapport pointe ainsi « une forte saturation de récits répétitifs, caractéristiques d'actions coordonnées plutôt que de simples réactions spontanées ». Désinformer pour terroriser L'autre narratif en vogue sur les réseaux sociaux, c'est l'imminence d'une troisième guerre mondiale. C'est ce que cherchent à faire croire de nombreuses vidéos publiées en ligne ces dernières heures. L'une d'entre-elle montre une dizaine de navires de guerre, en pleine mer, alignés derrière un porte-avions américain. Le convoi, très impressionnant, est survolé par un escadron d'avions de chasse. Le compte TikTok qui diffuse ces images parle, à tort, d'une scène filmée, ce jeudi 11 septembre 2025, au large de la Pologne. Vérification faite, cette vidéo est sortie de son contexte. Ces images n'ont rien à voir avec la Pologne. L'alignement des navires de guerre, la présence d'un avion de patrouille maritime japonais Kawasaki P-1, ainsi qu'une recherche par image inversée, montrent qu'il s'agit d'un exercice militaire de l'Otan. Cette démonstration a eu lieu bien avant l'incursion des drones en Pologne. Nouveau mode opératoire Cette vidéo décontextualisée n'est pas la seule à semer le doute sur les réseaux. Le détournement d'images d'exercices militaires pour faire croire à une escalade du conflit en Ukraine est devenu un véritable mode opératoire. Ces images, souvent impressionnantes, sont difficiles à vérifier et deviennent rapidement virales. Comme souvent quand on parle de désinformation, ce type d'infox cible directement nos émotions. Le but, ici, c'est de faire peur, de polariser l'opinion publique, et de fragiliser notre résilience informationnelle.

Au Sahel, une opération de désinformation cible actuellement la France. L'armée française, qui a quitté le Mali en août 2022, est accusée, à tort, d'armer les terroristes dans le nord du pays. Ce narratif mensonger, bien connu dans la région, est réapparu cette semaine, avec une vidéo sortie de son contexte. La scène se déroule en pleine montagne. On y voit un hélicoptère couleur camouflage, en vol stationnaire, à seulement quelques mètres du sol. Rapidement, un homme est hélitreuillé. Il rejoint alors plusieurs individus réunis sous l'appareil. Les comptes qui diffusent cette vidéo évoquent, à tort, des images « diffusées par les Russes pour prouver le ravitaillement des terroristes par les forces françaises, au nord du Mali ». Une opération de sauvetage à Oman Vérification faite, cette vidéo n'a rien à voir avec l'armée française ou le Mali. Ces images ont, en réalité, été filmées à Oman, au Moyen-Orient. Pour le savoir, nous nous sommes d'abord intéressés à l'immatriculation visible sur la partie arrière de l'hélicoptère. Comme le veut l'Organisation de l'Aviation Civile Internationale, les trois premiers caractères désignent le pays d'enregistrement de l'appareil. Dans notre vidéo, le préfixe « A40 » désigne le sultanat d'Oman, ce que confirme le petit drapeau blanc, rouge et vert, visible en dessous du rotor de queue. Grâce à une recherche par image inversée, nous avons retrouvé la vidéo originale. Elle a été postée sur les réseaux sociaux officiels de la Police royale d'Oman, le 18 avril 2024. La légende précise qu'il s'agit d'une opération de recherche et de sauvetage menée dans un wadi, après la chute d'un randonneur. L'hélicoptère utilisé est un Leonardo AW139 de fabrication européenne. La France, cible privilégiée au Sahel D'après nos recherches, l'infox est partie d'un mystérieux compte TikTok habitué à cibler la France. Cet utilisateur arbore un portrait de Vladimir Poutine en photo de profil. Pour tenter de la rendre virale, il a diffusé la même infox une dizaine de fois en seulement quelques jours. Résultat, sa vidéo a été partagée par différents comptes en Afrique de l'Ouest et cumule près d'un million de vues. Cette fausse information circule même dans plusieurs langues, notamment en soninké. Malgré son désengagement dans la région, l'armée française continue d'être la cible de ce type de désinformation. Paris est régulièrement accusé, à tort, d'appuyer les différents mouvements terroristes dans la zone. Les modes opératoires varient, mais les vidéos sorties de leur contexte pullulent sur les réseaux sociaux. À lire aussiMali: une infox accuse la France de former des terroristes Ce récit mensonger cache un double objectif : alimenter le sentiment anti-français, mais aussi justifier la difficulté des pouvoirs en place à endiguer la menace djihadiste, de plus en plus présente dans la région.

En Ukraine, la Russie a tiré jeudi 28 août plus de 620 drones et missiles sur Kiev, tuant au moins 23 personnes. Vladimir Poutine préfère « continuer à tuer plutôt que de mettre fin au conflit », a déclaré le président ukrainien. Dans ce contexte, des rumeurs d'extension du conflit se propagent actuellement sur les réseaux sociaux. Engagement direct de l'Otan, mobilisation aux États-Unis : les fausses informations se propagent notamment à travers le détournement de journaux télévisés. À en croire une vidéo mensongère vue plus d'un million de fois ces dernières heures, « le monde entier viendrait de basculer dans la guerre ». À l'image, un extrait de journal télévisé défile. On reconnaît la journaliste de la chaîne française TF1, Audrey Crespo-Mara. Côté son, une voix féminine affirme, à tort, que la Troisième Guerre mondiale viendrait d'éclater. On y entend également que des explosions auraient retenti dans plusieurs grandes villes européennes, dont Bucarest et Varsovie. Évidemment, tout est faux. La Troisième Guerre mondiale n'a pas commencé. La Russie n'a pas bombardé la Roumanie ni la Pologne. L'Otan n'a pas non plus déclaré la guerre à Moscou. Cette vidéo est fausse sur le fond, mais aussi sur la forme puisque la rédaction de TF1 n'est pas à l'origine de cette publication. La mode des faux journaux TV Ce type d'infox se multiplie sur les réseaux sociaux ces derniers mois, à commencer par TikTok où ce mode opératoire est particulièrement à la mode. Il faut dire que la recette est plutôt simple. Une bande son générée par intelligence artificielle est apposée sur un vieil extrait de journal télé. Certains y ajoutent d'autres images sorties de leur contexte, une musique angoissante, et le tour est joué. Ce procédé peut se répéter à l'infini. Il est simple à mettre en œuvre et le nombre de vues montre malheureusement que ces infox touchent quotidiennement des millions de personnes. Parmi ceux qui diffusent ces faux journaux TV, on retrouve souvent des comptes uniquement dédiés à ce genre de pratique. Ils diffusent chaque jour de nouveaux faux journaux en usurpant l'identité de différents médias comme TF1, CNN ou France 24. Leur activité consiste à désinformer avec des contenus sensationnels pour faire le plus de vues possible. Leur popularité leur permet ensuite de gagner un peu d'argent, en monétisant leur audience, en vendant leur compte ou en diffusant des publicités. Perte de confiance dans les médias Cette désinformation de masse est particulièrement nocive. Ce flot d'infox participe en effet à éroder la confiance accordée aux médias. Certains en viennent à douter de l'authenticité de contenus authentiques produits par des rédactions reconnues. Enfin, il y a aussi l'impact sur la réalité des faits puisque ces fausses informations invisibilisent les vraies productions journalistiques. Pour se protéger efficacement de ces fausses informations, le meilleur moyen, en cas de doute, c'est d'abord de consulter les sites internets et les réseaux sociaux officiels des médias en question. De plus, si une infox de ce type arrive dans votre fil d'actualité, n'hésitez pas à bloquer le compte qui en est à l'origine. L'algorithme de recommandation devrait finir par comprendre que cela ne vous intéresse pas.

L'Espagne est toujours confrontée à une vague inédite de feux de forêt. Les pompiers, appuyés par l'armée, combattent encore une vingtaine d'incendies dans l'ouest et le nord-ouest du pays. Sur les réseaux sociaux, cette catastrophe n'échappe pas à la désinformation. Des dizaines d'infox sèment la confusion, notamment sur l'origine de ces méga-feux. À en croire une rumeur mensongère diffusée sur les réseaux sociaux, un des incendies en cours en Espagne aurait été « provoqué intentionnellement par l'armée espagnole ». Cette fausse information s'appuie sur une photo, vue près de deux millions de fois en seulement 48 heures. On y voit un départ de feu en pleine forêt et un rayon lumineux juste au-dessus des fumées. Les commentaires parlent d'un « rayon laser tiré par un drone militaire ». Un départ de feu aux États-Unis Vérification faite, cette image n'a rien à voir avec la vague d'incendies qui frappe le pays. Grâce à une recherche par image inversée, on sait qu'elle n'a pas été prise en Espagne, mais aux États-Unis, dans le parc national de la forêt de Klamath, dans l'Oregon. Le cliché a été publié par le compte Twitter officiel du service des forêts, le 24 mai 2018. Depuis, cette image a été détournée à de nombreuses reprises : en 2019, dans le contexte des incendies en Amazonie, mais aussi en Europe en 2022. Effet d'optique en raison d'une trace de graisse sur l'appareil photo Dans les faits, cette photo ne montre ni un drone militaire, ni un pseudo-rayon laser destiné à lancer des incendies. Ce faisceau lumineux est un simple effet d'optique provoqué par une trace de graisse sur l'objectif de l'appareil photographique. Un test qui peut être fait à la maison : si l'on prend une photo dans un environnement très lumineux et après avoir essuyé le capteur avec le doigt, des traînées lumineuses verticales peuvent apparaître, exactement comme sur notre photo. En 2018 déjà, un journaliste américain s'est plié à l'exercice pour démystifier les théories les plus farfelues. Théories complotistes Parmi ceux qui propagent cette infox, on retrouve principalement des comptes adeptes des théories complotistes. Certains affirment, à tort, que le gouvernement de Pedro Sánchez « provoquerait ces incendies dans les régions contrôlées par la droite ». D'autres parlent de « feu contrôlé pour exploiter des zones contenant des terres rares ». Ces théories, inventées de toutes pièces, sont populaires auprès d'un public d'une sensibilité politique particulière. À cela s'ajoutent aussi les images générées par intelligence artificielle. Pour faire de l'audience, certains n'hésitent pas à diffuser massivement des fausses images en les faisant passer pour des photos de presse. Le dernier exemple en date est une image censée montrer des pompiers espagnols à bout de force. La photo est émouvante, mais elle fausse puisqu'elle a été générée par une IA. Reconnaître une image générée par IA Pour reconnaître une image artificielle, le meilleur conseil consiste à analyser tous les détails visuels. L'intelligence artificielle peine encore parfois à représenter fidèlement certaines parties du corps et à intégrer du texte dans l'image. Dans notre cas, un pompier semble avoir deux bras gauches et l'inscription dans son dos ne veut rien dire. Ces images, même proches de la réalité, sont nocives, car elles participent directement à invisibiliser les vraies photos de cette catastrophe.

Le détournement d'images destiné à attiser le sentiment anti-immigration en Europe est un mode opératoire particulièrement à la mode sur les réseaux sociaux ces derniers mois. Le dernier exemple en date est une vidéo mensongère censée montrer l'arrivée de centaines de migrants sur les côtes italiennes. Ce clip, filmé à la tombée de la nuit, dure précisément dix-neuf secondes. On y voit des centaines d'hommes et de femmes en train de débarquer d'un bateau de couleur bleu. La rampe d'accès n'a même pas entièrement touché le sol que des dizaines de passagers se ruent sur le quai. Un message en majuscule, accompagné d'un panneau attention, est apposé sur ces images : « Voilà comment l'Europe est en train d'être conquise ». Plusieurs utilisateurs parlent de « demandeurs d'asile » arrivant sur le sol italien. Un ferry kényan Vérification faite, cette vidéo n'a rien à voir avec l'Italie ni même avec l'Europe, puisque ces images proviennent en réalité du Kenya. Pour savoir exactement où se déroule la scène, nous nous sommes intéressés à ce bateau très caractéristique. Grâce à une recherche par image inversée, nous l'avons retrouvé. Il s'agit du Likoni, un ferry utilisé au Kenya dans la ville de Mombasa. Ce navire ne transporte pas de passagers en Europe. Le ferry fonctionne uniquement entre l'île de Mombasa et le quartier Likoni. La géolocalisation des images, grâce aux arbres visibles en arrière-plan, confirme que la scène se passe du côté de Mombasa. La vidéo originale a d'ailleurs été publiée par un compte TikTok kényan le 13 mars 2025, avant d'être détournée par des utilisateurs mal intentionnés. De détournement en détournement Par ailleurs, ce n'est pas la première fois que cette vidéo est sortie de son contexte. Ce même extrait a déjà été détourné pour illustrer, à tort, l'arrivée de migrants en Allemagne, en Grèce ou encore en Espagne. À chaque fois, la vidéo, accompagnée de messages xénophobes, cumule rapidement des millions de vues sur les réseaux sociaux. Dans notre cas, c'est sur X et Instagram que les indicateurs de viralité sont les plus alarmants. Malgré les vérifications et les alertes de certains utilisateurs, la vidéo circule toujours. Alimenter les discours xénophobes D'après nos recherches, on retrouve tout un écosystème de comptes européens d'extrême droite à la manœuvre. Leur activité numérique se résume à la diffusion massive d'images de faits divers, sans contexte, en jetant la faute sur l'immigration. Sur les réseaux sociaux, ces contenus, clivants, souvent spectaculaires, sont automatiquement mis en avant par les algorithmes de recommandation. C'est particulièrement le cas sur X, ex-Twitter, depuis le rachat d'Elon Musk. Ce mode opératoire répond à un double objectif : alimenter les discours xénophobes, tout en polarisant les opinions publiques. Une stratégie relativement efficace si l'on en croit les échanges tendus et les messages racistes dans les commentaires.

La tendance s'affirme de plus en plus sur les réseaux sociaux : la diffusion de fausses images satellites. Le plus souvent, il s'agit de vues aériennes retouchées de manière à tromper le public. Parfois, des procédés plus complexes sont employés via l'intelligence artificielle (IA).Un phénomène problématique, car les images satellites, sont régulièrement employées par les fact checkers dans le cadre de leur travail de vérification. Les manipulateurs l'ont bien compris… Plusieurs images satellites falsifiées ont attiré votre attention ces derniers mois. Premier exemple lors des raids indiens sur le Pakistan en mai dernier. Il y a eu une très forte désinformation, autour de ces opérations aériennes. Nous vous en parlions ici. A la veille du déclenchement des hostilités, des comptes mettaient en ligne de prétendues photos satellites montrant des avions de combat Rafale prêts à entrer en action. Selon les commentaires, ces avions de chasse indiens avaient été surpris par les caméras d'un satellite sur une base non identifiée. Cette image était une infox. Cela n'avait pas échappé à certains utilisateurs. Rafale de désinformation Après vérification, il s'agissait d'un trucage. Pour schématiser, quatre petits avions gris, étaient copiés-collés sur une photo satellite pour faire croire à une preuve. Cette infox devait contribuer à préparer l'opinion à l'entrée en guerre de l'Inde avec ses Rafale. L'avion français fut dans les jours suivant l'objet d'une vaste campagne de désinformation orchestrés par le Pakistan et la Chine. Ailleurs dans le monde, les images satellites ont été largement utilisées pour documenter les résultats du spectaculaire raid ukrainien contre des bases stratégiques russes début juin. Ce fut aussi l'occasion de détecter de fausses vues aériennes destinée à amplifier les dégâts. Des images trop nettes pour être honnêtes. Autre exemple, les fameuses images de la frégate nord coréenne endommagé lors de la cérémonie de lancement devant le dictateur Kim Jong Un. Très vite des photos du chantier naval de Chongjin ou a eu lieu l'accident ont été diffusée. Pour masquer l'ampleur du désastre, des grandes bâches bleues avaient été disposées sur la coque du bateau. Suite à une défaillance du système de mise l'eau, le navire s'était couché, à moitié dans le port, à moitié sur le quai. Quelques heures plus tard, des photos, encore plus précises, ont été diffusées sur les réseaux. A priori, il s'agissait de la même scène : une vue verticale, même orientation, même angle, mais ces images avaient été améliorées par IA pour les faire passer pour des photos en HD. Résultat : l'IA avait oublié certains éléments, comme l'un des portiques du chantier tout simplement effacé, ou avait exagéré d'autres éléments afin de produire une image plus spectaculaire. Cette image a donc été altérée, et qui ne peut pas constituer une base de travail pour les fact-checker, ni un élément probant. Image qui ne portrait aucune mention annonçant l'utilisation d'un outil d'intelligence artificielle. Comment détecter les images satellites entièrement générés par IA ? Comme ces clichés récents, censés montrer un important déploiement de troupes russes dans la région de Briansk proche de l'Ukraine ou encore les dégâts causés par de récentes frappes de drones à Kiev. A première vue, ces images sont très réalistes, mais elles ne sont pas authentiques. Alors comment savoir ? Il existe bien des détecteurs d'IA, toutefois ils ne sont pas fiables à 100%. Comme à chaque fois en pareil cas, il convient d'effectuer une recherche par image inversée pour voir si les photos douteuses apparaissent t sur des publications sérieuses et dans quel contexte. Il faut aussi rechercher la source de ces images. Assez facile, car les fournisseurs d'images spatiales, (des agences publiques ou des entreprises privées), ne sont pas très nombreuses. Rfi travaille régulièrement avec Airbus Space, Planet-Labs et Maxar. Par ailleurs, ces entreprises sont très soucieuses de leur réputation compte tenu des enjeux commerciaux. Elles sont donc vigilantes et peuvent coopérer avec les modérateurs ou les médias afin d'améliorer la traçabilité des images. L'utilisateur pourra aussi comparer des images douteuses à des images fiables, même si elles sont plus anciennes, par exemple, en utilisant Google Earth. Enfin, il convient de rechercher les incohérences graphiques assez caractéristiques des images produites grâce à l'intelligence artificielle générative. Vérifier par exemple la symétrie des bâtiments, les proportions, ou encore les murs et les fenêtres d'un immeuble qui peuvent « pencher » et qui visuellement s'inscrive mal dans la géométrie de l'ensemble. Prudence donc, car à l'avenir, pour chaque image authentique, il pourrait y avoir plusieurs contrefaçons « convaincantes » et cela risque de réduire la confiance du public dans l'imagerie spatiale.

Les images de la famine à Gaza ont suscité des réactions d'indignations depuis la semaine dernière. Le Programme alimentaire mondial (Pam), évoque un risque de famine généralisé. Sur les réseaux sociaux, la diffusion de photos d'enfants malnutris a donné lieu à une virulente contre-attaque des comptes de la sphère nationaliste israélienne. Dans leur viseur : les journalistes qui ont témoigné de la situation humanitaire dans le territoire palestinien. L'infox qui a retenu notre attention, a l'apparence d'un fact-checking (un exercice de vérifications de faits). Dès la publication du journal Libération daté du 24 juillet, la photo à la une du quotidien a été visée. On y voit un enfant de dos. Il n'a plus que la peau sur les os. Le journal titre « Gaza, la Faim ». Aussitôt, de nombreux comptes ont accusé, à tort, ce quotidien de gauche, d'avoir sorti cette image de son contexte. Un ancien président départemental du Conseil représentatif des institutions juives de France (Crif), en Provence, martèle dans un post rageur que « cette photo est celle d'un enfant yéménite, prise dans un hôpital d'Al Hodeïda en 2016 ». Il parle de : « mensonge et de manipulation ». Après vérifications, il apparait que la photo a bien été prise à Gaza, mais sur X, le post mensonger de ce militant a été vu plus de 800 000 fois et n'a été ni modéré, ni modifié, au moment où nous mettons en ligne cet article. À lire aussiÀ la Une: à Gaza, la famine se poursuit et s'affiche sur les écrans du monde entier Une photo facilement identifiable Pour savoir précisément d'où provient cette photo, nous sommes remontés à la source. La rédaction de Libération mentionne le nom du photographe auteur du cliché : il s'agit du photo-reporter Omar El-Qattaa, qui travaille pour l'AFP, il est d'ailleurs l'un des derniers journalistes à encore pouvoir faire son travail dans l'enclave palestinienne. La rédaction de Libération explique que l'enfant sur la photo s'appelle Yazan, qu'il est âgé de deux ans et qu'il a été photographié le 23 juillet dans le camp de réfugiés d'Al-Shati, à Gaza. On retrouve d'ailleurs ce cliché sur le site internet de l'Agence France-Presse, avec le reportage complet d'Omar El Qattaa, sur la famine à Gaza. Des images également mises en lignes sur les comptes personnels du photographe sur Facebook, Instagram et X. Une nouvelle fois, Grok se trompe Rappelons-le ici, l'intelligence artificielle d'Elon Musk n'est pas infaillible et surtout ce n'est pas un outil de fact-checking. Ainsi, après la diffusion des contenus dénigrants le travail de journaliste de Libération, Grok a assuré que « la photo était prise au Yemen et était le fruit d'une manipulation pour illustrer Gaza ». Mais un peu plus tard, Grok a changé d'avis, pour donner cette fois-ci une réponse correcte, comme le souligne Libération dans son fact-checking. La meilleure manière de vérifier la photo aurait été de faire une recherche par image inversée. (voir ici comment faire). Aujourd'hui, cette image renvoie sur des dizaines de comptes évoquant la famine Gaza, et le 23 juillet au moment de sa publication, son analyse aurait au moins permis de dater de cliché, et de déduire qu'il n'avait rien à voir avec le Yémen en 2016. Une autre image fait polémique Toujours à Gaza, une autre photo d'enfant squelettique a été pointé par les comptes pro-israéliens. Cette image a fait la une du New York Times et a donné lieu à une levée de boucliers de la part de comptes ouvertement favorables à la politique jusqu'au-boutiste du Premier ministre Benyamin Nétanyahou, ainsi que sur des comptes officiels comme celui de l'ambassade d'Israël en France. Dans son reportage, le journaliste précise que l'enfant sur la photo est né durant la guerre à Gaza, et souffre depuis toujours d'une malformation. D'après des témoignages, faute de soins et d'une alimentation adaptée, son état de santé n'a fait qu'empirer. Pour mes comptes pro-israéliens, cette image a été volontairement sortie de son contexte, afin de mieux accuser les autorités israéliennes et disculper le mouvement islamiste armé « Hamas » mis en cause dans le détournement de l'aide alimentaire. La documentation de la famine à Gaza suscite depuis quelques jours une véritable bataille d'images, sur fond de propagande, mais aussi de manque d'information sur ce qui se passe à Gaza. Toutefois, la position gouvernementale israélienne a évolué ces derniers jours avec l'autorisation de la reprise des largages d'aide humanitaire, et une pause des combats dans certains secteurs. Gazawood en ordre de bataille Cela étant, les comptes les plus radicaux, ont mené ces derniers jours une large compagne destinée à minimiser les souffrances des palestiniens. On retrouve notamment les comptes de la galaxie Gazawood dont on vous a déjà parlé dans cette chronique. Le narratif de ces comptes est toujours le même. Ils prétendent à tort qu'« il n'y a pas de famine à Gaza » et des vidéos humiliantes détournant des images de palestiniens et des palestiniennes en surpoids, parfois en train de manger des gâteaux, ou de préparer des plats de la cuisine orientale. Il ne s'agit pas de comptes parodiques, encore moins de plateformes de fact-checking, mais bien d'outils de désinformation de masse, aux mains de la mouvance d'extrême droite israélienne. Une situation dénoncée par certains fact-checkers israéliens.

À l'approche des élections législatives moldaves de septembre, les attaques informationnelles se multiplient dans ce pays. Sur les réseaux sociaux, on ne compte plus les faux articles ou les vidéos mensongères qui s'en prennent à la présidente Maia Sandu qui œuvre à l'intégration de son pays à l'Union européenne. Une désinformation de longue haleine, derrière laquelle se cache la main de Moscou. Dernier épisode, en date, cette vidéo qui vise la communauté gay du pays, afin de mieux s'en prendre au processus de rapprochement avec l'UE. Il s'agit d'un clip d' 1 min 40 sec. Sur une musique de fond, une voix-off prétend à tort que la fondation du milliardaire américain George Soros a versé 10 millions de dollars au pouvoir en place dans le but de promouvoir la cause LGBTQ+ en Moldavie. Plus largement, selon ce narratif, cette aide viendrait favoriser l'intégration de la Moldavie dans l'Union européenne grâce à une série de réformes, dans l'éducation et la santé, permettant, « de transformer rapidement la Moldavie en paradis pour les homosexuels ». Après vérification, tout cela a été inventé de toute pièce. Il n'y a aucune trace d'un tel versement, aucune prise de position sur le sujet par la part de présidente Maia Sandu, et aucun résultat correspondant à une telle activité sur le site internet de la fondation Soros en Moldavie. La présidente pro-européenne de Moldavie, Maia Sandu, réélue en 2024, a déjà été visée par une série d'infox au mois de juin, pour nuire à sa carrière politique et dénigrer son travail à la tête de la Moldavie, petit pays européen enclavé entre la Roumanie et l'Ukraine. Il s'agissait de fausses informations faisant partie d'une opération d'ingérence russe, en amont des élections moldaves. Les attaques à son encontre continuent donc avec ce narratif autour d'un soutien aux minorités sexuelles - sujet très sensible en Moldavie, pays catholique et orthodoxe. Globalement, il y a une forte augmentation du ciblage depuis plusieurs mois de la Moldavie via des modes opératoires informationnels pro-russes en amont des élections de septembre. Cette infox est apparue le 21 juillet, elle a été vue des milliers de fois rien que sur le réseau X. Elle s'appuie sur un faux site internet présenté comme la source de cette vidéo. Baptisé Proud Europe (Europe Fière), il est, selon nos recherches, l'œuvre d'une agence de marketing digital, qui l'a conçu le 15 juillet dernier, donc spécialement pour cette opération de désinformation visant la Moldavie. La technique employée et le schéma de diffusion sont très proches de ceux suivis par la propagande du Kremlin. Les spécialistes ont immédiatement noté les similitudes avec le système de baptisé Storm 15-16. Depuis 2023, on retrouve ce mode opératoire dans des opérations de désinformation visant les pays européens, notamment en détournant l'identité de publications connues et sérieuses. Cette fois, c'est un site internet « bidon » qui a été utilisé. Il mélange de fausses informations et des articles récupérés sur des sites authentiques sous la bannière d'un prétendu site d'actualité destinée à la communauté LGBTQ+. Sans surprise, dans les heures qui ont suivi la diffusion de l'infox sur la Moldavie, la vidéo a été relayée par les comptes complotistes des sphères russes et MAGA - Make America Great Again, le fameux slogan ultra-conservateur nord-américain. En fin de semaine, l'infox est apparue aussi sur quelques comptes panafricanistes. Objectif : alimenter l'euroscepticisme, affaiblir l'Europe, et jouer sur les émotions du public moldave et de sa diaspora autour des sujets liés à la famille et aux valeurs traditionnelles, en prévision des élections… Concernant enfin Georges Soros, il est une cible de choix pour les complotistes anti-progressiste L'homme d'affaires est souvent visé, par les ultra-conservateurs aux États-Unis qui veulent lui faire payer son soutien aux idées démocrates. Mais d'une manière générale, on peut dire que ce philanthrope d'origine juive incarne, dans l'imaginaire complotiste, la figure fantasmée du milliardaire américain qui cherche à influencer la marche du monde.

Une semaine après la rencontre entre Donald Trump et cinq chefs d'État africains à la Maison Blanche, ce sommet continue d'agiter la toile. Sur les réseaux sociaux, ces échanges ont été marqués par plusieurs polémiques et surtout par un flot de désinformation sur tout le continent, et particulièrement en Mauritanie. Du 9 au 11 juillet, les présidents sénégalais, libérien, gabonais, mauritanien et bissau-guinéen ont été reçus par Donald Trump à la Maison-Blanche. Depuis ce sommet, une fausse rumeur de soulèvement populaire en Mauritanie est devenue virale sur le continent. Selon une vidéo mensongère vue plusieurs millions de fois, une manifestation d'ampleur aurait récemment eu lieu à Nouakchott. Durant quinze secondes, on y voit des centaines de personnes défiler devant le siège de la Société nationale industrielle et minière (Snim). La légende parle d'une déclaration polémique du président Mohamed Ould Ghazouani devant Donald Trump qui aurait provoqué la grogne des Mauritaniens. En réalité, aucun soulèvement de ce type n'a eu lieu en Mauritanie. La vidéo en question a été sortie de son contexte. Grâce à une recherche par image inversée, on sait qu'elle a été publiée sur TikTok le 25 mai 2025, soit bien avant le sommet des chefs d'État africains à Washington qui s'est déroulé du 9 au 11 juillet. Le correspondant de RFI en fulfulde, Oumar Elhadj Thiam, présent en Mauritanie confirme qu'il n'y a pas eu de manifestation dans le pays demandant la démission du président. Manifestations en soutien à Gaza Pour savoir ce que montre réellement cette vidéo, nous nous sommes appuyés sur deux éléments visuels. D'abord, 95 % des manifestants sont des femmes. De plus, on retrouve plusieurs drapeaux palestiniens dans le cortège. En cherchant dans les médias mauritaniens, on retrouve bien la trace d'une manifestation de femmes en soutien à la cause palestinienne, le 24 mai 2025, soit la veille de la publication de la vidéo sur TikTok. Une analyse comparative avec des photos prises par des journalistes montrent qu'il s'agit bien de cette marche organisée pour Gaza, à Nouakchott. À noter que d'autres images décontextualisées circulent également sur les réseaux sociaux. L'une d'entre elles montre encore des manifestants dans une rue de la capitale mauritanienne. Cette fois, ce sont presque uniquement des hommes. Certains portent des drapeaux palestiniens. Là encore, cette photo a été prise bien avant la visite de Mohamed Ould Ghazouani à Washington. Nos recherches nous ont permis de la retrouver dans plusieurs médias locaux il y a près de deux ans, en octobre 2023. Quelqu'un a donc recyclé ces images pour faire croire, à tort, à un soulèvement populaire en Mauritanie. Comptes maliens Si on ne sait pas précisément qui est derrière cette campagne de désinformation, l'analyse de la propagation de cette infox montre l'implication directe de comptes pro-maliens. Cet écosystème, déjà impliqué dans plusieurs campagnes de désinformation régionales, s'attaque régulièrement au pouvoir mauritanien. Les relations étant déjà compliquées entre les deux voisins, ce type d'infox attise encore les tensions. À lire aussiEntre le Mali et la Mauritanie, la désinformation attise les tensions

Au Togo, les tensions sont encore vives à moins de dix jours des élections municipales. Le pays a été marqué fin juin par des manifestations d'ampleur contre le régime de Faure Gnassingbé. Selon plusieurs partis d'opposition et des organisations de la société civile, la répression de ce mouvement de contestation a fait au moins sept morts et des dizaines de blessés. Sur les réseaux sociaux, de fausses déclarations de personnalités politiques africaines et européennes ajoutent à la confusion. Si vous suivez de près l'actualité au Togo, vous avez probablement vu passer cette déclaration attribuée, à tort, au capitaine burkinabè Ibrahim Traoré. Dans une vidéo mensongère devenue virale ces derniers jours, on pense l'entendre apporter son soutien aux mouvements de contestation au Togo. Cet audio, long d'une minute et dix-huit secondes, a été écouté plus de 3 millions de fois sur TikTok et Facebook. Les comptes qui partagent cet extrait évoquent un « discours historique ». Une déclaration fabriquée de toutes pièces En réalité, le capitaine Ibrahim Traoré n'a jamais prononcé ces mots. L'extrait en question a été entièrement généré par un outil d'intelligence artificielle. Plusieurs internautes burkinabés signalent que le timbre de la voix d'Ibrahim Traoré est trop grave. Malgré tout, le résultat est assez bluffant, à tel point que les détecteurs d'IA que nous avons utilisés se trompent. Il s'agit là d'une nouvelle preuve que les outils de génération progressent plus vite que les outils de détection. Pour vérifier cet audio, nous avons d'abord cherché l'origine de cette prétendue déclaration. Sur les divers canaux officiels de communication du pouvoir burkinabè, ainsi que dans les médias locaux, ce discours est introuvable. En multipliant les recherches par mots clés, nous avons fini par retrouver le primo-diffuseur, le compte à l'origine de cette bande son. Il s'agit d'une chaîne YouTube, active depuis plus d'un mois. L'auteur précise qu'il est question d'un discours fictif, généré par intelligence artificielle, dans le but « de soutenir le peuple togolais ». Ce message d'avertissement a été volontairement ignoré par des comptes mal intentionnés. L'IA s'en mêle Ce discours artificiel d'Ibrahim Traoré n'est pas le seul à circuler à propos de la situation en cours au Togo. Avant lui, c'est la voix d'Emmanuel Macron qui avait été détournée. Cette opération de désinformation usurpait l'identité de RFI avec notre logo apposé sur cette fausse déclaration du président français. Plus récemment, l'image de la cheffe de la diplomatie de l'Union européenne, Kaja Kallas, a également été manipulée. Dans une vidéo de huit secondes, on pense la voir mettre la pression sur le gouvernement togolais. Dans les faits, cette vidéo a été générée via l'outil d'intelligence artificielle de Google : Veo III. La durée, huit secondes, ainsi que le petit logo Veo en bas à droite de l'image le confirment. On remarque, de plus, plusieurs incohérences visuelles, comme les drapeaux du Togo et de l'Union européenne qui ne collent pas avec les originaux. Là encore, cette déclaration est introuvable sur les canaux de communication de l'UE et dans les médias, d'où l'importance de consulter des sources fiables.

Dans les pays de l'Alliance des États du Sahel, les politiques de construction de logements font régulièrement l'objet de fausses informations. Au Burkina Faso, au Mali et au Niger, ces infox voudraient faire croire que d'innombrables quartiers d'habitations luxueux seraient sortis de terre depuis les coups d'État. Le mode opératoire consiste à diffuser des images sorties de leur contexte, en affirmant, à tort, qu'elles auraient été filmées au Sahel. Le dernier exemple en date concerne le Burkina Faso. Une vidéo, mensongère, vue plus de 4 millions de fois sur les réseaux sociaux, prétend montrer la construction récente de centaines de logements neufs dans le pays. Durant onze secondes, on y voit des immeubles luxueux, à perte de vue. « Ce ne sont pas les États-Unis, mais le Burkina Faso », indique, à tort, une voix anglophone dans la bande son. Les comptes à l'origine de cette vidéo, parlent de « maisons distribuées gratuitement par le capitaine Ibrahim Traoré aux citoyens burkinabés ». Vérification faite, ces images n'ont absolument rien à voir avec le Burkina Faso. Un projet immobilier en Chine Pour géolocaliser cette vidéo, nous avons d'abord effectué plusieurs recherches par image inversée. Cela nous a permis de retrouver le même extrait diffusé par des comptes asiatiques. La légende parle d'un projet immobilier baptisé « Jinan's Ma Shan New Village », en Chine, dans le centre Ouest de la province du Shandong. En parcourant la zone sur des outils de cartographie satellite, comme Google Earth ou Yandex Maps, on retrouve bien nos immeubles, construits au nord de la localité de Feicheng. La vidéo a donc été filmée à 11 000 km du Burkina Faso. Un mode opératoire à la mode Ce type d'infox se compte par dizaines ces derniers mois. Des images de projets immobiliers du monde entier, de l'Algérie, aux États-Unis, en passant par le Maroc, sont sorties de leur contexte et diffusées au Sahel avec des légendes mensongères. Le phénomène concerne aussi d'autres types d'infrastructures, comme des gares, des ponts ou des stations de métro. Ce mode opératoire est particulièrement populaire au Mali et au Burkina Faso. Pour cause, ces infox sont simples à fabriquer, elles deviennent souvent virales et sont, à l'inverse, parfois difficiles à vérifier. Un écosystème de comptes de propagande à la manœuvre À l'origine de cette désinformation, on retrouve tout un écosystème de comptes actifs sur Facebook, X, WhatsApp et TikTok. Ce réseau d'influence, déjà impliqué dans plusieurs campagnes de désinformation régionales, diffuse quotidiennement la propagande des pouvoirs en place dans l'AES. Les indicateurs de viralité montrent que leurs contenus touchent une large audience. Dans les faits, des projets de construction de logements existent dans les pays de l'AES. Au Burkina Faso par exemple, le gouvernement a pour ambition de construire 50 000 logements à travers le pays d'ici à 2029. À ce stade, on ne sait pas combien ont été construits ni à quel prix ils seront vendus. Pour autant, les vidéos qui circulent en ligne sont loin de la réalité.

Alors que le cessez-le-feu déclaré mardi 24 juin semble tenir entre l'Iran et Israël, le conflit qui a opposé les deux ennemis jurés se poursuit toujours sur les réseaux sociaux. Une véritable bataille informationnelle se joue en ligne, sur tous les continents. Au Sénégal, la désinformation autour de cette guerre au Moyen-Orient sème le trouble, et polarise l'opinion publique. Un phénomène amplifié par des infox toujours plus crédibles grâce à la démocratisation de l'intelligence artificielle. C'est notre rédaction en langues locales à Dakar qui a lancé l'alerte. À en croire une vidéo diffusée sur Facebook et TikTok, une manifestation historique en soutien à la cause iranienne aurait eu lieu au Sénégal ces derniers jours. Durant exactement huit secondes (information importante), on y voit une foule de personnes à perte de vue, réunie sur un boulevard, en centre-ville. Certains portent des drapeaux iraniens ou sénégalais. En tête de cortège, un homme scande un slogan en wolof : « Senegal moy iran, Iran moy Senegal », « L'Iran, c'est le Sénégal, le Sénégal, c'est l'Iran » en français. Cette formule est reprise par des centaines d'internautes. En réalité, cette manifestation n'est pas réelle. Cette vidéo, vue plus d'un million de fois, a été entièrement générée par intelligence artificielle. Aucune manifestation pro-iranienne de cette ampleur n'a eu lieu au Sénégal. Visuellement, plusieurs indices mettent la puce à l'oreille. La foule est beaucoup trop compacte et le boulevard est trop large. Certaines pancartes sont également illisibles. Un drapeau du Sénégal est aussi mal représenté. L'étoile verte au centre est remplacée par une sorte de croix noire. En zoomant sur l'image, on remarque, de plus, plusieurs incohérences au niveau des yeux et de la bouche de certains manifestants. Une vidéo décontextualisée En cherchant l'identifiant TikTok visible sur certains extraits, nous avons retrouvé le premier compte qui a diffusé cette vidéo. Dans sa biographie, il se décrit comme un « créateur de contenu artificiel ». Nous l'avons contacté et il confirme que c'est bien lui qui a généré ce clip. Certains utilisateurs mal intentionnés ont partagé sa vidéo sans mentionner l'utilisation de l'IA, à des fins de désinformation. Polarisation et tensions Les débats dans l'espace commentaire de ces publications montrent que ces fausses informations participent à la polarisation de l'opinion publique sénégalaise sur le soutien ou non à la cause iranienne. Certains utilisateurs, trompés par cette vidéo artificielle, se félicitent pour la tenue de cette fausse manifestation : « Je suis fier d'être sénégalais ! Soutien total à l'Iran ! ». D'autres, au contraire, pointent la nécessité de rester neutre : « Ce conflit au Moyen-Orient ne nous concerne pas. Notre devoir est de souhaiter la paix. Prendre position peut jouer en notre défaveur. Ce n'est pas notre guerre ». Cette désinformation alimente également les tensions religieuses et communautaires. Démocratisation des outils d'IA génératives Cet exemple montre une nouvelle fois les dangers de la démocratisation des outils d'intelligence artificielle. Cet utilisateur explique avoir utilisé la version professionnelle de Google Veo III. Cette intelligence artificielle de l'Américain Google, permet de générer, en quelques clics, des vidéos de huit secondes maximum, très réalistes, avec une bande son intégrée. L'abonnement est payant, aux alentours de 43 € par mois, mais il existe des moyens plus ou moins légaux de s'en servir gratuitement. Le rendu est tellement bluffant que certains détecteurs d'IA tombent dans le panneau. Pour ne pas se faire avoir face à ce type de contenu, le meilleur conseil consiste à regarder attentivement les visages, les logos ainsi que les éléments textuels. Même si les outils d'IA s'améliorent de jour en jour, certains ont du mal à représenter des panneaux, des devantures de magasin ou des drapeaux par exemple. L'image et les couleurs sont aussi souvent trop parfaites, trop lisses. Enfin, il faut aussi analyser le contexte et croiser les sources. Dans notre cas, si une telle manifestation avait eu lieu, la presse sénégalaise et internationale en aurait forcément parlé.

Au Moyen-Orient, les frappes se poursuivent entre Israël et l'Iran, au huitième jour du conflit. Cette guerre sanglante se joue sur le terrain, mais aussi en ligne, sur les réseaux sociaux. D'un côté comme de l'autre, des comptes de propagande diffusent massivement des fausses informations. Tous les moyens sont bons pour gagner cette bataille numérique. Depuis le début du conflit qui oppose Tel Aviv et Téhéran, les contenus générés par intelligence artificielle se multiplient sur les réseaux sociaux, à tel point que certaines images synthétiques cumulent plus de vues que des photos authentiques, prises sur le terrain. L'un des exemples marquants est une vidéo aérienne censée montrer une ville israélienne endommagée suite aux frappes iraniennes. Durant 16 secondes, on y voit un quartier résidentiel totalement détruit. « Cette vue n'est pas à Gaza, mais dans le sud de Tel Aviv », commentent, à tort, les internautes qui la partagent en ligne. Vérification faite, ces images ne proviennent ni d'Israël, ni de Gaza ou même d'Iran puisqu'elles ont été entièrement générées par intelligence artificielle. Le détecteur d'IA que nous avons utilisé indique que c'est le générateur Mochi 1 qui serait à l'origine de ces images. Cet outil à la côte, car il est bon marché, entre 0 et 50 centimes seulement par vidéo, et parce que les résultats sont relativement bluffants. Une recherche par mots-clés nous a, de plus, permis de retrouver le compte à l'origine de ce clip vu plusieurs millions de fois. La date de publication indique le 28 mai 2025, soit avant les affrontements entre Israël et l'Iran. Flot d'images détournées À cela s'ajoutent aussi d'innombrables contenus sortis de leur contexte. Des images prises en Ukraine, au Liban ou même en Géorgie sont recyclées pour désinformer sur la situation au Moyen-Orient. Le dernier exemple en date est une vidéo impressionnante, censée montrer une pluie de missiles iraniens tombant en Israël. On y voit une dizaine de boules incandescentes tomber du ciel en pleine nuit. Grâce à une recherche par image inversée, on sait qu'il s'agit dans les faits de débris d'une fusée Space X, détruite lors de son ascension en janvier 2025, bien loin du Moyen-Orient. L'infox cumule plus de 3 millions de vues, rien que sur X. Jeu vidéo vs réalité L'autre mode opératoire, visible lors de chaque conflit, consiste à détourner des images issues de jeux vidéo. Ces clips spectaculaires issus de plateforme de simulation militaire ultra-réaliste pullulent sur les réseaux sociaux ces derniers jours. On retrouve notamment une vidéo censée montrer un avion de chasse israélien abattu par un missile anti-aérien iranien. Problème, cet enregistrement, vu plus de 15 millions de fois, provient en réalité du jeu War Thunder. On retrouve le clip en question sur une chaîne YouTube avec la mention « contenu de jeu vidéo diffusé à des fins de divertissement ». Pour s'en rendre compte, les experts conseillent d'observer avec attention les flammes, la dissipation des fumées ainsi que les explosions qui ne collent pas avec la réalité. Il faut également écouter attentivement le son, trop propre, trop parfait. Ces clips ne sont d'ailleurs jamais partagés par des sources de confiance. Ces éléments, cumulés à une recherche par image inversée (voir ici comment faire), permettent de ne pas tomber dans le panneau face à ces vidéos inauthentiques, souvent plus virales que les vraies images de cette guerre.

Depuis vendredi dernier, Los Angeles, la deuxième ville des États-Unis, est en proie à des heurts parfois violents qui opposent des manifestants aux forces de l'ordre. Un couvre-feu a été imposé en début de semaine pour tenter de mettre fin aux pillages. Quelque 700 marines, ont été appelés en renforts, rejoignant 4 000 militaires réservistes de la Garde nationale. Un déploiement de force dénoncé par les autorités locales qui parlent d'un abus de pouvoir de la part de Donald Trump. Depuis quelques jours, confusion et fausses informations entourent les évènements de Los Angeles. Parfois, ce sont les agents conversationnels, comme ChatGPT ou Grok qui viennent semer le trouble. Ainsi, deux photos ont retenu notre attention. Elles ont provoqué une passe d'arme sur les réseaux sociaux. Il s'agit d'images montrant des soldats américains allongés sur le sol, en train de dormir les uns contre les autres, dans ce qui semble être un poste de sécurité et le sous-sol d'un bâtiment. Ces photos ont été vues des centaines de milliers de fois, rien que sur le réseau X, et elles ont été partagées par le compte du gouverneur démocrate de Californie Gavin Newsom qui s'est opposé à Donald Trump à propos du déploiement de l'armée dans les rues de Los Angeles. Le compte personnel de Gavin Newsom représente 2,2 millions de followers. Dans un commentaire, il dénonce les conditions déplorables dans lesquelles les soldats seraient logés et il s'adresse directement à Donald Trump, il écrit je cite : « Vous avez envoyé des troupes ici, sans carburant, sans nourriture et dans l'endroit pour dormir, s'il y en a un qui manque de respect à notre armée, c'est bien vous ». Polémique sur les réseaux sociaux Ces images sont-elles réelles ? Cette question, beaucoup d'utilisateurs d'internet se la sont posée. Ils en sont remis à l'avis de Grok, (l'IA d'Elon Musk) et ils ont interrogé Chat GPT. Juste après le partage de ces images, ces agents conversationnels ont affirmé que « ces images semblaient montrer le retrait des soldats américains d'Afghanistan à l'aéroport de Kaboul durant l'été 2021 ». Après vérification, ce n'est pas le gouverneur de Californie qui a menti, mais c'est l'IA qui s'est trompée : ces images sont bien réelles, elles ont bien été prises à Los Angeles et publiées par un journal local sérieux, le San Francisco Chronicle dans son édition du 9 juin. La rédaction assure qu'elle a obtenu ces deux clichés en exclusivité, et qu'ils montrent des soldats en train de se reposer dans différents immeubles fédéraux qu'ils sont chargés de protéger… L'IA prise en défaut Une recherche par image inversée permet d'établir que ces photos n'ont jamais été mises en ligne avant le 9 juin dernier, donc elles ne peuvent pas avoir été publiées il y a quatre ans lors du retrait d'Afghanistan. Donc attention, Grok ou ChatGPT ne sont pas des outils de fact checking, même si la tendance des utilisateurs est d'y avoir recours dès qu'ils se posent des questions sur l'authenticité d'un contenu. Les résultats de recherche menés par les IA changent au fil du temps, en fonction des références sur lesquelles ces outils peuvent s'appuyer pour fournir des réponses. De vrais exemples d'Infox Avec des images générées par IA, comme celle de « Bob ». Ce soldat américain censé avoir été déployé pour protéger Los Angeles. Il se filme dans la ville en mode « portrait » et répand des fausses informations. Ces images ont fait le tour des plateformes, mais il s'agit en fait d'un personnage entièrement créé par des outils d'intelligence artificielle. À bien observer la vidéo, on peut noter certaines incohérences comme le grade du soldat qui ne correspond à rien de connu, les couleurs des feux de circulations à l'arrière-plan, ou encore les lettres « LAPC » sur une voiture de police alors que c'est « LAPD », Los Angeles Police Département, qui est inscrit en lettre noire sur fond blanc, sur les véhicules de police de la ville.

Avec son opération clandestine, baptisée « Toile d'araignée », l'armée ukrainienne a détruit au moins une quinzaine d'appareils russes, dont plusieurs bombardiers stratégiques, dimanche 1er juin. Un raid historique autour duquel la désinformation bat son plein sur les réseaux sociaux. Côté ukrainien, certains comptes détournent des images pour surévaluer les dégâts. Côté russe, la désinformation sert à sauver la face et faire monter la tension. Quelques heures seulement après l'annonce du raid ukrainien sur des aérodromes militaires russes, des comptes habitués à diffuser la propagande du Kremlin ont inondé les réseaux sociaux avec un message relativement inquiétant : « La Russie aurait placé ses forces nucléaires en état d'alerte maximale ». Des utilisateurs parlent, à tort, de « l'ouverture des silos contenant des missiles stratégiques et du déplacement d'unités mobiles ». Un niveau de préparation « jamais vu depuis la crise des missiles de Cuba », à en croire ces nombreuses publications.Concrètement, ce narratif mensonger repose sur de prétendus témoignages non sourcés ainsi que sur une vidéo de 49 secondes vue plus de 10 millions de fois cette semaine. Filmée de nuit, on y voit une colonne de lanceurs Yars, entourée de véhicules de police progressant sur une autoroute civile.Ces systèmes de missiles balistiques intercontinentaux mobiles sont capables de lancer plusieurs têtes nucléaires avec une portée estimée à 10 000 km. Cela fait dire à certains que le raid ukrainien pourrait faire basculer le monde.Préparation pour le défilé du 9 mai 2024Vérification faite, cette vidéo n'a rien à voir avec l'attaque récente de drones ukrainiens sur des bases russes. Grâce à une recherche par image inversée (voir ici comment faire), nous avons retrouvé d'où provient exactement cette vidéo. Elle a été diffusée par le ministère russe de la Défense sur Telegram, le 27 février 2024.La légende parle de l'arrivée des lanceurs Yars à Alabino, près de Moscou, dans le cadre de la préparation du traditionnel défilé militaire du 9 mai, pour l'édition 2024. Aucun rapport donc avec le raid ukrainien du dimanche 1er juin 2025.Le déni russeAu-delà d'agiter la menace nucléaire pour faire diversion sur le coup dur porté à l'aviation stratégique russe, des comptes de propagande vont même jusqu'à nier l'existence des destructions. Pour y parvenir, certains partagent des images satellites antérieures à l'attaque, en les présentant, à tort, comme des clichés récents, post-frappe. Un récit démenti par l'analyse des informations en sources ouvertes, menée par la cellule Info Vérif de RFI, et qui permet de documenter avec certitude la perte d'au moins 15 appareils russes.Surévaluation des dégâtsCes images sorties de leur contexte sont loin d'être les seules à circuler sur les réseaux sociaux ces derniers jours. Certains comptes pro-ukrainiens ont par exemple diffusé une vidéo censée montrer la destruction d'une usine de composants de missile près de Moscou.On y voit bien une vaste explosion, sauf que ces images, vues plusieurs millions de fois, sont anciennes. Elles datent en réalité de 2023 et montrent un navire de guerre russe frappé par des missiles de croisière ukrainiens lors d'une attaque nocturne en Crimée.Toujours dans le but de surévaluer les dégâts, certains utilisateurs partagent également des vidéos issues de jeu vidéo ou générées par intelligence artificielle.À lire aussiAttaque de drones ukrainiens en Russie: attention à ces images artificiellesDésinformation et brouillard de guerreComme à chaque grande opération militaire, le brouillard de la guerre facilite la diffusion d'images sorties de leur contexte ou générées par intelligence artificielle. À cela s'ajoutent des modes opératoires toujours plus complexes. Plusieurs fausses images satellites difficilement détectables ont, par exemple, fait leur apparition en ligne.Une fois devenues virales, ces infox alimentent les tensions, perturbent les perceptions du conflit et invisibilisent les vraies images de la guerre.

Le Hajj, le pèlerinage des musulmans à la Mecque, débute mercredi 4 juin. L'année dernière, plus de 1,8 million de musulmans s'étaient rendus en Arabie saoudite pour l'occasion. Cette semaine, une fausse information a circulé à propos du crash d'un avion rempli de fidèles en provenance de Mauritanie. Compte tenu de l'émotion générée par cette infox, les autorités mauritaniennes ont dû publier un communiqué pour couper court à la rumeur et rétablir la vérité. Cette infox s'est répandue sur les réseaux sociaux, au Sahel, au Sahara, en Afrique du Nord et dans le monde arabo-musulman. On la trouve sur les principales plates-formes comme X, Facebook, ou TikTok. Sur les posts en questions, on peut lire : « un avion de pèlerins mauritaniens s'est écrasé en mer Rouge, faisant plus de 200 morts ». L'infox est généralement accompagnée d'images sorties de leur contexte, ou générées par IA.Compassion sur les réseaux sociauxL'infox est apparue le 27 mai. Elle a eu peu de retentissement en Europe, mais en Afrique de l'Ouest particulièrement puisqu'une multitude d'utilisateurs l'ont immédiatement commenté. C'est la rédaction en Mandenkan-Fulfude de RFI à Dakar qui a attiré notre attention sur ce sujet.Le site en ligne Senenews qui a fait un travail de vérification autour de cette fausse rumeur écrit : « la diffusion de fausses informations autour du Hajj est malheureusement courante à l'approche de la saison du pèlerinage, une période sensible où des millions de fidèles se rendent en Arabie saoudite. Ces fausses nouvelles jouent sur l'émotion collective pour générer du clic ou faire le buzz, au détriment de la vérité et de la sérénité des proches des pèlerins ». En pareils cas, la première chose à faire pour lever un doute est d'aller consulter des sites sérieux, comme des chaines nationales ou internationales, pour voir si elles parlent de ce crash. Images détournéesUne observation attentive des images permet de ne pas se faire manipuler. Dans le cas présent, les images qui circulent sur les réseaux sont impressionnantes mais ne concordent pas avec ce qu'on pourrait découvrir sur le site d'un accident aérien, surtout si l'avion est tombé en mer.En effet, si on consulte de la documentation sur internet, on s'aperçoit qu'on ne retrouve le plus souvent que quelques débris flottant à la surface une fois que l'avion a percuté la mer. Les principales images qui circulent autour de cette infox montrent aussi des carlingues en feu. Sur le sol sont alignés des corps. Pour la première image, il s'agit visiblement d'une IA, et pour l'autre, d'une image sortie de son contexte.Nous avons noté des invraisemblances liées à la génération d'images par des outils d'intelligence artificielle. Par exemple des hublots carrés qui n'existent pas sur les avions de ligne actuels. Une recherche par image inversée nous a aussi permis de retrouver l'origine de l'image d'un avion dévoré par les flammes et photographié de face. Il s'agit d'un appareil cargo de fabrication russe, incendié en 2007 sur l'aéroport de Pointe-Noire au Congo et en aucun cas d'un avion de ligne mauritanien en 2025.Une affaire prise au sérieux par les autoritésDans un communiqué officiel, Mauritania Airlines a précisé que les rumeurs concernant ce crash circulant sur les réseaux sont totalement infondées. « Tous les pèlerins mauritaniens ont atterri en sécurité et aucun incident n'a été enregistré », a déclaré la compagnie. Les autorités mauritaniennes ont également démenti. Ces réactions officielles sont intervenues dans les heures qui ont suivi l'apparition de l'infox, sans pour autant stopper sa propagation.

Léon XIV a donné le ton de son pontificat, dimanche 18 mai, au Vatican en dénonçant une économie qui exploite la nature et qui laisse de côté les plus pauvres. Ce mercredi, il a lancé un appel à Israël afin que l'aide humanitaire puisse entrer à Gaza. Des discours empreints d'humanisme alors que certains comptes sur les réseaux sociaux tentent de manipuler sa parole. Ainsi une infox en langue arabe veut laisser croire à des prises de position hostiles à l'islam de la part du nouveau pape. Dès son arrivée à la tête du Saint-Siège, le pape Léon XIV a été l'objet d'infox sur les réseaux sociaux. Une désinformation, plus ou moins grossière, visant la personne du pape, et les positions de l'Église, en lui attribuant des propos qu'il n'a jamais tenus. Parmi ses fausses déclarations, l'une a retenu notre attention. L'infox prend la forme de tweet sur X et de post sur Facebook rédigés en arabe, et laissant penser à tort que le nouveau pape a tenu des propos hostiles à l'islam. Dans une vidéo d'une dizaine de minutes, on le verrait « dénoncer une invasion de l'Europe par les musulmans » détaillant une soi-disant « stratégie visant à changer l'identité chrétienne du continent européen ». Après vérifications, le nouveau pape n'a jamais dit ça, que cela soit d'ailleurs avant ou après le début de son pontificat.Vidéo trompeuse Toutefois, la personne qui prononce ce discours ressemble beaucoup au pape Léon XIV. Donc tout d'abord, on a cherché à savoir si la vidéo n'avait pas été générée par un outil d'intelligence artificielle ? Le logiciel que nous avons employé nous a indiqué qu'il y avait 0% de chance pour que cette vidéo ait été fabriquée par l'IA. Donc a priori, nous ne sommes pas confrontés à un hypertrucage. Comme la ressemblance est vraiment frappante, nous avons ensuite utilisé un logiciel gratuit, permettant de détecter les sosies. Résultats : entre 49% et 55% de similarités entre le visage de l'homme qui apparait sur la vidéo et le portrait du pape Léon XIV. Pas suffisant pour en tirer des conclusions surtout que l'on sait que ces outils ne sont pas fiables à 100%.Le discours d'un prélat conservateur en 2016Une recherche par image inversée nous a permis de retrouver la trace sur YouTube d'une longue vidéo, dont la dernière partie correspond à l'extrait que l'on trouve dans l'Infox. La personne que l'on voit à l'écran est bien un homme d'Église : il s'agit de l'évêque d'Astana au Kazakhstan, Athanasius Schneider, connu pour ses prises de positions conservatrices. Il a fait ces déclarations sur cette « invasion de l'Europe », selon ses mots, lors d'une rencontre avec des fidèles filmée dans une petite église du New Jersey aux États-Unis, le 23 octobre 2016. On retrouve d'ailleurs des photos de son passage sur le site internet de la paroisse. Des invraisemblances décelablesOn est donc face à une infox utilisant une vidéo sortie de son contexte jouant sur une forte ressemblance entre ce dignitaire catholique et le pape Léon XIV, afin de marquer les esprits. Cela étant, si on s'attarde sur l'image, on voit que celui qui est présenté comme le pape, porte la soutane violette des évêques et non la grande tenue blanche du souverain pontife.L'audio donne aussi des indications. L'accent de Léon XIV est bien celui d'un natif des États-Unis, alors que l'anglais de l'évêque Schneider est plus hésitant. Enfin, toutes les déclarations publiques du pape sont disponibles sur le site officiel du Vatican. Si vous avez un doute, allez consulter le site, d'ailleurs le Vatican fait aussi du fact-checking comme ici.

Après une escalade militaire ayant provoqué la mort de plus de 70 personnes, l'Inde et le Pakistan ont convenu d'un accord de cessez-le-feu le samedi 10 mai 2025. Si les armes se sont tues, la guerre de l'information, elle, se poursuit entre New Delhi et Islamabad. D'un côté comme de l'autre, des comptes de propagande continuent de diffuser massivement des fausses informations afin de présenter leur pays comme le vainqueur de cette confrontation. À l'instant où le cessez-le-feu aérien, terrestre et maritime a été annoncé, la bataille numérique entre l'Inde et le Pakistan n'a pas baissé en intensité. Au contraire, les comptes de propagande ont rapidement réorienté leurs narratifs autour de deux axes : la glorification de l'action de leur armée et l'humiliation de l'adversaire. Pour y parvenir, différents modes opératoires sont employés, du simple montage photo au deepfake sophistiqué.La guerre des deepfakesÀ ce jour, de nombreux politiques indiens et pakistanais en ont fait les frais, à commencer par le Premier ministre indien, Narendra Modi. Dans une vidéo d'une minute et treize secondes, on pense l'entendre présenter ses excuses, en hindi, au peuple indien : « Le Pakistan nous a complètement détruits. Notre économie s'effondre. Aucun investissement n'est à venir. Les marchés sont déserts. (...) Nous avons essayé de faire la guerre. Mais maintenant, nous réalisons que nous avons commis une grave erreur. Je présente mes excuses ». En réalité, Narendra Modi n'a jamais tenu ces propos.Cette vidéo a été générée via l'intelligence artificielle. L'analyse visuelle du mouvement de ses lèvres, ainsi que les détecteurs d'IA que nous avons utilisés, le confirment. C'est un deepfake, un hypertrucage audio et visuel. La voix du Premier ministre indien a été fabriquée de toutes pièces. À noter que le ministre des Affaires étrangères et le ministre de l'Intérieur indien ont également été ciblés par ce type de deepfake.Côté Pakistanais, c'est le porte-parole de l'armée qui en a été victime. En effet, une vidéo artificielle du général Ahmed Chaudhry a semé le trouble sur les réseaux sociaux. Durant une minute et trente-et-une secondes, on croit l'entendre reconnaître la perte de « deux avions Chengdu JF-17 ». Sauf qu'une nouvelle fois, il s'agit d'un deepfake. Ahmed Chaudhry n'a jamais prononcé un tel discours.L'extrait provient d'une conférence de presse de l'armée pakistanaise tenue le 27 décembre 2024, soit bien avant l'escalade militaire avec l'Inde. Quelqu'un a fourni ces images à une IA pour manipuler le discours du porte-parole de l'armée.La bataille des chiffresCette infox ciblant le porte-parole de l'armée pakistanaise est le symbole de la guerre des chiffres qui se joue actuellement entre les deux pays. Chaque camp publie quotidiennement des bilans concernant les supposées destructions matérielles et humaines infligées à l'adversaire.Ces données sont impossibles à vérifier de façon indépendante à ce stade. Mais pour donner de la crédibilité à ces chiffres, la propagande pro-pakistanaise a détourné l'identité de plusieurs médias occidentaux. Une infographie avec le logo de CNN affirme par exemple que l'Inde aurait notamment perdu 6 avions de combats, 553 drones et un système de défense antiaérien S400. Sauf qu'en réalité, le média américain n'a jamais publié ce tableau comparatif.Contacté par le média de vérification, Logically Facts, un porte-parole de CNN, a confirmé que « cette image est fabriquée. CNN n'a jamais relayé cette information ».Dans la même veine, un article à la gloire de l'armée de l'air pakistanaise et attribué au Daily Telegraph circule ces derniers jours sur la toile. Mais là encore, c'est une fausse information. Le Daily Telegraph n'a jamais publié une telle information.

L'escalade militaire entre l'Inde et le Pakistan va-t-elle s'arrêter ? Les attaques entre les deux voisins se sont encore intensifiées ces dernières heures. Le dernier bilan, publié ce jeudi 8 mai, fait état de 16 morts civils côté indien, 32 morts côté pakistanais. Ces affrontements, les plus graves depuis deux décennies, s'accompagnent d'une véritable guerre de l'information. Une bataille numérique qui a pris le dessus sur les faits. Sur les réseaux sociaux, des centaines de comptes pro-indiens et pro-pakistanais s'affrontent à coups d'infox et de message de propagande. Résultat, si vous cherchez à vous informer sur la situation en cours sur X, Facebook, TikTok ou Instagram, vous allez obligatoirement être confrontés à de fausses informations. C'est simple, lorsque l'on tape Inde ou Pakistan, les premières images qui sont mises en avant par les plateformes sont fausses ou sorties de leur contexte.Des images issues de jeu vidéoL'un des exemples le plus marquant est une vidéo vue plusieurs dizaines de millions de fois ces derniers jours. On y voit un canon antiaérien au sol, essayant d'abattre des avions de combat. La légende évoque « un avion de chasse pakistanais Chengdu JF-17 abattu par la défense sol-air indienne ».Sauf que ces images ne sont pas réelles. Vérification faite, cet extrait est issu d'Arma 3, un jeu vidéo de simulation militaire ultra-réaliste, régulièrement détourné pour partager de fausses images en temps de guerre.D'autres images de ce même jeu sont partagées par des comptes pro-pakistanais pour illustrer, à tort, la destruction d'un Rafale de l'armée de l'air indienne dans le ciel pakistanais.Pour se rendre compte de la supercherie, il faut observer attentivement les fumées, les flammes et les explosions qui ne collent pas avec la réalité. Ces éléments sont encore difficiles à générer numériquement.Détournement d'images de guerreAu-delà des images issues de jeu vidéo, les images sorties de leur contexte pullulent sur la toile. Alors que nous sommes en plein brouillard de guerre et que les documents authentiques se font rare, le besoin de mettre des images sur ce qu'il se passe sur le terrain pousse des utilisateurs à recycler de vieilles images. Raison pour laquelle des vidéos filmées dans la bande de Gaza, au Yémen, ou au Liban sont diffusées en masse pour illustrer, à tort, la situation entre l'Inde et le Pakistan.L'IA sème le troubleÀ tout cela s'ajoute également les images générées par intelligence artificielle. Une vidéo montrant la carcasse d'un avion de chasse soulevée par un hélicoptère et une image satellite censée montrer des rafales ont fait le tour des réseaux sociaux en milieu de semaine. En réalité, pourtant, ces images ont été générées par une intelligence artificielle.À noter aussi que sous de véritables images, certains comptes de propagande sèment le trouble en affirmant, à tort, qu'elles auraient été produites par une IA.Une désinformation dangereuseCette désinformation de masse est particulièrement nocive. D'abord, car tous ces faux documents invisibilisent les quelques vraies images de ce conflit. L'analyse des commentaires montre, de plus, que ce flot continu d'infox altèrent les perceptions et radicalisent les esprits.À lire aussiInde-Pakistan: la désinformation attise les tensionsCette bataille numérique entre l'Inde et le Pakistan, est un énième exemple, que chaque guerre sur le terrain s'accompagne aujourd'hui d'une intense guerre numérique, dans laquelle chaque camp tente d'imposer sa mise en récit, au détriment de l'information fiable et vérifiée.

Au Sénégal, la présence militaire française agite les réseaux sociaux cette semaine. Alors que le désengagement des éléments sur place est en cours, une rumeur mensongère circule à propos d'un convoi militaire français qui aurait récemment quitté Dakar. En réalité, cette fausse information repose sur des images sorties de leur contexte. C'est notre rédaction à Dakar qui a lancé l'alerte. À en croire plusieurs messages mensongers publiés sur les réseaux sociaux, un convoi de véhicules militaires français aurait quitté Dakar ce lundi 28 avril 2025, escorté par l'armée sénégalaise. La rumeur a d'abord été diffusée par un portail d'information en ligne, avant de se répandre dans la presse locale et d'être poussée par des comptes de propagande. Des médias russes, comme RT, ont également repartagé l'infox.La vidéo censée documenter ce départ dure une trentaine de secondes. Elle est intitulée, « les premiers Éléments Français au Sénégal quittent Dakar ». On y voit une colonne de quinze véhicules progressant dans le trafic. On y retrouve notamment des camions de transports, plusieurs 4×4 ainsi qu'un blindé de reconnaissance.Notre rédaction à Dakar a géolocalisé précisément ces images, filmées sur l'autoroute A1, au niveau du Croisement Cambérène.Un convoi néerlandaisVérification faite, cette vidéo ne montre pas un convoi de l'armée française. Le blindé de reconnaissance visible en queue de peloton est un Fennek. Ce véhicule, de conception néerlando-allemande, ne figure pas dans l'arsenal français.Des sources militaires haut placées, contactées par RFI, confirment qu'il s'agit d'un convoi néerlandais présent dans le cadre de l'exercice « African Lion 2025 ». Cet entraînement militaire, supervisé par le Commandement des États-Unis pour l'Afrique, a débuté mi-avril. Au total, plus de 10 000 soldats de 40 pays différents sont mobilisés en Tunisie, au Maroc, au Ghana, mais aussi, au Sénégal. Des soldats ivoiriens, mauritaniens, néerlandais, américains et sénégalais sont présents au pays de la Teranga.Des soldats français photographiés à Gao en 2021D'autres images sorties de leur contexte circulent également sur les réseaux sociaux à propos du désengagement français. Plusieurs internautes illustrent ce supposé départ du 28 avril 2025 avec une photo montrant une dizaine de militaires français, sacs sur le dos et masques chirurgicaux sur le visage, en train de monter dans la soute d'un avion de transport. Mais dans les faits, cette image n'a rien à voir avec le désengagement en cours au Sénégal.Grâce à une recherche par image inversée (voir ici comment faire), on sait que ce cliché montre des soldats français de la force Barkhane, embarquant à bord d'un avion C130 de l'US Air Force, à Gao, au Mali, le 9 juin 2021.La réalité du désengagementSi ces images sont diffusées à des fins de désinformation, le désengagement des éléments français au Sénégal, initié en 2025, est bien une réalité. La commission franco-sénégalaise s'est réunie pour la première fois, le 28 février 2025, pour établir le calendrier et les modalités de remise à disposition des emprises utilisées par les Éléments français au Sénégal. Contrairement à ce qu'écrivent certains articles de presse, les installations des quartiers Maréchal et Saint-Exupéry ont par exemple déjà été restituées, au mois de mars dernier.L'opération devrait s'achever entre juillet et août. « Reste à savoir, confie une source militaire, quel niveau d'ambition pourrait revêtir la forme du partenariat rénové, en matière de défense et de sécurité, entre la France et le Sénégal ».

Ces derniers jours, l'euro, partagé par vingt pays de l'Union européenne, est la cible d'une vaste campagne de désinformation sur les réseaux sociaux. Alors que la Banque centrale européenne (BCE) ambitionne d'émettre une monnaie virtuelle dans les prochaines années, certains évoquent, à tort, l'interdiction de l'argent liquide en France et la fin de la zone euro. Ces fausses informations, diffusées principalement sur TikTok, cumulent des millions de vues. À en croire une vidéo mensongère devenue virale sur TikTok cette semaine, la France aurait décidé « de quitter la zone euro pour utiliser le franc CFA ou retourner au franc ». Cette fausse information repose sur un montage composé de plusieurs extraits de journaux télévisés, attribués aux chaînes de télévisions françaises M6 et BFM TV. Cette vidéo, vue plus de 4 millions de fois sur les réseaux sociaux, suscite beaucoup d'interrogations, notamment sur le continent africain.Dans les commentaires, plusieurs internautes pointent, à raison, plusieurs incohérences. Un extrait présente par exemple Mariano Rajoy comme l'actuel chef du gouvernement espagnol, alors qu'il a quitté ses fonctions en 2018. De même, Angela Merkel est présentée comme la chancelière allemande. Or, elle a été remplacée en 2021 par Olaf Scholz.Des journaux fictifs réalisés en 2012En réalité, ces journaux sont sortis de leur contexte. À l'aide d'une recherche avec les mots-clés « M6 » « BFM TV » et « sorti de l'euro », on retrouve rapidement leur trace en ligne. Dans les faits, il s'agit de journaux fictifs réalisés en 2012, en pleine campagne présidentielle. La sortie de l'euro, argument poussé par le Front National de Marine Le Pen, était, à l'époque, au cœur de l'actualité. M6 et BFM TV avaient alors fait le choix de simuler le retour au franc qui n'aura finalement jamais eu lieu.Ce n'est pas la première fois que cette fausse information circule. Chaque année, ces vieux journaux fictifs refont surface sur les réseaux sociaux, au gré de l'actualité économique. Des comptes de désinformation les diffusent pour faire des vues et semer le trouble.L'argent liquide bientôt interdit ?Dans la même veine, une vidéo partagée cette semaine sur TikTok affirme, à tort, qu'une loi viendrait tout juste d'être votée en France pour interdire les espèces.Une nouvelle fois, tout est faux. Nous avons vérifié dans le Journal officiel, et aucune loi de ce type n'a été promulguée en avril. Cette infox détourne en fait le projet d'euro numérique voulu par la Banque centrale européenne et qui génère beaucoup de fantasmes.D'après les documents officiels de la BCE, l'euro numérique n'est pas destiné à remplacer l'argent liquide, mais à proposer une forme complémentaire de paiement. Si la carte bancaire est aujourd'hui le moyen de paiement le plus utilisé en France, plus d'un français sur deux estime qu'il est important de pouvoir payer en espèce.

Au Mali, la crise diplomatique avec l'Algérie s'enlise. Les relations entre les voisins se sont dégradées après la destruction d'un drone malien par l'armée algérienne à Tinzaouatène, dans la nuit du 31 mars au 1ᵉʳ avril. Dans ce contexte, de nombreuses infox circulent sur les réseaux, notamment à propos des capacités militaires des deux pays. La dernière rumeur affirme, à tort, que l'armée malienne aurait reçu des avions de combat ultra-modernes fabriqués en Russie et aux États-Unis. À en croire des dizaines de vidéos mensongères sur TikTok, l'armée malienne viendrait de « recevoir plusieurs modèles du célèbre F-35 américain ». Cet avion de combat furtif multirôle de 5ᵉ génération figure aujourd'hui parmi les chasseurs les plus performants au monde. En réalité, l'armée malienne ne dispose pas de ce type d'appareils.Cette fausse information repose sur une vidéo de deux minutes montrant un convoi militaire filmé à la sortie d'une autoroute. Les visages d'Assimi Goïta et de Vladimir Poutine sont apposés sur ces images. Rapidement, on constate plusieurs incohérences. D'abord, le F-35 est un avion de fabrication américaine, et non russe, comme le suppose l'auteur de cette publication. Ensuite, le convoi ne comporte que des véhicules terrestres, notamment des blindés de reconnaissance de type Fennek. De plus, l'environnement, la végétation et les panneaux de circulation ne correspondent pas au paysage malien.Un convoi filmé en AllemagneGrâce à une recherche par image inversée (voir ici comment faire), on sait que ces images ont été filmées en Allemagne et diffusées sur YouTube en novembre dernier.La légende parle du 8ᵉ bataillon de reconnaissance de Freyung sur la route vers le centre d'entraînement de Colbitz, dans le nord-est du pays. Ce que nous avons pu vérifier en géolocalisant précisément la scène grâce à des outils de cartographie satellite comme Google Maps ou Yandex Maps.Des Soukhoï-35 à Bamako ?D'autres rumeurs évoquent aussi « l'arrivée au Mali de chasseurs russes Soukhoï-35 ». C'est ce qu'affirment, une nouvelle fois à tort, plusieurs vidéos vues des centaines de milliers de fois sur les réseaux sociaux. Le mode opératoire est cette fois différent puisque l'infox repose ici sur le détournement de journaux de médias reconnus.Visuellement, la vidéo est coupée en deux. Sur la partie haute, des images d'un chasseur présenté comme un Soukhoï-35, mais qui est en fait un Eurofighter Typhoon, défile. Sur la partie basse, on y voit une journaliste en train de présenter un journal télévisé. Le tout est accompagné d'une voix générée par intelligence artificielle.Cette voix synthétique prétend reprendre les propos des journalistes visibles à l'image. Sauf qu'en réalité, les extraits utilisés n'ont aucun rapport avec le Mali ou des avions de combats. L'identité de France 24 et d'Africa 24 ont ainsi été usurpées dans le but de crédibiliser l'infox. Sur le fond, le Mali ne dispose ni de F35 ni de Soukhoï-35.Des comptes influents à la manœuvreÀ l'origine de cette désinformation, on retrouve différents comptes influents sur TikTok qui désinforment régulièrement sur les capacités militaires des pays du Sahel. Certaines de leurs vidéos atteignent des millions de vues, notamment dans le contexte actuel tendu avec l'Algérie. Leurs publications sont constamment reprises par des dizaines de comptes qui propagent ensuite l'infox sur d'autres plateformes, principalement Facebook et WhatsApp.

Une semaine après la destruction d'un drone malien par l'armée algérienne à la frontière, la tension ne redescend pas entre Alger et Bamako. Les deux voisins ont respectivement rappelé leur ambassadeur et fermé leur espace aérien. Cette crise diplomatique sans précédent est alimentée par un flot de désinformation sur les réseaux sociaux. D'un côté comme de l'autre, des comptes influents soufflent sur les braises, en diffusant massivement de fausses rumeurs et images sorties de leur contexte. À en croire plusieurs vidéos mensongères publiées sur TikTok ces derniers jours, « des affrontements auraient eu lieu entre l'armée malienne et algérienne ». La dernière en date montre une colonne de chars d'assaut légers, progressant sur une piste en terre, entourée de végétation. Le commentaire, apposé sur ces images, affirme, à tort, que le Mali contrôlerait une partie de l'Algérie. En réalité, il n'y a pas eu d'affrontements entre les deux pays. Cette vidéo est sortie de son contexte.L'identification du matériel montre que les trois chars légers visibles sont des Stingray, des véhicules de fabrication américaine uniquement en service dans l'armée thaïlandaise. Raison pour laquelle cette vidéo a d'abord été diffusée sur YouTube, sur le compte d'un militaire thaïlandais. Il est donc impossible de voir ce type d'équipement au Mali ou en Algérie.Vidéos détournéesLes images ainsi sorties de leur contexte se comptent par dizaines ces derniers jours. Il suffit de taper « Algérie - Mali » sur les réseaux sociaux pour tomber très rapidement sur ce genre d'infox. L'une des plus consultées ces derniers jours prétend montrer des avions algériens, deux Soukhoï Su-30, volant en patrouille serrée dans le ciel malien.Grâce à une recherche par image inversée, on sait que la vidéo provient en réalité d'un reportage diffusé sur Arte, il y a plus de 13 ans, en 2012.Fausses rumeurs d'implications étrangèresÀ cela s'ajoutent également les fausses rumeurs d'implications étrangères. La Libye, la Mauritanie, le Niger ou le Burkina Faso sont régulièrement cités par des comptes habitués à désinformer sur la situation régionale. Plusieurs publications affirment notamment, sans aucune preuve, que le maréchal Haftar aurait envoyé des milliers de soldats libyens en soutien aux Forces armées maliennes.D'autres assurent aussi que l'Iran aurait fourni des drones suicides aux Fama, une nouvelle fois, sans en apporter la moindre preuve. Des fausses rumeurs similaires circulent par ailleurs côté algérien.Un écosystème de désinformationÀ l'origine de ce flot d'infox, on retrouve un écosystème de comptes suivis par des centaines de milliers de personnes, principalement sur TikTok. Certains s'affichent directement face caméra, d'autres se contentent de diffuser des montages vidéo mensongers. Leur influence repose presque intégralement sur la diffusion de fausses informations, spécifiquement à propos de la situation sécuritaire au Sahel et au Sahara.La dégradation des relations entre Bamako et Alger s'accompagne d'une véritable bataille numérique entre les comptes pro-maliens et pro-algériens. Le sujet suscite de l'engagement et représente donc pour eux une occasion inestimable de faire des millions de vues facilement et rapidement. Les commentaires des utilisateurs montrent que cet opportunisme alimente les tensions et radicalise les militants de chaque camp.

En République démocratique du Congo, la situation reste tendue dans l'est, entre les rebelles de l'AFC/M23 soutenus par le Rwanda, et les Forces armées congolaises et leurs soutiens. Les affrontements se déroulent sur le terrain, mais aussi en ligne où la désinformation est omniprésente. Parmi ce flot d'infox, on retrouve des faux journaux de RFI. L'identité de la radio du monde a été plusieurs fois usurpée, dans le but de désinformer massivement la population. Si vous suivez la situation en RDC, ou que vous êtes membres de groupes congolais sur WhatsApp, vous avez probablement vu passer cet audio faussement attribué à RFI. Durant 4 minutes et 44 secondes, on y entend plusieurs voix synthétiques se succéder, comme dans un véritable journal radio. La première imite celle de notre journaliste au service Afrique, Arthur Ponchelet.S'ensuit celle de Corneille Nangaa, le coordinateur de l'Alliance Fleuve Congo (AFC) dont fait partie le M23.Enfin, l'extrait se conclut sur une imitation de la voix de la correspondante de France 24 en RDC, Aurélie Bazzara-Kibangula.En réalité, RFI n'est pas à l'origine de ce contenu. Cet audio a été entièrement généré via l'intelligence artificielle. Les propos attribués aux trois interlocuteurs ont été fabriqués de toutes pièces. Ce contenu est faux sur la forme, mais aussi sur le fond, puisque contrairement à ce que l'on entend, Corneille Nangaa n'a ni annoncé qu'il déposait les armes, ni demandé des excuses ou une grâce présidentielle.Une infox virale sur WhatsAppD'après nos recherches et les alertes de plusieurs auditeurs, ce faux journal de RFI a d'abord été diffusé sur WhatsApp dans différents groupes congolais. Plusieurs comptes se présentant comme des médias en ligne l'ont ensuite repartagé sur TikTok, Facebook, YouTube et X. Aujourd'hui, l'infox circule sous différentes formes avec divers visuels qui usurpent l'identité de RFI.RFI cible prioritaireCe n'est pas le premier faux extrait de RFI qui circule en République démocratique du Congo. Début mars, un audio siglé RFI affirmait que Félix Tshisekedi allait « démissionner après un accord historique entre Kinshasa et le M23 ». Mais là encore, cette infox avait été générée par intelligence artificielle. Ce type de manipulation se multiplie ces derniers mois et touche différents médias internationaux.Distinguer le vrai du fauxLe meilleur moyen de s'assurer de l'authenticité d'un contenu attribué à RFI est de consulter directement notre site internet ou nos réseaux sociaux officiels. Si l'audio ou l'article en question n'y figure pas, alors c'est un faux.En étant vigilant et observateur, on peut également se rendre compte de l'utilisation de l'intelligence artificielle. Dans le cas de ce faux journal, plusieurs utilisateurs ont pointé le ton robotique et la mauvaise qualité sonore. Mais au moindre doute, le réflexe à adopter reste de remonter à la source.

C'est un phénomène à la mode sur les réseaux sociaux : les musiques générées par intelligence artificielle. Le mode opératoire est simple, la voix d'un artiste mondialement connu est détournée pour chanter à la gloire d'un chef d'État. Ce phénomène monte en puissance sur le continent africain, et n'épargne aucune personnalités. Ces dernières semaines, presque toutes les stars du rap et du RnB ont été victimes de ce phénomène. Les voix de Beyoncé, Aya Nakamura, 50 Cent, Drake ou encore Ninho ont notamment été manipulées. Côté personnalités politiques, la plupart des chefs d'État africains ont eu le droit à leur musique artificielle : le Béninois Patrice Talon, le Sénégalais Bassirou Diomaye Faye ou encore le Guinéen Mamadi Doumbouya. Le dernier son en date, publié cette semaine, cible le capitaine burkinabè Ibrahim Traoré.Cette voix artificielle imite presque parfaitement celle du rappeur congolais Gims. Un autre audio en l'honneur du président ivoirien, Alassane Ouattara, circule également ces derniers jours.Cette fois-ci, c'est la voix du rappeur Booba qui a été détourné. En réalité, ces sons, qui se comptent par dizaines sur les réseaux sociaux, ne sont pas authentiques. Ils ont été générés via l'intelligence artificielle. Dans les faits, ni Gims ni Booba n'a fait l'éloge d'Ibrahim Traoré ou d'Alassane Ouattara en musique. Pour s'en rendre compte, il suffit de consulter les réseaux sociaux officiels des deux rappeurs.De YouTube aux autres réseaux sociauxD'après nos recherches, la plupart de ces musiques artificielles proviennent d'un petit nombre de chaînes YouTube qui diffusent régulièrement ce genre de contenus. Même s'il faut chercher pour la trouver, la mention « générée par IA » est bien présente dans la légende.Sur YouTube, ces contenus dépassent rarement les 100 000 vues, au contraire de TikTok, Facebook et Instagram où certaines d'entre elles dépassent les cinq millions de vues. Le problème réside dans le fait que les comptes qui repartagent ces musiques inauthentiques ne mentionnent pas l'utilisation de l'intelligence artificielle.Ce qui a été généré initialement à des fins humoristiques, se retrouve utilisé à des fins de désinformation. Des comptes très influents se servent de ces infox pour faire de la propagande et les commentaires montrent que des milliers d'utilisateurs tombent dans le panneau.Des contenus illégauxEn utilisant les bons outils, il est possible de générer rapidement et gratuitement ce type de musique artificielle. On peut donc faire dire ce que l'on veut à n'importe quel artiste. Mais attention, certaines législations encadrent la pratique.En France, l'article 226-8 du Code pénal puni d'un an et de 15 000 € d'amende « le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention ». La plupart des publications sont donc illégales.

Alors que le Canada se tourne vers l'Europe pour tenter de faire front à Donald Trump, qui multiplie les déclarations hostiles à Ottawa, des photos discréditant le nouveau Premier ministre libéral, Mark Carney, ont fait leur apparition sur les réseaux sociaux. Ces images trompeuses, fabriquées de toutes pièces, font suite à une campagne de désinformation visant le nouveau chef du gouvernement, à quelques semaines d'élections fédérales anticipées qui devraient être annoncées officiellement ce dimanche 23 mars. La formule de désinformation la plus courante consiste à faire apparaître le candidat libéral devenu Premier ministre du Canada, le 14 mars 2025, en compagnie de personnalités sulfureuses, comme l'explique l'AFP. Une photo a particulièrement retenu notre attention. Elle fait penser à une photo de vacances, mais on y verrait Mark Carney assis sur une chaise de plage aux côtés de l'acteur américain Tom Hanks et de Ghislaine Maxwell, la petite amie de Jeffrey Epstein.Jeffrey Epstein est un tristement célèbre homme d'affaires et criminel sexuel accusé d'avoir réduit en esclavage des dizaines de jeunes filles au profit de la haute société américaine. Ce prédateur a été retrouvé mort dans sa cellule en 2019, alors qu'il attendait d'être jugé pour trafic de mineurs. Mais son image toxique est régulièrement employée sur les réseaux pour discréditer tous ceux qui sont prétendument apparus à ses côtés. Idem pour l'image de son ex-compagne Ghislaine Maxwell, considérée comme la co-organisatrice du trafic et condamnée à 20 ans de prison en 2022, avant de faire appel.Une campagne lancée début 2025Fin janvier déjà, était apparue une photo trompeuse, censée montrer Mark Carney aux côtés de Jeffrey Epstein dans la piscine de la propriété du milliardaire. Cette image, non datée, avait été relayée par plusieurs comptes de la sphère pro-Trump.On estime qu'elle a été vue plus de 200 000 fois, rien que sur X. La photo est apparue pour la première fois en ligne en janvier, lorsque l'ancien Premier ministre Justin Trudeau a annoncé sa démission et lancé la course à la direction du Parti libéral. Elle est devenue virale peu après la victoire de Mark Carney à la tête du parti, le 9 mars. La plateforme Disinfowatch pointe pour sa part la responsabilité de la propagande russe. Une image générée par IAL'image en question est plutôt bien faite. Ses auteurs en ont volontairement dégradé la qualité afin de brouiller les pistes. Toutefois, si on s'attarde sur l'arrière-plan, on distingue plusieurs incohérences. Les filles en maillot de bain ont le visage déformé et l'avant-bras de l'une des baigneuses (sur la gauche de l'image) a une forme en « S » qui ne correspond à la réalité. De plus, même en prenant en compte le phénomène de réfraction de la lumière dans l'eau de la piscine, le bras de Mark Carney apparaît surdimensionné à l'image. Il s'agit d'une infox, comme le détaillent les équipes du collectif Newsguard.Constat similaire sur la photo avec Tom Hanks et Ghislaine Maxwell. Là encore, les doigts sont déformés, et une partie du siège est manquant sous la cuisse droite de Mark Carney. Enfin, si on effectue une recherche par image inversée, on s'aperçoit aussi que cette image a déjà été partagée en ligne, qu'elle porte en bas à droite la mention « Grok ». C'est la signature de l'intelligence artificielle générative d'Elon Musk.Une part d'ambiguïtéEn effectuant des recherches, on retrouve une photo a priori authentique de Mark Carney, à deux pas de Ghislaine Maxwell. Cette photo a refait surface sur les réseaux en janvier 2025, mais elle date de 2013. Mark Carney, alors gouverneur de la Banque d'Angleterre, avait été photographié lors d'un festival avec sa femme Diana Fox et d'autres personnalités de la société mondaine britannique, dont Ghislaine Maxwell. Lors de la republication, l'équipe de campagne de Carney a démenti tout lien affirmant que Carney et Maxwel « ne sont pas amis ».À lire aussiCanada: le Premier ministre Mark Carney va annoncer des législatives anticipées pour le 28 avril

Depuis le 6 mars, il ne se passe pas un jour en Syrie sans que de nouvelles images viennent documenter les exécutions de masses qui ont visé la minorité alaouite. Les ONG estiment que plus d'un millier de civils ont été tués. Certaines images sont d'une rare violence. Mais dans ce flot d'images répandues sur les réseaux sociaux, il y a aussi beaucoup d'infox. Ce mélange de documents authentiques et d'images anciennes accentue la confusion, et alimente les tensions communautaires. Depuis la semaine dernière, la cellule Info Vérif de RFI a passé en revue des dizaines de vidéos. Une nouvelle fois, on a assisté à une véritable guerre de l'information autour des massacres survenus dans les villes et les villages de la côte syrienne et de la montagne dans l'ouest du pays. Ce déchaînement de violence laisse des traces sur les réseaux sociaux. On peut y lire beaucoup de commentaires : des condamnations à propos de la responsabilité des nouvelles autorités de Damas, mais aussi une forme de satisfaction affichée par certains qui tentent de légitimer ces actes de vengeances après quatorze ans de guerre civile, et après cinquante-quatre ans de domination alaouite sous le régime el-Assad, père et fils. Dès le vendredi 7 mars, nous avons été confrontés à une multitude de vidéos, provenant de comptes plus au moins fiables. Des images de véritables exécutions sommaires visant la communauté alaouite, parfois combinées à des infox qui ont été relayées et amplifiées par des comptes pro-israéliens, pro-russes ou anti-occidentaux afin de discréditer les nouveaux maîtres de Damas.Ces images choquantes et ces prises de positions ne sont que très peu modérées sur la plateforme X. Certaines vidéos apparaissent régulièrement sur des chaînes Telegram avant de se répandre sur le réseau social d'Elon Musk.Désinformation multiformeDes documents truqués circulent, comme ce faux communiqué attribué à Hayat Tahrir al-Sham (HTS), la formation rebelle qui a pris le pouvoir fin 2024. Un prétendu texte officiel en arabe censé demander aux partisans de HTS de ne plus filmer les exactions dont ils seraient les auteurs. C'est un faux. Vérification faite, il s'agit d'un trucage réalisé à partir d'un communiqué du ministère syrien de la Défense datant du mois dernier. Ce faux a été vu plus de 150 000 fois, rien que sur X.On trouve par ailleurs beaucoup d'images sorties de leur contexte afin de tromper le public et attiser les tensions, par exemple, l'image d'un supplicié attaché à une croix et abattu d'une balle en pleine tête. Les auteurs du post affirment que HTS a entamé une campagne d'élimination des chrétiens. Une recherche par image inversée permet d'établir que cette scène d'exécution remonte en réalité à 2015 et ne se déroulait pas sur la côte syrienne, mais dans la Ghouta, près de Damas.Autre exemple, une rumeur a circulé annonçant la mort d'un haut représentant chrétien de l'Église de Tartous. Démenti formel des autorités religieuses qui assurent qu'elles ne connaissent personne répondant au nom du prêtre cité dans l'infox.Des infox comme celles-ci, il y a en des dizaines sur les réseaux sociaux depuis la semaine dernière. Toutefois, ce constat ne doit pas minimiser la portée des exactions réelles commises ces derniers jours. Les autorités de Damas ont d'ailleurs annoncé la formation d'une « Commission d'enquête indépendante sur les exactions contre les civils, afin d'identifier les responsables et de les traduire en justice ». Les autorités ont communiqué sur l'arrestation d'au moins sept personnes depuis lundi, accusées d'avoir commis des exactions contre des civils, et les ont déférées devant la justice militaire.Un moment propice aux tentatives de déstabilisationLa désinformation n'est pas nouvelle en Syrie, mais elle n'a pas disparu avec la fin du régime Assad. Selon la plateforme de fact-checking « Misbar » qui fournit un gros travail de vérification et d'analyse sur le Moyen-Orient, un réseau de comptes suspects, très actifs depuis l'effondrement du régime syrien propagent « des discours de haine et incitent à la violence sectaire en exacerbant les divisions au sein de la société syrienne à un moment critique ». Prudence donc à propos de ce qu'on peut voir, lire ou entendre concernant les évènements en cours en Syrie.

Une semaine après l'altercation entre Donald Trump, JD Vance et Volodymyr Zelensky à la Maison Blanche, le contexte informationnel autour des relations entre les deux pays s'est particulièrement tendu. Énormément de fausses informations circulent sur les réseaux sociaux. Cible prioritaire de cette campagne de désinformation, le président ukrainien est attaqué de toutes parts, à tel point qu'il est difficile de distinguer le vrai du faux. Le dernier exemple de cette campagne de dénigrement est une vidéo montrant Volodymyr Zelensky dans une usine d'armement aux États-Unis. Accompagné de Josh Shapiro, le gouverneur de l'État de Pennsylvanie, on le voit signer le corps d'un obus de 155 mm. En commentaire, les utilisateurs qui partagent ces images écrivent : « avant d'avoir de la sympathie pour Zelensky, n'oubliez pas qu'il a signé, avec le sourire, des bombes destinées à être larguées sur des enfants dans la bande de Gaza ». Au total, ce récit a été vu plusieurs millions de fois ces derniers jours.Vérification faîte, ces images n'ont rien à voir avec la bande de Gaza. Ces obus signés par Volodymyr Zelensky étaient en réalité destinés à l'armée ukrainienne et non aux soldats israéliens. En effectuant une recherche avec les mots clés « Volodymyr Zelensky », « Josh Shapiro » et « Pennsylvanie », on retrouve cette vidéo publiée sur la chaine YouTube de l'Agence France Presse, le 23 septembre 2024.Le président ukrainien était en déplacement en Pennsylvanie où il a visité l'usine de munitions de l'armée de Terre de Scranton qui a fourni l'Ukraine en obus de 155 mm. Un compte-rendu détaillé de sa visite est disponible sur le site internet de la présidence ukrainienne.Volodymyr Zelensky en costume ?Largement commentée lors de sa visite à la Maison Blanche, la tenue du président ukrainien fait aussi l'objet de nombreuses rumeurs. Si Volodymyr Zelensky s'est engagé à ne plus porter de costume avant la fin de la guerre, certains affirment, photo à l'appui, qu'il aurait récemment dérogé à la règle lors d'une rencontre avec Klaus Schwab, le fondateur du Forum de Davos. « Voilà ce qui se passe quand on rencontre son vrai patron », commentent plusieurs utilisateurs adeptes des théories complotistes et de la propagande pro-russe.Sauf que là encore, cette image est sortie de son contexte. Une recherche par image inversée permet de retrouver l'origine de ce cliché. Il a été pris le 22 janvier 2020 lors de la 50ᵉ édition du forum économique. L'invasion à grande échelle de l'Ukraine par la Russie n'avait pas commencé, ce qui explique le costume porté par Volodymyr Zelensky.La propagande par l'humourAu-delà de ces infox, certains se servent aussi de l'humour pour dénigrer l'image du président ukrainien. Ces derniers jours, les vidéos de Volodymyr Zelensky, modifiées grâce à l'intelligence artificielle, se sont multipliées sur les réseaux sociaux. On peut le voir sur Fox News en train d'évoquer son addiction à la cocaïne, ou encore face à Donald Trump en train de proposer des actes sexuels contre de l'argent pour son pays.Si ces contenus sont pris au second degré, le message de fond, lui, n'a pas été choisi au hasard. Le narratif est toujours aligné sur ce que diffusent les propagandistes russes depuis maintenant plus de trois ans. L'analyse de la propagation de ces vidéos artificielles montre d'ailleurs l'implication directe d'acteurs déjà maintes fois identifiés comme des relais de la propagande du Kremlin.