POPULARITY
Le sommet mondial sur l'intelligence artificielle s'est tenu en Inde, cette semaine, une quinzaine de chefs d'État étaient présents, notamment le président français Emmanuel Macron, mais aussi le gotha des patrons de la tech, de Sam Altman pour OpenAI à Sundar Pichai pour Google. L'Inde a présenté cet évènement comme l'occasion de faire de l'IA un outil démocratique et universel, se faisant ainsi le porte-voix des pays du Sud Global. New Delhi et Paris partagent d'ailleurs l'ambition d'ouvrir une « troisième voie » entre les mastodontes que sont les États-Unis et la Chine, tout en régulant ce secteur en pleine expansion. Est-il possible de dépasser les dépendances aux systèmes actuels, et aux plateformes où pullule la désinformation ? Quelle stratégie adopter entre soutien à l'innovation et régulation pour bâtir une souveraineté numérique ? Nous en parlons avec nos deux invités : - Tariq Krim, entrepreneur du web, ancien vice-président du Conseil national du numérique et créateur de la newsletter Cybernetica. - Stefania di Stefano, docteure en Droit international et chercheuse postdoctorale au sein de la Chaire sur la modération des contenus, Conservatoire national des Arts et Métiers (CNAM). La chronique de Grégory Genevrier de la cellule Info Verif de RFI : Inde : plusieurs deepfake ciblent le Rafale et les relations avec la France.
Emmanuel Macron s'est rendu en Inde cette semaine pour renforcer le partenariat stratégique entre les deux pays. Les discussions entre Paris et New Delhi ont porté sur l'intelligence artificielle, mais aussi sur la vente possible de plus de cent avions de chasse français Rafale. Un dossier hautement sensible, ciblé par une série de deepfake détournant le visage du président français et du Premier ministre indien, Narendra Modi. Tout commence mardi 17 janvier avec la diffusion sur X (ex-Twitter) d'une vidéo de quarante trois secondes. On voit Emmanuel Macron, drapeaux français en arrière-plan, en pleine déclaration, devant un pupitre décoré avec des fleurs. On pense alors l'entendre parler en anglais. Il semble affirmer que la France ne « pourra pas devenir un partenaire de l'Inde dans le domaine de la défense ». « Nous avons déjà perdu un milliard de dollars sur le marché Rafale en raison de l'inefficacité de l'armée de l'air indienne. Nous ne pouvons pas faire partie d'une organisation défaillante qui ternirait davantage notre réputation ». Ce narratif mensonger fait référence à l'opération militaire Sindoor menée par l'Inde au Pakistan en mai 2025 et où New Delhi aurait perdu au moins un avion Rafale. Un deepfake anglophone En réalité, Emmanuel Macron n'a jamais prononcé ces mots. C'est un deepfake, un hypertrucage généré par intelligence artificielle. Ce type d'outil permet de faire dire n'importe quoi à n'importe qui en quelques clics. La première étape de vérification consiste à identifier l'origine précise de cet extrait. Pour ça, nous avons procédé à plusieurs recherches par image inversée (voir ici comment faire). Cela nous a permis de retrouver la déclaration d'Emmanuel Macron et de Narendra Modi à Bombay, le 17 février 2026. Si on y retrouve bien le même décor, les mêmes gestes, les propos eux, sont totalement différents. L'extrait qui a été manipulé débute à 27'53. D'abord, Emmanuel Macron s'exprime en français et non en anglais. De plus, durant les quinze minutes de son allocution, le président loue un partenariat sans « limites » et en pleine « accélération » avec l'Inde. Il ne parle pas des Rafales, ni ne critique l'armée de l'air indienne. Comptes pro-pakistanais et pro-chinois À l'origine de cette fausse information, on retrouve un compte X anonyme, qui se présente, à tort, comme un lanceur d'alerte. Dans les faits, il publie quotidiennement des deepfake et des infox destinées à dénigrer l'armée indienne et, au contraire, à vanter la puissance du Pakistan. Il a notamment partagé un hypertrucage de Narendra Modi au sujet, une nouvelle fois, des avions français Rafale. Ces infox s'inscrivent dans une vaste opération de désinformation. En effet, depuis la série de bombardements menés par l'armée indienne contre le Pakistan en mai 2025, le Rafale est victime d'une intense campagne de dénigrement dans la région. Derrière tout ça, on retrouve un écosystème de comptes et de médias chinois et pakistanais. Leurs objectifs consistent à ternir la réputation de l'avion fabriquée par Dassault, à promouvoir le matériel de fabrication chinoise et à affaiblir, par la même occasion, le partenariat franco-indien.
Le sommet mondial sur l'intelligence artificielle s'est tenu en Inde, cette semaine, une quinzaine de chefs d'État étaient présents, notamment le président français Emmanuel Macron, mais aussi le gotha des patrons de la tech, de Sam Altman pour OpenAI à Sundar Pichai pour Google. L'Inde a présenté cet évènement comme l'occasion de faire de l'IA un outil démocratique et universel, se faisant ainsi le porte-voix des pays du Sud Global. New Delhi et Paris partagent d'ailleurs l'ambition d'ouvrir une « troisième voie » entre les mastodontes que sont les États-Unis et la Chine, tout en régulant ce secteur en pleine expansion. Est-il possible de dépasser les dépendances aux systèmes actuels, et aux plateformes où pullule la désinformation ? Quelle stratégie adopter entre soutien à l'innovation et régulation pour bâtir une souveraineté numérique ? Nous en parlons avec nos deux invités : - Tariq Krim, entrepreneur du web, ancien vice-président du Conseil national du numérique et créateur de la newsletter Cybernetica. - Stefania di Stefano, docteure en Droit international et chercheuse postdoctorale au sein de la Chaire sur la modération des contenus, Conservatoire national des Arts et Métiers (CNAM). La chronique de Grégory Genevrier de la cellule Info Verif de RFI : Inde : plusieurs deepfake ciblent le Rafale et les relations avec la France.
Son nom veut dire « vérité » en russe, ce qui est assez ironique. « Pravda » est un réseau de sites web, un relais de la propagande pro-Kremlin qui a publié 6 millions 300 000 articles en 2025. Derrière cette nébuleuse, se trouve Yevgeny Shevchenko, le désinformateur de l'année 2025, un titre décerné par Newsguard, entreprise américaine qui lutte contre les fausses informations. Comment ce réseau d'infox est parvenu à polluer des dizaines de pays, en 49 langues, qui est son fondateur, comment les modèles d'intelligence artificielle se font parfois piéger et comment lutter contre Pravda ? Éléments de réponse avec notre invité, Chine Labbé, rédactrice en chef Europe chez Newsguard. La chronique d'Olivier Fourt de la cellule Info vérif de RFI : Non, des missiles Javelin ukrainiens n'ont pas fini entre les mains de jihadistes nigérians La chronique de Emilie Béraud de l'AFP Factuel : Attention, cette vidéo d'un prétendu «quartier rouge» à Accra a été générée par IA.
Son nom veut dire « vérité » en russe, ce qui est assez ironique. « Pravda » est un réseau de sites web, un relais de la propagande pro-Kremlin qui a publié 6 millions 300 000 articles en 2025. Derrière cette nébuleuse, se trouve Yevgeny Shevchenko, le désinformateur de l'année 2025, un titre décerné par Newsguard, entreprise américaine qui lutte contre les fausses informations. Comment ce réseau d'infox est parvenu à polluer des dizaines de pays, en 49 langues, qui est son fondateur, comment les modèles d'intelligence artificielle se font parfois piéger et comment lutter contre Pravda ? Éléments de réponse avec notre invité, Chine Labbé, rédactrice en chef Europe chez Newsguard. La chronique d'Olivier Fourt de la cellule Info vérif de RFI : Non, des missiles Javelin ukrainiens n'ont pas fini entre les mains de jihadistes nigérians La chronique de Emilie Béraud de l'AFP Factuel : Attention, cette vidéo d'un prétendu «quartier rouge» à Accra a été générée par IA.
Alors que les attentats et les enlèvements se multiplient au Nigéria, les États-Unis renforcent leur lutte antiterroriste dans la région. Dans ce contexte, une infox est apparue sur les réseaux. Selon une vidéo trompeuse, l'organisation terroriste État islamique en Afrique de l'Ouest s'adresserait au président Donald Trump, en le menaçant d'utiliser des armes récupérées en Ukraine pour frapper les intérêts occidentaux. Un faux message qui a soulevé des interrogations sur la toile. Le message dure 52 secondes. Son auteur a tenté de faire croire à une publication officielle du groupe ISWAP. Sur cette vidéo, on distingue cinq hommes en armes. Au premier plan, un combattant le visage enturbanné s'exprime en anglais. Il menace directement Donald Trump, et conseille aux Américains de « ne pas interférer dans le conflit interne au Nigéria ». La séquence est précédée d'une introduction où apparait un logo sur fond noir identique à celui que l'on retrouve sur certaines publications de l'État islamique. Ce montage est destiné à donner du crédit à cette infox. Pour analyser la vidéo, nous avons tout d'abord utilisé un outil de détection d'IA (Hive) afin de savoir si cette séquence a été générée artificiellement. Résultat : selon le logiciel, les images proviennent d'un véritable enregistrement vidéo, peut-être une mise en scène avec des acteurs, mais le son a été fabriqué de toutes pièces. Attention, on sait que les outils employés par la détection des images créées par IA ne sont pas fiables à 100 %. Nous avons donc recherché parallèlement des invraisemblances ou des aberrations graphiques pour nous permettre d'en savoir plus. Visuellement, deux éléments ont attiré notre attention. Plusieurs personnages ont le regard fixe, sans aucun battement de cils durant la totalité de la vidéo. Par ailleurs, le missile portable posé sur l'épaule de l'un des prétendus combattants de l'État islamique, situé à l'arrière-plan, est incomplet. Il manque le poste de tir, c'est-à-dire la poignée et le système de visé. Tel qu'il apparait à l'image, son utilisation est impossible. Pas de missiles Javelin ukrainiens au Nigeria Le tube de missile montré à l'écran, semble identique à ceux des FGM-148 Javelin livrés par les États-Unis à l'Ukraine. C'est un élément central dans cet infox. Pour ses auteurs, c'est une sorte de preuve par l'image de la dispersion de ces armes. Un narratif récurrent. Sauf qu'aucun de ces missiles anti-char trés modernes, n'a été retrouvé au Nigéria. Cependant, on estime que Washington a fourni plus de dix-mille engins de ce type à l'armée Ukrainienne. Sur la piste son, une voix synthétique, enfonce le clou, en anglais, en affirmant que « le groupe islamique a récupéré des missiles Javelin en Ukraine, et qu'ils vont être utilisés contre les infidèles ». En quelques jours, la vidéo a été vue plusieurs millions de fois rien que sur X. Les commentaires fusent. Un utilisateur s'interroge : « Encore combien de missiles perdus, dans la nature ? (...) C'est effrayant, la question est à présent de savoir comment ces missiles sont arrivé là (...) Il est largement temps de rendre des comptes », écrit un autre LÉtatt islamique n'a pas produit cette vidéo Les spécialistes des mouvements djihadistes que nous avons consulté, n'ont pas cru une seconde que cette vidéo provenait de l'État islamique. L'un d'entre eux note sur X : « L'utilisation de deux traductions simultanées en arabe et en anglais est contraire aux pratiques médiatiques de l'organisation terroriste. L'utilisation d'un bandeau blanc pour la traduction ne correspondant pas aux vidéos déjà vérifiées. Enfin, le logo de l'EI est absent dans le coin supérieur droit de l'image ». Un message qui reprend les codes de la désinformation russe À l'écran, la mise en scène est très proches de celle de trois précédentes vidéos, dont nous avions déja parlé ici : à savoir de prétendues menaces jihadistes contre la France en Juillet 2024 juste avant les JO, mais aussi janvier 2025, et septembre 2025. La fausse nouvelle apparue à partir du 30 janvier dernier, a d'abord circulé à bas bruit, avant d'être amplifiée par une poignée de comptes pro-Trump, complotistes ou d'extrême droite principalement sur X, le réseau d'Elon Musk. Selon plusieurs contributeurs, cette infox présente des caractéristiques communes avec l'opéraiton de désinformation russe baptisée STORM 15-16. Cette campagne comporte différents objectifs : décrédibiliser l'Ukraine dénigrer les politiques occidentales, tout en jouant sur les peurs du public autour de sujets comme le terrorisme ou l'immigration. Risque réel de dissémination des armes utilisées en Ukraine Si la vidéo est le fruit d'une mise en scène ou même une création par l'IA, la dispersion des armes employées sur le champ de bataille est une préoccupation des autorités. Ce n'est pas nouveau. Ce fut le cas, en Europe, après les guerres, dans les Balkans dans les années 90, ou encore en Afrique, au Sahel après la guerre civile libyenne qui débuta en 2011. Dans son rapport 2025, Europol, l'agence européenne de lutte contre la grande criminalité internationale et le terrorisme assure qu'il n'y a pas eu pour l'heure de saisies en grande quantité d'armes de contrebande en provenance d'Ukraine mais précise que « des inquiétudes persistent quant à la possibilité de voir ce pays devenir une source importante d'approvisoonement illicite à court et moyen terme ».
Opération clandestine à des fins de subversion, c'est une des armes de l'arsenal russe pour faire dérailler les démocraties. L'affaire des mains rouges au printemps 2024 en est un cas d'école. Depuis, d'autres opérations du même type se sont multipliées en Europe. Leur point commun: l'amplification artificielle sur les réseaux sociaux afin d'alimenter la polarisation de la société. Ces manipulations de l'opinion témoignent d'une stratégie russe de plus en plus offensive en Europe. Retour sur l'affaire des mains rouges, opération clandestine menée en lien avec les services de renseignement militaire russe. Le procès des principaux exécutants a permis de lever le voile sur une partie du dispositif. Notre invité le chercheur Clément Renault est l'auteur d'un article éclairant sur cette opération: « Des mains rouges dans les rues de Paris: un petit acte de vandalisme au service d'une grande stratégie russe », dans Le Rubicon. Clément Renault est chercheur à l'IRSEM, spécialiste du renseignement. La chronique de Pierre Moutot de l'Afp factuel: Affaire Epstein : des personnalités ciblées par des infox après la publication de nouveaux documents La chronique de Grégory Genevrier de la cellule Info vérif de RFI: Cameroun : des cuves de fermentation de bière présentées comme des armes nucléaires.
Au Cameroun, une vidéo mensongère sème le doute sur Tik Tok. Ce clip prétend montrer, à tort, l'arrivée de plusieurs missiles nucléaires de fabrication russe dans le pays. En réalité, il s'agit de cuves de fermentation destinées à une usine de production de bière, à Bafoussam. Si ces images détournées prêtent à sourire, elles illustrent en réalité un mode opératoire récurrent sur les réseaux sociaux. La vidéo est assez impressionnante. Durant 37 secondes, on voit deux camions gros porteurs transporter deux énormes machines de forme cylindrique. Ce convoi exceptionnel circule sur une route bitumée, sous le regard surpris de quelques passants. La légende parle, à tort, de l'arrivée au Cameroun d'au moins deux « Satan », des missiles balistiques intercontinentaux de fabrication russe. Ces engins de 35 mètres de long sont capables de transporter des ogives nucléaires. Dans les faits, ces images n'ont rien à voir avec des missiles nucléaires. Plusieurs éléments permettent rapidement de douter de cette version. D'abord, ni les Russes ni les Camerounais n'ont communiqué sur une telle livraison. Ce convoi exceptionnel n'est d'ailleurs pas escorté par des véhicules militaires, ce qui est la norme quand on transporte du matériel aussi sensible. Enfin, un missile nucléaire ne serait certainement pas protégé par une simple bâche en plastique et quelques morceaux de bois, comme c'est le cas ici. Des cuves de fermentation inoffensives Pour savoir ce que montre réellement cette vidéo, nous nous sommes intéressés à cette inscription visible sur la partie avant de l'une de ces grosses machines. Il y est écrit SABC. Il s‘agit du nom de la Société Anonyme des Boissons du Cameroun. Nous avons contacté la société qui produit notamment de la bière et des spiritueux. « Les équipements visibles dans la vidéo sont des TOD (Tank Out Door) destinées à notre usine de Bafoussam. Il s'agit de deux cuves de fermentation utilisées dans le cadre normal de notre processus de production », précise l'entreprise qui nous a envoyé plusieurs photos de ces cuves sur le site de Bafoussam. Ces nouveaux tankers sont arrivés à destination le vendredi 30 janvier 2026. Ils permettent de faire de la bière mais certainement pas de fabriquer des missiles. Un mode opératoire en vogue Ce n'est pas la première fois qu'une machine industrielle est présentée, à tort, comme une arme de destruction massive. En novembre 2024, nous avions déjà épinglé une infox similaire à propos d'une prétendue « nouvelle bombe nucléaire russe en cours de fabrication ». En réalité, il s'agissait d'une gigantesque colonne de régénération qui sert au traitement des produits issus du raffinage. À chaque fois, on retrouve une énorme machine de forme cylindrique accompagnée d'une légende racoleuse à coups de bombe nucléaire ou de missiles supersoniques. À en croire les indicateurs de viralité, cette recette fonctionne. Cette fausse information au Cameroun approche par exemple les 2 millions de vues, rien que sur Tik Tok. Il faut dire que le cocktail images impressionnantes et narratif spectaculaire plaît aux algorithmes qui mettent en avant la vidéo, même si celle-ci est mensongère. En règle générale, il vaut mieux se méfier de ces comptes qui affirment repérer des armes nucléaires circulant dans la nature.
Opération clandestine à des fins de subversion, c'est une des armes de l'arsenal russe pour faire dérailler les démocraties. L'affaire des mains rouges au printemps 2024 en est un cas d'école. Depuis, d'autres opérations du même type se sont multipliées en Europe. Leur point commun: l'amplification artificielle sur les réseaux sociaux afin d'alimenter la polarisation de la société. Ces manipulations de l'opinion témoignent d'une stratégie russe de plus en plus offensive en Europe. Retour sur l'affaire des mains rouges, opération clandestine menée en lien avec les services de renseignement militaire russe. Le procès des principaux exécutants a permis de lever le voile sur une partie du dispositif. Notre invité le chercheur Clément Renault est l'auteur d'un article éclairant sur cette opération: « Des mains rouges dans les rues de Paris: un petit acte de vandalisme au service d'une grande stratégie russe », dans Le Rubicon. Clément Renault est chercheur à l'IRSEM, spécialiste du renseignement. La chronique de Pierre Moutot de l'Afp factuel: Affaire Epstein : des personnalités ciblées par des infox après la publication de nouveaux documents La chronique de Grégory Genevrier de la cellule Info vérif de RFI: Cameroun : des cuves de fermentation de bière présentées comme des armes nucléaires.
En Pologne, la désinformation russe continue de se frayer un chemin sur les réseaux sociaux. Depuis plusieurs semaines, des contenus générés par l'intelligence artificielle font la promotion du Polexit, c'est-à-dire la sortie de la Pologne de l'Union européenne. Ces vidéos sont devenues si virales qu'à Varsovie, les autorités se sont saisies de la question. De notre correspondant à Varsovie, Sûre d'elle, le regard face caméra, la jeune influenceuse s'adresse directement aux spectateurs, les emblèmes nationaux imprimés sur son t-shirt blanc. « Je veux le Polexit, car je veux la liberté de choisir. Même si ça doit nous coûter plus cher. Je n'ai pas connu la Pologne avant l'Union européenne, mais j'ai le sentiment qu'elle était davantage polonaise qu'aujourd'hui ». Ce visage séduisant, créé par l'intelligence artificielle, a rassemblé plus de 200 000 vues et plus de 20 000 likes sur le compte TikTok Prawilne Polki (« les vraies Polonaises » en français). L'apparence de ses pseudo-influenceuses leur a notamment permis d'atterrir sur l'algorithme des plus jeunes utilisateurs et des utilisatrices de la plateforme. « Je veux le Polexit. Il y en a marre que la Pologne soit dirigée depuis Bruxelles. Il y en a marre d'entendre qu'on ne peut pas se débrouiller sans une bénédiction venue de l'extérieur. C'est notre droit, notre argent et nos décisions ». Une campagne de désinformation ciblée L'objectif de ces vidéos est clairement affiché : convaincre les internautes Polonais des bienfaits du Polexit en décrédibilisant l'Union européenne et inciter à la haine contre le gouvernement de Donald Tusk. « Quand je parle du Polexit, on me répond "peur, catastrophe, fin du monde". C'est toujours la même musique. Aucune discussion sur "qui décide réellement à notre place", et "pourquoi". Il est grand temps que l'on puisse en parler tranquillement ». À un an des élections européennes, les autorités polonaises prennent la menace de ces vidéos très au sérieux, et ont elles-mêmes demandé à TikTok de bloquer le compte de Prawilne Polki. Pour le porte-parole du gouvernement, l'entité derrière cette campagne de désinformation ne fait aucun mystère. « Cela ne fait aucun doute qu'il s'agit d'un acte de désinformation russe. D'abord parce que ça ne va pas dans le sens des intérêts de la Pologne, mais 100% sans le sens des intérêts russes. Et ensuite parce qu'en regardant attentivement, on remarque la grammaire russe ». TikTok dans le viseur des autorités Signataire du « Code de pratique européen sur la désinformation », TikTok est censée identifier et empêcher la propagation de ce type de contenu. Le vice-ministre du Numérique, Dariusz Standerski, s'est tourné vers Bruxelles pour mettre à jour d'éventuels manquements de la part de la plateforme. « J'ai adressé une requête à la vice-présidente de la Commission européenne, (...) pour enquêter et savoir si TikTok remplit sa mission d'évaluation des risques liés à la propagation de la désinformation, (...) et si elle a réagi assez et assez vite pour bloquer des contenus qui vont à l'encontre de son règlement ». Selon un sondage paru début décembre, un quart des Polonais se déclare aujourd'hui en faveur du Polexit.
Un texte de loi a été adopté, cette semaine, à l'Assemblée nationale pour restreindre l'accès des plus jeunes aux réseaux sociaux. Ce n'est que le début du processus législatif qui devrait aboutir à la prochaine rentrée. Et ce n'est qu'un volet de l'action envisagée pour protéger enfants et adolescents des pratiques abusives constatées sur certaines plateformes numériques. C'est, en tout cas, le résultat d'une prise de conscience généralisée face à l'impact des écrans sur nos vies. Les dispositifs de captation de l'attention sur les réseaux sociaux, défilement automatique des vidéos et algorithmes de recommandation de plus en plus personnalisés, tout cela impacte la santé physique et mentale des plus jeunes. Une loi vise à restreindre l'accès des moins de 15 ans, aux plateformes numériques les plus nocives. Notre invitée, Servane Mouton, neurologue, a contribué à son élaboration. Elle co-présidait la commission sur l'exposition des enfants aux écrans, qui a rendu son rapport en 2024 à Emmanuel Macron. Servane Mouton estime que l'on est au bord d'un désastre sanitaire, que ses premiers effets sont déjà constatés, mais qu'il est encore temps d'agir. Servane Mouton est l'autrice de « Écrans, un désastre sanitaire, il est encore temps d'agir », éditions Tracts-Gallimard La chronique de Grégory Genevrier de la cellule Info vérif de RFI: Syrie: une vieille infox ciblant la Croix-Rouge refait surface La chronique de Quang Pham des Observateurs de France 24: Sexe et IA : l'identité de la police française usurpée.
En Pologne, la désinformation russe continue de se frayer un chemin sur les réseaux sociaux. Depuis plusieurs semaines, des contenus générés par l'intelligence artificielle font la promotion du Polexit, c'est-à-dire la sortie de la Pologne de l'Union européenne. Ces vidéos sont devenues si virales qu'à Varsovie, les autorités se sont saisies de la question. De notre correspondant à Varsovie, Sûre d'elle, le regard face caméra, la jeune influenceuse s'adresse directement aux spectateurs, les emblèmes nationaux imprimés sur son t-shirt blanc. « Je veux le Polexit, car je veux la liberté de choisir. Même si ça doit nous coûter plus cher. Je n'ai pas connu la Pologne avant l'Union européenne, mais j'ai le sentiment qu'elle était davantage polonaise qu'aujourd'hui ». Ce visage séduisant, créé par l'intelligence artificielle, a rassemblé plus de 200 000 vues et plus de 20 000 likes sur le compte TikTok Prawilne Polki (« les vraies Polonaises » en français). L'apparence de ses pseudo-influenceuses leur a notamment permis d'atterrir sur l'algorithme des plus jeunes utilisateurs et des utilisatrices de la plateforme. « Je veux le Polexit. Il y en a marre que la Pologne soit dirigée depuis Bruxelles. Il y en a marre d'entendre qu'on ne peut pas se débrouiller sans une bénédiction venue de l'extérieur. C'est notre droit, notre argent et nos décisions ». Une campagne de désinformation ciblée L'objectif de ces vidéos est clairement affiché : convaincre les internautes Polonais des bienfaits du Polexit en décrédibilisant l'Union européenne et inciter à la haine contre le gouvernement de Donald Tusk. « Quand je parle du Polexit, on me répond "peur, catastrophe, fin du monde". C'est toujours la même musique. Aucune discussion sur "qui décide réellement à notre place", et "pourquoi". Il est grand temps que l'on puisse en parler tranquillement ». À un an des élections européennes, les autorités polonaises prennent la menace de ces vidéos très au sérieux, et ont elles-mêmes demandé à TikTok de bloquer le compte de Prawilne Polki. Pour le porte-parole du gouvernement, l'entité derrière cette campagne de désinformation ne fait aucun mystère. « Cela ne fait aucun doute qu'il s'agit d'un acte de désinformation russe. D'abord parce que ça ne va pas dans le sens des intérêts de la Pologne, mais 100% sans le sens des intérêts russes. Et ensuite parce qu'en regardant attentivement, on remarque la grammaire russe ». TikTok dans le viseur des autorités Signataire du « Code de pratique européen sur la désinformation », TikTok est censée identifier et empêcher la propagation de ce type de contenu. Le vice-ministre du Numérique, Dariusz Standerski, s'est tourné vers Bruxelles pour mettre à jour d'éventuels manquements de la part de la plateforme. « J'ai adressé une requête à la vice-présidente de la Commission européenne, (...) pour enquêter et savoir si TikTok remplit sa mission d'évaluation des risques liés à la propagation de la désinformation, (...) et si elle a réagi assez et assez vite pour bloquer des contenus qui vont à l'encontre de son règlement ». Selon un sondage paru début décembre, un quart des Polonais se déclare aujourd'hui en faveur du Polexit.
En Syrie, les forces gouvernementales mènent depuis début janvier une vaste offensive dans le nord-est du pays. Le président Ahmed al-Charaa cherche à reprendre le contrôle des territoires dirigés par l'Administration autonome du nord et de l'est de la Syrie. Alors qu'un cessez-le-feu entre Damas et les Forces démocratiques syriennes (FDS), à majorité kurde, a été prolongé, la désinformation gagne du terrain. La dernière infox en date cible les FDS et la Croix-Rouge. Tout repose sur une vidéo mensongère diffusée sur les réseaux sociaux en début de semaine. Durant quarante-neuf secondes, on y voit des dizaines de caisses métalliques, remplies d'argent liquide, entassées dans un hangar. Ces boîtes portent le logo du Comité international de la Croix-Rouge (CICR). Les commentaires affirment, à tort, que « les services de renseignement turc et syrien viendraient ainsi de saisir une importante cargaison d'argent liquide en provenance des Émirats arabes unis, à destination des Forces démocratiques syriennes ». En réalité, ces images n'ont rien à voir avec la situation en cours en Syrie. Grâce à une recherche par image inversée, on sait que cette vidéo est ancienne. Elle circule en ligne depuis maintenant plus de huit ans. Nous nous sommes également intéressés à ce texte en arabe visible sur l'une des caisses métalliques. Il y est écrit « Grande Jamahiriya arabe libyenne populaire et socialiste - Tripoli - 15 juillet 2011 ». Il s'agit du nom utilisé par l'État libyen sous le régime de Mouammar Kadhafi. Le CICR dément Cette vidéo est similaire à deux photos publiées dans un rapport de l'ONU en juin 2017. Il y est question de la transition politique en Libye, et de potentiels transferts d'argent dissimulés en Afrique de l'Ouest après la chute du dictateur. On y apprend que ces caisses étaient entreposées dans un hangar à Accra, au Ghana. Sur ces clichés, on retrouve le même sol, les mêmes caisses métalliques, et surtout la même inscription en arabe, que sur cette vidéo. Cette vidéo mensongère avait poussé le Comité international de la Croix-Rouge à réagir. Début 2018, le CICR déclarait, dans un communiqué, qu'il n'avait « absolument rien à voir avec le stockage ou le transport d'argent liquide mentionné dans cette vidéo ». L'organisme dénonçait une « utilisation abusive de son logo » et « une vidéo alimentant de fausses théories du complot ». Une infox à la mode Depuis son apparition en 2018, ce clip refait régulièrement surface dans différents contextes. De l'argent envoyé par l'Union européenne à des combattants ukrainiens, des millions de dollars détournés au Brésil, des billets envoyés par les Américains à Haïti pour encourager la corruption : les narratifs mensongers collés à cette vidéo se comptent par dizaines. Avec très peu d'éléments de contexte, ces images sont faciles à détourner, au gré de l'actualité. Une chose est sûre, elle ne documente pas un transfert d'argent des Émirats arabes unis, à destination des Forces démocratiques syriennes.
Un texte de loi a été adopté, cette semaine, à l'Assemblée nationale pour restreindre l'accès des plus jeunes aux réseaux sociaux. Ce n'est que le début du processus législatif qui devrait aboutir à la prochaine rentrée. Et ce n'est qu'un volet de l'action envisagée pour protéger enfants et adolescents des pratiques abusives constatées sur certaines plateformes numériques. C'est, en tout cas, le résultat d'une prise de conscience généralisée face à l'impact des écrans sur nos vies. Les dispositifs de captation de l'attention sur les réseaux sociaux, défilement automatique des vidéos et algorithmes de recommandation de plus en plus personnalisés, tout cela impacte la santé physique et mentale des plus jeunes. Une loi vise à restreindre l'accès des moins de 15 ans, aux plateformes numériques les plus nocives. Notre invitée, Servane Mouton, neurologue, a contribué à son élaboration. Elle co-présidait la commission sur l'exposition des enfants aux écrans, qui a rendu son rapport en 2024 à Emmanuel Macron. Servane Mouton estime que l'on est au bord d'un désastre sanitaire, que ses premiers effets sont déjà constatés, mais qu'il est encore temps d'agir. Servane Mouton est l'autrice de « Écrans, un désastre sanitaire, il est encore temps d'agir », éditions Tracts-Gallimard La chronique de Grégory Genevrier de la cellule Info vérif de RFI: Syrie: une vieille infox ciblant la Croix-Rouge refait surface La chronique de Quang Pham des Observateurs de France 24: Sexe et IA : l'identité de la police française usurpée.
Donald Trump a célébré, mardi 20 janvier 2026, sa première année de mandat de président des États-Unis. L'occasion de plonger au cœur de sa rhétorique si particulière. Avec ses sorties médiatiques et ses innombrables messages sur les réseaux sociaux, Donald Trump a réponse à tout, et il ne s'embarrasse pas des coutumes associées à son poste. Il menace, il insulte, il humilie pour obtenir ce qu'il veut. Entre communication compulsive, médias ultra-sollicités et dans le même temps malmenés, quelle stratégie le milliardaire conservateur a-t-il mise en place pour essayer d'imposer sa vision du monde ? Décryptage avec notre invité, le chercheur Jérôme Viala-Gaudefroy, docteur en Civilisation américaine, chargé de cours à Sciences Po Paris et auteur du livre « Les mots de Trump » (éd. Dalloz, 2024). La chronique de Grégory Genevrier de la cellule Info vérif de RFI : Ukraine : une opération de désinformation pro-russe cible la France et ses «Rafale» La chronique de Cintia Cabral de l'Afp factuel : En Ukraine, les veuves expropriées au profit de l'État ? C'est de la désinformation.
Alors que les frappes russes sur les infrastructures énergétiques ukrainiennes se multiplient, les attaques informationnelles se poursuivent aussi sur les réseaux sociaux. Une énième opération de désinformation pro-russe ciblent actuellement l'Ukraine et la France. Cette fausse information, assez complexe, repose sur une affaire de corruption, inventée de toutes pièces. Tout commence avec l'apparition d'une vidéo assez étrange sur les réseaux sociaux le 18 janvier. Il y est question d'un supposé « scandale » autour du projet d'achat de chasseurs français Rafale par l'Ukraine. On y entend une voix robotique, avec un accent très prononcé, affirmer, à tort, que des hauts fonctionnaires et des militaires français et ukrainiens, auraient ainsi « détourné 2 milliards d'euros ». Le major général des armées français et des proches du président Volodymyr Zelensky sont notamment cités. L'infox cumule près de quatre millions de vues, rien que sur X (ex-Twitter). Typosquatting Cette opération de désinformation s'appuie sur une enquête prétendument publiée par le Bureau national anticorruption d'Ukraine (NABU). La vidéo renvoie directement vers une page internet qui se présente comme le site officiel de cet organisme ukrainien. On y retrouve leur logo, leur charte graphique ainsi que des liens vers leurs réseaux sociaux. Dans les faits, cette page internet n'est pas authentique. Si visuellement, tout porte à croire qu'il s'agit du site officiel, c'est en réalité un clone. Le nom de domaine n'est pas correct. L'adresse du vrai site internet commence par nabu.gov.ua. Or, cette copie utilise nabu-gov.com. Ce site miroir a été enregistré le 15 janvier 2026. Il s'agit donc d'une page jetable, dédiée uniquement à cette opération de désinformation. Ce mode opératoire s'appelle le typosquatting. Cette technique consiste à enregistrer des noms de domaine, presque identiques à ceux d'institutions ou de médias reconnus pour tromper et désinformer. Le Bureau national anticorruption d'Ukraine dément Vérification faite, cette prétendue enquête n'existe pas. Ces accusations sont introuvables sur le site officiel du Bureau national anticorruption d'Ukraine. L'organisme a d'ailleurs rapidement démenti cette fausse information, dénonçant une usurpation d'identité. Ce scandale de corruption a été totalement inventé afin de nuire à l'image de Kiev et de Paris, l'un de ses principaux alliés. À l'origine de cette infox, on retrouve un écosystème d'acteurs pro-russe participant régulièrement à ce type d'opération de désinformation. Ces comptes, aux centaines de milliers d'abonnés sur X ou Telegram, servent à viraliser et à blanchir des narratifs mensongers, en français et dans d'autres langues. Grâce à ce réseau, ces infox parviennent souvent à atteindre des millions de vues. Le mode opératoire informationnel Storm-1516 Cette infox s'inscrit dans une vaste campagne de désinformation pro-russe baptisée Storm-1516. Ce n'est pas la première fois qu'on en parle dans cette chronique. Ce mode opératoire informationnel (MOI) prend différentes formes, des faux sites internet, au mise en scène en passant par les hypertrucages générés par intelligence artificielle. À lire aussiLa France ciblée par une nouvelle opération de désinformation russe Ces attaques informationnelles visent à dénigrer l'Ukraine, critiquer les politiques occidentales, mais aussi troubler le débat public en désinformant sur des sujets d'actualité.
Donald Trump a célébré, mardi 20 janvier 2026, sa première année de mandat de président des États-Unis. L'occasion de plonger au cœur de sa rhétorique si particulière. Avec ses sorties médiatiques et ses innombrables messages sur les réseaux sociaux, Donald Trump a réponse à tout, et il ne s'embarrasse pas des coutumes associées à son poste. Il menace, il insulte, il humilie pour obtenir ce qu'il veut. Entre communication compulsive, médias ultra-sollicités et dans le même temps malmenés, quelle stratégie le milliardaire conservateur a-t-il mise en place pour essayer d'imposer sa vision du monde ? Décryptage avec notre invité, le chercheur Jérôme Viala-Gaudefroy, docteur en Civilisation américaine, chargé de cours à Sciences Po Paris et auteur du livre « Les mots de Trump » (éd. Dalloz, 2024). La chronique de Grégory Genevrier de la cellule Info vérif de RFI : Ukraine : une opération de désinformation pro-russe cible la France et ses «Rafale» La chronique de Cintia Cabral de l'Afp factuel : En Ukraine, les veuves expropriées au profit de l'État ? C'est de la désinformation.
L'accélération d'un déploiement massif des IA génératives d'images et de textes à l'attention du grand public, se perçoit très nettement sur les réseaux sociaux et pas toujours pour le meilleur. Les infox à base de vidéos et images artificielles sèment le doute non seulement parce qu'elles véhiculent souvent de la désinformation, mais aussi parce qu'elles font désormais douter de tout. La meilleure parade est déjà de s'interroger sur le fonctionnement et l'innocuité des modèles proposés. Le problème avec ce que l'on appelle aujourd'hui « l'intelligence artificielle », c'est que justement les machines ne le sont pas… intelligentes. En tout cas, pas à la manière des humains. Que seraient les machines sans leurs créateurs ? Dans son livre « De la bêtise artificielle », la philosophe Anne Alombert envisage les relations entre les esprits humains et leurs prothèses artificielles dans une relation dynamique. Elle affirme également que cette façon de présenter les IA, à l'attention du grand public, n'est pas anodine. Outre la création d'un rapport de dépendance aux machines, le mythe transhumaniste des grands propriétaires de plateformes est une supercherie qui risque fort d'aboutir à un appauvrissement des savoirs. « Alors que les idées reçues sont intensifiées, les originalités sont évacuées. Le véritable danger n'est pas la singularité technologique mais l'élimination des singularités idiomatiques, la suppression des exceptions et des nouveautés, conditions du renouvellement culturel et de l'évolution des sociétés. » Anne Alombert est philosophe, maîtresse de conférence à l'Université Paris 8, et auteur de « De la bêtise artificielle », éditions Allia: « Tant qu'elle cherchera à imiter et à remplacer les capacités humaines par des performances computationnelles, la soi-disant « intelligence artificielle » ne pourra conduire qu'à la bêtise généralisée. », écrit Anne Alombert et de citer un certain nombre d'initiatives d'acteurs du numérique témoignant, en revanche, de « la possibilité de réconcilier les calculs des algorithmes et les savoirs singuliers, essentiels à la vie politique et culturelle des sociétés. » La chronique de Grégory Genevrier de la cellule Info vérif de RFI: CAN 2025: les vidéos générées par intelligence artificielle occupent le terrain La chronique de Kahofi Suy de l'Afp factuel à Abidjan : Non, le président Tinubu n'a pas rendu visite à Anthony Joshua à l'hôpital.
Quand l'intelligence artificielle s'empare de la Coupe d'Afrique des Nations. Alors que la finale opposera le Maroc et le Sénégal ce dimanche 18 janvier, à Rabat, la désinformation autour de cette CAN 2025 ne faiblit pas sur les réseaux sociaux. Des centaines de vidéos artificielles ciblent notamment l'arbitrage, et le Maroc, pays hôte de cette 25e édition. Depuis le lancement de cette CAN 2025, les accusations d'un arbitrage maison, en faveur des Lions de l'Atlas, sont alimentées par une vague de contenus mensongers sur les réseaux sociaux. Parmi les exemples les plus marquants, on retrouve une vidéo à propos du 8e de finale remporté 1-0 par le Maroc contre la Tanzanie. Durant dix secondes, on pense y voir, à tort, l'arbitre de la rencontre présenter ses excuses aux supporters tanzaniens. Vérification faite, cette vidéo n'est pas réelle. Ces images, vues plus de 5 millions de fois, ont été entièrement générées par intelligence artificielle. Plusieurs éléments le prouvent, comme cet homme qui ne ressemble pas du tout à Boubou Traoré, l'arbitre malien au sifflet de ce match. On note aussi l'absence de bleu sur les drapeaux tanzaniens, un texte illisible sur le logo de la Fifa, ou encore un public anormalement immobile. Les joueurs pris pour cible Ces infox générées par IA détournent également l'image des joueurs, à commencer par la sélection algérienne éliminée en quart de finale contre le Nigeria sur le score de deux à zéro. Une vidéo prétend montrer un Fennec critiquer violemment l'arbitrage et le Maroc en conférence de presse. Mais là encore, tout a été généré par intelligence artificielle. Le maillot algérien ne correspond pas à la tenue officielle. Le logo de la Confédération africaine de football n'est pas correct. Une économie du faux Ce type de vidéos artificielles se comptent par centaine sur les réseaux sociaux. En effet, nous avons identifié plusieurs comptes TikTok qui diffusent quotidiennement ce genre d'infox. Des interviews d'après-match qui dérapent, des arbitres en pleurs, des coachs giflant leurs joueurs dans les vestiaires : les mises en scène touchent toutes les sélections et tous les acteurs, sur ou en dehors du terrain. Au total, ces vidéos cumulent plus de 50 millions de vues, rien que sur TikTok. Si certaines prêtent à sourire, d'autres visent délibérément à désinformer et à attiser les tensions. Les commentaires montrent que certains supporters se font avoir. Comment détecter l'IA Pour détecter l'usage de l'intelligence artificielle, il faut être attentif aux détails visuels. Les logos, les inscriptions textuelles comportent régulièrement des défauts. Les visages des joueurs ne sont pas ressemblants. Le son aussi est souvent trop lisse, trop parfait. De plus, il ne faut pas oublier l'indicateur temporel. Toutes ces fausses vidéos durent de 5 à 15 secondes. C'est un élément qui peut trahir l'utilisation d'un outil d'intelligence artificielle.
L'accélération d'un déploiement massif des IA génératives d'images et de textes à l'attention du grand public, se perçoit très nettement sur les réseaux sociaux et pas toujours pour le meilleur. Les infox à base de vidéos et images artificielles sèment le doute non seulement parce qu'elles véhiculent souvent de la désinformation, mais aussi parce qu'elles font désormais douter de tout. La meilleure parade est déjà de s'interroger sur le fonctionnement et l'innocuité des modèles proposés. Le problème avec ce que l'on appelle aujourd'hui « l'intelligence artificielle », c'est que justement les machines ne le sont pas… intelligentes. En tout cas, pas à la manière des humains. Que seraient les machines sans leurs créateurs ? Dans son livre « De la bêtise artificielle », la philosophe Anne Alombert envisage les relations entre les esprits humains et leurs prothèses artificielles dans une relation dynamique. Elle affirme également que cette façon de présenter les IA, à l'attention du grand public, n'est pas anodine. Outre la création d'un rapport de dépendance aux machines, le mythe transhumaniste des grands propriétaires de plateformes est une supercherie qui risque fort d'aboutir à un appauvrissement des savoirs. « Alors que les idées reçues sont intensifiées, les originalités sont évacuées. Le véritable danger n'est pas la singularité technologique mais l'élimination des singularités idiomatiques, la suppression des exceptions et des nouveautés, conditions du renouvellement culturel et de l'évolution des sociétés. » Anne Alombert est philosophe, maîtresse de conférence à l'Université Paris 8, et auteur de « De la bêtise artificielle », éditions Allia: « Tant qu'elle cherchera à imiter et à remplacer les capacités humaines par des performances computationnelles, la soi-disant « intelligence artificielle » ne pourra conduire qu'à la bêtise généralisée. », écrit Anne Alombert et de citer un certain nombre d'initiatives d'acteurs du numérique témoignant, en revanche, de « la possibilité de réconcilier les calculs des algorithmes et les savoirs singuliers, essentiels à la vie politique et culturelle des sociétés. » La chronique de Grégory Genevrier de la cellule Info vérif de RFI: CAN 2025: les vidéos générées par intelligence artificielle occupent le terrain La chronique de Kahofi Suy de l'Afp factuel à Abidjan : Non, le président Tinubu n'a pas rendu visite à Anthony Joshua à l'hôpital.
durée : 00:01:14 - Le billet sciences - Un rapport, réalisé par trois scientifiques experts en pharmacologie, épidémiologie et santé publique, met en lumière les sources et les mécanismes de la désinformation scientifique. Pour faire face, la ministre de la Santé propose des pistes, notamment l'éducation critique des citoyens et un nouveau système d'infovigilance. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.
C'est une méthode d'enquête de plus en plus en vogue. L'Osint, ou recherches en sources ouvertes, bouleverse notre rapport à l'information. Utilisée par des chercheurs, des journalistes et des citoyens, cette technique d'investigation permet de mettre en lumière des faits d'intérêt public. Remède et poison, l'Osint peut aussi être détournée à des fins de contrôle et de manipulation. Dans son dernier ouvrage, Allan Deneuville, décrypte ce phénomène du « Dark Osint ». Héritée des services de renseignement, l'Osint (acronyme anglophone pour Open Source Intelligence), permet de produire des enquêtes autonomes, sourcées et susceptibles de révéler des informations d'intérêt public. Grâce à cette méthode d'enquête en sources ouvertes, il est possible de documenter des faits d'actualités, comme c'est le cas de la guerre en Ukraine, ou plus récemment de l'attaque américaine au Venezuela. Dans un contexte où les infox se multiplient, l'Osint sert également à contrecarrer des opérations de désinformation. Mais si l'Osint permet de décrypter, elle peut au contraire être dévoyée et utilisée à des fins antidémocratiques. On en parle avec Allan Deneuville, maître de conférences en sciences de l'information et de la communication, chercheur associé au centre Géode de géopolitique de la datasphère, partenaire de l'émission. Il vient de publier « Osint : enquêtes et démocratie », aux éditions de l'INA. Au Venezuela, la désinformation ne désemplit pas Près d'une semaine après la capture de Nicolas Maduro et de son épouse, Cilia Flores, les autorités vénézuéliennes ont libéré plusieurs prisonniers politiques. Une mesure saluée par Donald Trump qui affirme avoir annulé une deuxième attaque. Un contexte tendu, propice à la désinformation. Ces derniers jours, de nombreuses infox soutiennent, à tort, que les habitants de Caracas auraient massivement célébré la chute du régime et la gloire du président Trump. Décryptage avec Cassiopée Etchevers, journaliste en formation à Sciences Po Paris. À lire aussiVenezuela: quand la désinformation vise à légitimer l'opération américaine Groenland : les infox ciblent l'armée danoise Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l'armée danoise chargée d'assurer la sécurité de ce territoire. C'est le sujet de la chronique des Dessous de l'infox, présentée cette semaine par Olivier Fourt. À lire aussiGroenland: la désinformation accompagne les propos de Donald Trump
Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l'armée danoise chargée d'assurer la sécurité de ce territoire. Le président américain parle d'une « priorité de sécurité nationale pour les États-Unis » afin de justifier son intention de faire main basse sur le Groenland, ce territoire situé non loin du pôle Nord, entre l'Europe et les États-Unis. Selon Donald Trump, « le Danemark ne fait rien pour la sécurité du Groenland (...) Ils ont seulement ajouté un traineau à chiens », a-t-il affirmé le 4 janvier devant quelques journalistes présents à bord de l'avion présidentiel Air Force One. Visiblement, cette histoire amuse beaucoup le président américain et pourtant, c'est une affaire très sérieuse. Après vérification, ces traineaux appartiennent à une unité spéciale danoise, baptisée patrouille Sirius et rattachée au commandement danois pour l'Arctique. Depuis 2012, ce commandement interarmées assure des missions militaires, des missions de garde-côtes et des interventions en cas de catastrophe, le tout au sein d'une seule organisation. L'unité Sirius est capable de mener des missions de surveillance à longue distance dans ce territoire glacial. Jusqu'alors, la patrouille Sirius disposait de six équipages avec deux hommes et de 11 à 15 chiens. De l'avis des experts, il s'agit du moyen le plus fiable pour opérer en autonomie dans une région du monde où les conditions météo sont extrêmement dures pendant l'hiver. Préoccupations stratégiques Une fois de plus, Donald Trump exagère beaucoup quand il dit « que le Danemark ne fait rien pour la sécurité du Groenland ». Ainsi, la Première ministre danoise Mette Frederiksen a immédiatement dénoncé ces propos en rappelant que Copenhague avait alloué l'an dernier 1,2 milliard d'euros à la sécurité de la région et pas seulement en achetant des traineaux. Mais aussi en se dotant, dans les années à venir, de drones, de navires spécialisés, de radars et d'avions de patrouille maritime tout en passant commande également de 16 chasseurs supplémentaires : des F-35, fabriqués aux États-Unis. Nuire à l'image de l'armée danoise L'armée danoise a été visée par des infox, ou des propos déplacés provenant le plus souvent des sphères pro-russe ou MAGA (Make America Great Again), proches du président Donald Trump. Comme ce compte qui diffuse une vidéo où l'on voit un soldat chuter en tentant de descendre d'un véhicule de transport de troupe. Commentaire moqueur : « Quand l'armée danoise débarque pour stopper l'invasion américaine du Groenland ». Vérification faite, l'image a été détournée. Elle montre des soldats suisses et non des forces spéciales danoises. Cette vidéo sortie de son contexte a été vue plus de deux millions de fois rien que sur ce compte. D'autres vidéos cherchent à tourner au ridicule l'équipement de l'armée danoise, ou laissent supposer que les soldats danois ne seraient pas assez virils. À lire aussiPeut-on contrer les volontés expansionnistes de Donald Trump ? Donald Trump a la mémoire courte Beaucoup d'utilisateurs rappellent que l'armée danoise n'a pas failli à ses engagements, soulignant qu'elle a perdu 44 soldats dans la mission de l'Otan en Afghanistan, aux côtés des États-Unis, dans les années 2010. Durant cette crise politico-diplomatique, les responsables danois ont utilisé les réseaux sociaux (dont le réseau X d'Elon Musk) avec beaucoup d'agilité, afin d'essayer de faire valoir leur point de vue. Sur son compte X, l'ambassadeur du Danemark à Washington conclut : « Le Danemark prend la sécurité dans l'Arctique très au sérieux (...) les États-Unis ont la possibilité d'établir des bases militaires supplémentaires au Groenland en vertu d'un traité datant de 1951. »
C'est une méthode d'enquête de plus en plus en vogue. L'Osint, ou recherches en sources ouvertes, bouleverse notre rapport à l'information. Utilisée par des chercheurs, des journalistes et des citoyens, cette technique d'investigation permet de mettre en lumière des faits d'intérêt public. Remède et poison, l'Osint peut aussi être détournée à des fins de contrôle et de manipulation. Dans son dernier ouvrage, Allan Deneuville, décrypte ce phénomène du « Dark Osint ». Héritée des services de renseignement, l'Osint (acronyme anglophone pour Open Source Intelligence), permet de produire des enquêtes autonomes, sourcées et susceptibles de révéler des informations d'intérêt public. Grâce à cette méthode d'enquête en sources ouvertes, il est possible de documenter des faits d'actualités, comme c'est le cas de la guerre en Ukraine, ou plus récemment de l'attaque américaine au Venezuela. Dans un contexte où les infox se multiplient, l'Osint sert également à contrecarrer des opérations de désinformation. Mais si l'Osint permet de décrypter, elle peut au contraire être dévoyée et utilisée à des fins antidémocratiques. On en parle avec Allan Deneuville, maître de conférences en sciences de l'information et de la communication, chercheur associé au centre Géode de géopolitique de la datasphère, partenaire de l'émission. Il vient de publier « Osint : enquêtes et démocratie », aux éditions de l'INA. Au Venezuela, la désinformation ne désemplit pas Près d'une semaine après la capture de Nicolas Maduro et de son épouse, Cilia Flores, les autorités vénézuéliennes ont libéré plusieurs prisonniers politiques. Une mesure saluée par Donald Trump qui affirme avoir annulé une deuxième attaque. Un contexte tendu, propice à la désinformation. Ces derniers jours, de nombreuses infox soutiennent, à tort, que les habitants de Caracas auraient massivement célébré la chute du régime et la gloire du président Trump. Décryptage avec Cassiopée Etchevers, journaliste en formation à Sciences Po Paris. À lire aussiVenezuela: quand la désinformation vise à légitimer l'opération américaine Groenland : les infox ciblent l'armée danoise Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l'armée danoise chargée d'assurer la sécurité de ce territoire. C'est le sujet de la chronique des Dessous de l'infox, présentée cette semaine par Olivier Fourt. À lire aussiGroenland: la désinformation accompagne les propos de Donald Trump
La désinformation a toujours existé. L'historien Michel Pretalli revient sur les grandes manipulations qui ont marqué l'histoire, du temps des pharaons à nos jours : ruses de guerre, stratagèmes politiques et théories du complot. À l'heure d'internet, il est plus que jamais nécessaire d'en étudier les ressorts et les moyens de les contrer. [Cette émission est une rediffusion du 5 septembre 2025] L'étude des ruses de guerre dans l'histoire ancienne, de la désinformation comme arme politique et autres théories du complot recyclées depuis des siècles permettent de mieux appréhender le phénomène actuel de désinformation massive observé sur les réseaux sociaux. En évitant tout anachronisme, en prenant en compte l'évolution des mentalités, l'historien Michel Pretalli dévoile les ressorts de la désinformation depuis le temps des pharaons. Historien, professeur des universités en études italiennes à l'université de Franche-Comté, Michel Pretalli signe, avec le journaliste fact checker Giovanni Zagni : Une histoire de la désinformation, Fake news et théories du complot, des Pharaons aux réseaux sociaux, aux éditions Mimésis. La chronique de Grégory Genevrier de la cellule info vérif de RFI : Sahel: l'armée française accusée à tort de ravitailler des terroristes au Mali La chronique de Dounia Mahieddine de l'AFP factuel : Non, Macron n'a pas lancé un programme offrant 1.800 euros mensuels aux Africains s'installant en France
La désinformation a toujours existé. L'historien Michel Pretalli revient sur les grandes manipulations qui ont marqué l'histoire, du temps des pharaons à nos jours : ruses de guerre, stratagèmes politiques et théories du complot. À l'heure d'internet, il est plus que jamais nécessaire d'en étudier les ressorts et les moyens de les contrer. [Cette émission est une rediffusion du 5 septembre 2025] L'étude des ruses de guerre dans l'histoire ancienne, de la désinformation comme arme politique et autres théories du complot recyclées depuis des siècles permettent de mieux appréhender le phénomène actuel de désinformation massive observé sur les réseaux sociaux. En évitant tout anachronisme, en prenant en compte l'évolution des mentalités, l'historien Michel Pretalli dévoile les ressorts de la désinformation depuis le temps des pharaons. Historien, professeur des universités en études italiennes à l'université de Franche-Comté, Michel Pretalli signe, avec le journaliste fact checker Giovanni Zagni : Une histoire de la désinformation, Fake news et théories du complot, des Pharaons aux réseaux sociaux, aux éditions Mimésis. La chronique de Grégory Genevrier de la cellule info vérif de RFI : Sahel: l'armée française accusée à tort de ravitailler des terroristes au Mali La chronique de Dounia Mahieddine de l'AFP factuel : Non, Macron n'a pas lancé un programme offrant 1.800 euros mensuels aux Africains s'installant en France
En pleine négociation avec les États-Unis, la Russie accuse l'Ukraine d'avoir attaqué une résidence appartenant à Vladimir Poutine. Sans preuves tangibles, l'armée russe évoque un raid de 91 drones. Kiev et ses alliés dénoncent des mensonges destinés à saper les pourparlers diplomatiques en cours. Dans ce contexte, une vidéo générée par intelligence artificielle sème le doute sur les réseaux sociaux. La vidéo a dépassé les 10 millions de vues en seulement vingt-quatre heures. Durant quinze secondes, on y voit deux drones tirer un projectile sur une résidence luxueuse, située en pleine forêt. La toiture prend feu, pendant qu'un véhicule stationné sur le parvis essaye de prendre la fuite. Des éléments visuels comme l'heure, la date ou la mention « REC », poussent à croire, à tort, que ces images auraient été filmées par une caméra de surveillance. Les comptes qui diffusent ce clip parlent d'une « preuve » qui viendrait confirmer le narratif diffusé par le Kremlin. Mais vérification faite, ces images ne sont pas réelles. Cette vidéo a été entièrement générée par intelligence artificielle. Plusieurs incohérences visuelles le prouvent, à l'image de cette voiture qui roule à travers une fontaine et ne fait aucune trace sur la neige. On remarque, de plus, une explosion qui ne provoque aucun dégât, ou encore les secondes de l'horloge qui ne défilent pas dans le bon ordre. Désinformer pour combler le vide D'autres éléments prouvent l'utilisation d'un outil d'intelligence artificielle. Il y a la bande son, anormalement trop parfaite. On se croirait dans un film d'action alors que les micros des caméras de surveillance sont souvent de mauvaise qualité voire inexistants. Enfin, il ne faut pas oublier l'indicateur temporel. Cette vidéo dure précisément quinze secondes. C'est la durée standard permis par certains outils d'IA comme Sora 2 de la start-up américaine Open AI. À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox Derrière cette infox, on retrouve différents comptes influents, habitués à diffuser de la désinformation. Certains sont déjà identifiés comme des vecteurs importants de la propagande du Kremlin. L'auteur de cette infox a profité de la rareté des images liées à cette attaque présumée d'une résidence de Vladimir Poutine, pour viraliser son infox. Une stratégie payante, puisque cette vidéo artificielle cumule plus de 11 millions de vues. Mais contrairement à ce que certains affirment, le Kremlin n'a pas diffusé ce clip sur ses canaux de communication officiels. Aucune preuve tangible À ce stade, Moscou n'a apporté aucune preuve tangible. La vidéo d'un débris de drone diffusé par les autorités russes ne permet en aucun cas de confirmer l'existence de cette supposée attaque. Ces images ont été filmées en gros plan, de nuit, en plein milieu d'une forêt, rendant tout travail de vérification et de géolocalisation impossible. Les experts pointent l'absence d'images amateurs alors que la Russie affirme que 91 drones auraient survolé la région concernée. À ce stade, aucune preuve factuelle ne vient corroborer la version du Kremlin, démentie par Kiev et ses alliés. À lire aussiGuerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles
L'ingérence numérique étrangère est le cœur de cible de Viginum. Ce service opère depuis 2021. Il s'est étoffé à mesure que la menace elle-même tendait à se complexifier et se répandre de façon virale sur les réseaux sociaux. Sont dans le collimateur les manipulations de l'information à grand renfort d'intelligence artificielle, d'amplification artificielle et autres moyens, ayant pour objet de déstabiliser les États en instillant le doute chez les citoyens vis-à-vis de leurs institutions. Comment l'État français tente de se prémunir contre les ingérences numériques étrangères ? Le patron de Viginum, Marc-Antoine Brillant, nous emmène dans les coulisses de ce service chargé d'identifier des manœuvres informationnelles, toujours plus agressives depuis le déclenchement de l'offensive russe en Ukraine. La chronique de Grégory Genevrier de la cellule Info vérif de RFI : «Slop»: quand l'intelligence artificielle inonde les réseaux de contenus faux et absurdes La chronique de Monique Ngo Mayag de l'AFP Factuel : Porter un soutien-gorge n'augmente pas les risques d'avoir un cancer du sein
En guise de mot de l'année 2025, le dictionnaire américain Merriam-Webster a choisi « slop ». Cette expression définit les contenus numériques de mauvaise qualité produits en masse par l'intelligence artificielle. Cette bouillie de photos absurdes, de sons loufoques, ou de vidéos plus ou moins réalistes, inondent les réseaux sociaux. Ces contenus « slop » polluent de plus en plus l'espace numérique, à tel point que le phénomène inquiète. Un chat avec la tête du président américain Donald Trump, une baleine qui mange un ours polaire, des bébés qui parlent comme des adultes. Si vous êtes un utilisateur de TikTok, Facebook, X ou Instagram, vous avez forcément déjà été confronté à du « slop ». Ces contenus, plus ou moins réalistes, sont très populaires sur les réseaux sociaux. Certains cumulent des dizaines voire des centaines de millions de vues. Grâce à leur caractère surréaliste, choquant ou humoristique, ces productions jouent sur nos émotions et attirent l'attention des utilisateurs. Les algorithmes l'ont bien compris, et amplifient donc artificiellement ce type de contenu. Cela aboutit à une saturation de l'espace informationnel sur les réseaux sociaux. Si certaines plateformes proposent des filtres pour échapper au « slop », la plupart surfent sur le phénomène. L'économie du « slop » Derrière ces contenus « slop », on retrouve différents acteurs qui ont saisi l'opportunité pour gagner de la visibilité et monétiser leur audience. Les derniers outils d'IA leur facilitent la tâche puisqu'il n'a jamais été aussi simple de créer ce type de contenus. Une véritable économie s'est donc mise en place autour de ce phénomène. Une vidéo vue près de 20 millions de fois peut vous rapporter, selon la plateforme, plus de 1 000 dollars. En Asie, plusieurs « fermes à slop » ont ainsi vu le jour ces dernières années. Quand le faux prend le dessus Si ça ne fait pas de mal de rigoler devant une vidéo loufoque, certains contenus artificiels posent problème, car ils prennent le dessus sur la réalité. Dans leur guerre au clic, certains producteurs de « slop » adaptent leur contenu à l'actualité et tombent dans la désinformation. C'est particulièrement le cas lors de catastrophes naturelles. Récemment, lors des inondations mortelles au Maroc, des dizaines de vidéos artificielles censées documenter la catastrophe ont circulé sur les réseaux sociaux. Pour le buzz, certains n'hésitent pas à générer des faux témoignages de victimes. Ces infox invisibilisent les vraies images, masquent les messages d'alerte des secours et bouleversent notre rapport à la réalité. Vers une auto-intoxication des IA ? Ces contenus artificiels omniprésents sur les réseaux sociaux pourraient-ils intoxiquer les intelligences artificielles qui les produisent ? C'est le risque pointé par plusieurs experts du numérique. Puisque les intelligences artificielles IA se nourrissent de ce qui circule en ligne, elles pourraient bel et bien finir par s'auto-intoxiquer. À cela s'ajoute aussi la prolifération des faux comptes se faisant passer pour des humains. Reste à savoir si les publics vont finir par se lasser de cette nouvelle esthétique, plus que jamais à la mode sur les réseaux sociaux.
L'ingérence numérique étrangère est le cœur de cible de Viginum. Ce service opère depuis 2021. Il s'est étoffé à mesure que la menace elle-même tendait à se complexifier et se répandre de façon virale sur les réseaux sociaux. Sont dans le collimateur les manipulations de l'information à grand renfort d'intelligence artificielle, d'amplification artificielle et autres moyens, ayant pour objet de déstabiliser les États en instillant le doute chez les citoyens vis-à-vis de leurs institutions. Comment l'État français tente de se prémunir contre les ingérences numériques étrangères ? Le patron de Viginum, Marc-Antoine Brillant, nous emmène dans les coulisses de ce service chargé d'identifier des manœuvres informationnelles, toujours plus agressives depuis le déclenchement de l'offensive russe en Ukraine. La chronique de Grégory Genevrier de la cellule Info vérif de RFI : «Slop»: quand l'intelligence artificielle inonde les réseaux de contenus faux et absurdes La chronique de Monique Ngo Mayag de l'AFP Factuel : Porter un soutien-gorge n'augmente pas les risques d'avoir un cancer du sein
Les journalistes et experts de RFI répondent également à vos questions sur la condamnation de Roger Lumbala et la peine de prison de Jair Bolsonaro. « Coup d'État en France » : qui se cache derrière cette infox ? Une vidéo générée par intelligence artificielle annonçant un coup d'État en France est devenue tellement virale que le président Macron a raconté avoir été contacté par «un collègue africain» s'inquiétant de la situation. Comment peut-on détecter une fausse vidéo ? Qui se cache derrière cette infox ? Pourquoi malgré les demandes du président français, Facebook a refusé de retirer cette vidéo manifestement fausse et alarmiste ? Avec Grégory Genevrier, journaliste à la Cellule Info-Verif de RFI. RDC : pourquoi Roger Lumbala n'a-t-il pas été jugé plus tôt ? Condamné à 30 ans de réclusion criminelle par la justice française, l'ancien chef de guerre congolais Roger Lumbala a été reconnu coupable de complicité de crimes contre l'humanité commis dans l'est de la RDC en 2002-2003. Pourquoi a-t-il fallu attendre près de 24 ans après les faits pour organiser un tel procès ? Roger Lumbala est également condamné à une interdiction définitive du territoire français. Devra-t-il purger sa peine dans un autre pays ? Si oui, lequel ? Avec Sabine Mellet, journaliste au service Afrique de RFI. Brésil : vers une réduction de peine pour Jair Bolsonaro ? Au Brésil, le Congrès a adopté une loi permettant de réduire la peine de l'ex-président Bolsonaro, condamné à 27 ans de prison pour tentative de coup d'État. Comment les députés et sénateurs justifient-ils ce vote trois mois seulement après le verdict ? Que contient exactement cette loi ? Avec Armelle Enders, professeure d'Histoire contemporaine à l'Université Paris VIII, spécialiste de l'histoire du Brésil contemporain. Et en fin d'émission, la chronique « Un œil sur les réseaux » de Jessica Taieb. Au programme, les réactions des internautes à la visite du président Brice Clotaire Oligui Nguema au ministère de l'Emploi et de la Fonction publique.
Le désir de tromper l'opinion publique, inventer des faits qui n'en sont pas, trouver des boucs émissaires, imposer une vision déformée de la réalité grâce aux nouveaux outils numériques, tout un vocabulaire permet aujourd'hui de mieux appréhender ce phénomène qui se résume en un mot : la désinformation. On en parle avec Arnaud Mercier, auteur du livre « Les mots de la désinformation et de la manipulation », aux Presses universitaires du Midi. Debunking, prebunking, typosquattage, deepfake, fake news, bullshit, fact checking, path checking, greenwashing, psy ops, etc. le jargon des spécialistes de la désinformation est souvent en anglais, du fait de l'avance technologique prise dans le domaine du numérique par les Anglo-Saxons, propriétaires des premières grandes plateformes, et chercheurs en sciences cognitives. D'où l'intérêt de bien définir ces notions en français. Ce à quoi s'attache le livre que vient de signer Arnaud Mercier, notre invité ce vendredi (19 décembre 2025). S'y ajoutent des mots et expressions bien français, tels agent d'influence, propagande de guerre, lavage de cerveau, biais et débiaisement, ainsi que des personnalités qui ont fait la Une des médias dits de « réinformation » tel Didier Raoult, auquel s'applique bien, selon l'auteur, la notion de « populisme médical ». Arnaud Mercier est professeur en Communication à l'Institut français de presse, spécialiste des enjeux de communication politique, information et désinformation. Depuis 2024, il est coordinateur scientifique du projet De Facto de lutte contre la désinformation. La chronique des dessous de l'infox, par Grégory Genevrier, de la cellule info vérif de RFI : Non, la Russie n'a pas abattu des avions de chasse français en Ukraine La chronique de Quang Pham des Observateurs de France 24 : Image créée par IA, radiation de vétérinaires… les intox sur la crise de la dermatose nodulaire.
Au Mali, le JNIM a repris cette semaine les attaques contre les convois de carburant, mettant fin à une accalmie de courte durée. La junte au pouvoir à Bamako peine à desserrer l'étau. Dans toute la région, l'on assiste depuis plusieurs années à une explosion des attaques jihadistes, venant contredire le récit officiel des pays de l'AES et de la Russie, toujours plus offensifs sur le plan informationnel. Un an s'est écoulé depuis la chute de Bachar el-Assad en Syrie, qui a permis de dissiper le mythe de l'assistance russe au régime et de dévoiler l'ampleur des exactions contre les populations. Mais qu'en est-il au Sahel ? On en parle avec Jonathan Guiffard, membre de Géode, le projet de géopolitique de la data sphère. Jonathan Guiffard est expert associé à l'Institut Montaigne, chargé des Affaires internationales, stratégiques et de défense, et membre de GEODE, projet de recherche en géopolitique de la data sphère, partenaire des Dessous de l'infox. Il signe une série d'articles intitulée Afrique: les rivalités stratégiques qui met en lumière les stratégies des différents acteurs internationaux en Afrique centrale et Afrique de l'ouest, évoque «l'expansion d'un système russe en échec», montrant le paradoxe d'un dispositif qui ne délivre pas les résultats annoncés, mais «gagne du terrain à la faveur de la corruption, de la course aux ressources et d'un ordre mondial déséquilibré». La chronique des dessous de l'infox, par Grégory Genevrier: RDC: cette vidéo d'Ibrahim Traoré critiquant Paul Kagame est un hypertrucage. Les vidéos générées par l'intelligence artificielle sont de plus en plus présentes sur les réseaux sociaux. Elles s'immiscent dans les conflits, comme celui qui se déroule dans l'est de la République démocratique du Congo, où le groupe armé du M23 soutenu par le Rwanda se livre à une nouvelle offensive, quelques jours après la signature à Washington d'un «Accord de paix» entre la RDC et le Rwanda. Les vidéos mensongères générées par l'IA sont de plus en plus difficiles à repérer, sauf lorsque certains comptes s'en font une spécialité et recyclent les mêmes images dans des situations différentes.
Intimidation du fort au faible, mais aussi du faible au fort, et de plus en plus fréquemment «stratégie du fou», capable d'actions violentes imprévisibles, ces pratiques ont de plus en plus tendance à éclipser la diplomatie, la recherche du dialogue et de solutions de compromis. Comment distinguer le bluff de la menace avérée ? Comment organiser la résilience dans un contexte de brutalisation des relations internationales ? La brutalité dans les relations internationales, facilitée ou amplifiée sur les réseaux sociaux, signe le retour des «hommes forts» sur le devant de la scène, et le recul de la diplomatie et des solutions de compromis. Comment y faire face ? interroge Frédéric Charillon, auteur d'une «Géopolitique de l'intimidation», aux éditions Odile Jacob. Frédéric Charillon est professeur des Universités en Sciences politiques à l'Université Paris Cité, il dirige l'Observatoire des stratégies d'influence de l'Essec. Il a cofondé l'Institut de recherche stratégique de l'École militaire (Irsem). Le plus grand danger réside dans l'effet mode de cette manière forte de s'imposer sur la scène internationale, estime l'auteur. La méthode de l'homme fort réside dans la politique du fait accompli, comme on peut le constater dans nombre de conflits en cours, de l'Ukraine au Venezuela, en passant par le Sahel où les supplétifs de Wagner ont largement contribué à l'aggravation du contexte sécuritaire. Mais un peu partout, les sociétés civiles montrent des signes de résilience. Pour Frédéric Charillon, «Le triomphe de l'intimidation n'est pas inéluctable [...] Plus on menace des sociétés, plus cela renforce leur volonté de résistance.» L'exemple sud-africain Toujours dans le registre de l'intimidation, les relations qu'entretient Donald Trump avec l'Afrique du Sud, ne cessent de se durcir. Prenant la présidence annuelle du G20 à la suite de l'Afrique du Sud, les États-Unis ont décidé d'exclure l'Afrique du Sud de la liste des invités au sommet de Miami en 2026. Un geste que l'administration américaine justifie notamment par de fausses accusations de «génocide blanc». On revient sur cet argumentaire développé en mai 2025 dans le Bureau ovale à coups d'infox, et sur l'objectif de la manœuvre, avec notre correspondante à Johannesburg, Claire Bargelès.
La mésinformation en santé n'est pas un phénomène marginal : elle touche toutes et tous, et fragilise particulièrement la santé des femmes. Depuis plus d'un an, une vingtaine d'expertes bénévoles du collectif « Femmes de Santé » se mobilisent pour analyser ce phénomène afin de proposer des solutions concrètes pour agir. Quelles sont les différentes formes que peut prendre la mésinformation en santé ? Comment décrire aujourd'hui les répercussions spécifiques de la désinformation pour la santé des femmes ? Dr Catherine Bertrand-Ferrandis, coordinatrice du Livre blanc sur la mésinformation en santé, soutenu par le collectif Femmes de Santé, et membre du Comité scientifique et éthique de Femmes de Santé. « La mésinformation, c'est transférer une information fausse sans le savoir. » Retrouvez l'émission en entier ici : Infox : quelles répercussions de la désinformation sur la santé des femmes ?
La mésinformation en santé n'est pas un phénomène marginal : elle touche toutes et tous, et fragilise particulièrement la santé des femmes. Depuis plus d'un an, une vingtaine d'expertes bénévoles du collectif «Femmes de Santé» se mobilisent pour analyser ce phénomène afin de proposer des solutions concrètes pour agir. Pourquoi les femmes sont-elles particulièrement vulnérables face à ces infox ? Comment lutter contre ces fausses informations qui pullulent sur les réseaux sociaux ? Les fake-news concernent et menacent aujourd'hui chacun d'entre nous. Cette désinformation affecte l'ensemble de notre vie, de nos activités, de nos savoirs et un domaine est particulièrement sensible à ce risque : celui de la santé. Une enquête conduite par le Projet européen SIMODS (Indicateur structurel pour surveiller la désinformation en ligne/2025) montre ainsi que 43% des posts de mésinformation sur les réseaux sociaux concernent la santé ! Identifier les pratiques, les dérives et les dangers… La mésinformation, qu'est-ce que c'est ? Conseils douteux, peurs entretenues, manipulations, escroqueries, raisonnements biaisés et mensonges purs et simples, qui peuvent affecter directement notre intégrité physique et mentale. Cette désinformation a, ces dix dernières années, connu une croissance favorisée par trois facteurs : l'essor du numérique, l'appropriation de ces messages infondés par des personnalités publiques (porte-voix en vérité alternative) et, 3è facteur, la pandémie de Covid-19 et ses conséquences en termes de défiance. Cette crise sanitaire de portée planétaire a débouché sur une vague de remise en question des savoirs, de la science et force de la preuve, renforcée par confusion entre santé et bien-être, retour à la nature et charlatanisme. L'infodémie au féminin Si cette désinformation nous concerne toutes et tous, un travail collectif (Livre blanc sur la mésinformation en santé, soutenu par le collectif Femmes de Santé), permet de comprendre comment ces infox impactent la santé des femmes : de quelle manière cette mésinformation cible-t-elle les femmes ? Comment identifier les risques engendrés et envisager des solutions ? Aujourd'hui, 51% des publications des réseaux sociaux concernant les vaccins contiennent de la désinformation. On atteint 72% d'affirmations non fondées quand on parle du vaccin HPV, celui qui prévient notamment le cancer du col de l'utérus. À lire aussiComment l'administration Trump alimente le complotisme sur les vaccins Organiser une riposte ambitieuse Ce travail collectif de professionnelles de santé et de chercheuses imagine des stratégies pour lutter contre la mésinformation et sécuriser leur accès à l'information sur leur santé : un immense chantier qui implique un travail d'éducation pour reconnaître les pièges, identifier et croiser les sources, mieux réguler les pratiques commerciales, encadrer les plateformes numériques, protéger les personnes vulnérables, raconter autrement la santé en valorisant les acteurs communautaires. Avec : Dr Catherine Bertrand-Ferrandis, coordinatrice de ce livre blanc et membre du Comité scientifique et éthique de Femmes de Santé Imène Kaci, sage-femme libérale, coordinatrice générale et cheffe de projets stratégiques chez Gynélia Santé Femmes, directrice opérationnelle de la société Homemed SAS et Membre active du collectif Femmes de Santé. Créatrice du compte instagram @iksagefemme Dr Juliette Hazart, médecin addictologue, spécialiste en santé publique, conférencière, auteure de Mon ado est accro aux réseaux sociaux, aux éditions De Boeck supérieur, chargée d'enseignement à l'Université de Lorraine Jessica Leygues, directrice exécutive de l'Institut des cancers des Femmes, de l'Institut Curie. ► En fin d'émission, nous parlons des premières journées ivoiriennes d'addictologie qui se tiennent du 3 au 5 décembre à l'Institut National de santé publique d'Abidjan, en Côte d'Ivoire. Interview du Pr Samuel Traore, addictologue. Maitre de conférences agrégé de Psychiatrie d'adultes. Chef du service d'Addictologie et d'Hygiène mentale de l'Institut National de Santé Publique à Abidjan, en Côte d'Ivoire. Président de la société de Psychiatrie de Côte d'Ivoire. Programmation musicale : ► Enchantée Julia - Save me ► Nubiyan Twist ft. Fatoumata Diawara - Chasing Shadows.
La mésinformation en santé n'est pas un phénomène marginal : elle touche toutes et tous, et fragilise particulièrement la santé des femmes. Depuis plus d'un an, une vingtaine d'expertes bénévoles du collectif « Femmes de Santé » se mobilisent pour analyser ce phénomène afin de proposer des solutions concrètes pour agir. Pourquoi les femmes sont-elles particulièrement vulnérables face à ces infox ? Comment lutter contre ces fausses informations, qui pullulent sur les réseaux sociaux ? Les fake-news concernent et menacent aujourd'hui chacun d'entre nous. Cette désinformation affecte l'ensemble de notre vie, de nos activités, de nos savoirs et un domaine est particulièrement sensible à ce risque : celui de la santé. Une enquête conduite par le Projet européen SIMODS (Indicateur structurel pour surveiller la désinformation en ligne/2025) montre ainsi que 43 % des posts de mésinformation sur les réseaux sociaux concernent la santé ! Identifier les pratiques, les dérives et les dangers… La mésinformation, qu'est-ce que c'est ? Conseils douteux, peurs entretenues, manipulations, escroqueries, raisonnements biaisés et mensonge purs et simples, qui peuvent affecter directement notre intégrité physique et mentale. Cette désinformation a, ces dix dernières années, connu une croissance favorisée par trois facteurs : l'essor du numérique, l'appropriation de ces messages infondés par des personnalités publiques (porte-voix en vérité alternative) et, 3ᵉ facteur, la pandémie de covid-19 et ses conséquences en termes de défiance. Cette crise sanitaire de portée planétaire a débouché sur une vague de remise en question des savoirs, de la science et force de la preuve, renforcée par confusion entre santé et bien-être, retour à la nature et charlatanisme. L'infodémie au féminin Si cette désinformation nous concerne toutes et tous, un travail collectif (Livre blanc sur la mésinformation en santé, soutenu par le collectif Femmes de Santé), permet de comprendre comment ces infox impactent la santé des femmes : de quelle manière cette mésinformation cible-t-elle les femmes ? Comment identifier les risques engendrés et envisager des solutions ? Aujourd'hui, 51 % des publications des réseaux sociaux concernant les vaccins contiennent de la désinformation. On atteint 72% d'affirmations non fondées quand on parle du vaccin HPV, celui qui prévient notamment le cancer du col de l'utérus. À lire aussiComment l'administration Trump alimente le complotisme sur les vaccins Organiser une riposte ambitieuse Ce travail collectif de professionnelles de santé et de chercheuses imagine des stratégies pour lutter contre la mésinformation et sécuriser leur accès à l'information sur leur santé : un immense chantier qui implique un travail d'éducation pour reconnaître les pièges, identifier et croiser les sources, mieux réguler les pratiques commerciales, encadrer les plateformes numériques, protéger les personnes vulnérables, raconter autrement la santé en valorisant les acteurs communautaires. Avec : Dr Catherine Bertrand-Ferrandis, coordinatrice de ce livre blanc et membre du Comité scientifique et éthique de Femmes de Santé. Imène Kaci, Sage-femme libérale, Coordinatrice générale et cheffe de projets stratégiques chez Gynélia Santé Femmes, directrice opérationnelle de la société Homemed SAS et Membre active du collectif Femmes de Santé. Créatrice du compte instagram @iksagefemme Dr Juliette Hazart, médecin addictologue, spécialiste en santé publique, conférencière, auteure de Mon ado est accro aux réseaux sociaux aux éditions De Boeck supérieur, chargée d'enseignement à l'université de Lorraine. Jessica Leygues, Directrice exécutive de l'Institut des cancers des Femmes, de l'Institut Curie. ► En fin d'émission, nous parlons des premières journées ivoiriennes d'addictologie qui se tiennent du 3 au 5 décembre à l'Institut National de santé publique d'Abidjan, en Côte d'Ivoire. Interview du Pr Samuel Traore, Addictologue. Maitre de Conférences Agrégé de Psychiatrie d'adultes. Chef du service d'addictologie et d'hygiène mentale de l'Institut National de Santé Publique à Abidjan en Côte d'Ivoire. Président de la société de psychiatrie de Côte d'Ivoire. Programmation musicale : ► Enchantée Julia - Save me ► Nubiyan Twist ft. Fatoumata Diawara - Chasing Shadows
Une nouvelle fonctionnalité vient semer le trouble sur le réseau X, en promettant de dévoiler la localisation des comptes d'utilisateurs de la plateforme, Elon Musk prétend « réduire l'activité inauthentique » sur X, mais nous verrons avec notre invité, le juriste Valère Ndior, que le manque de fiabilité de la nouvelle fonctionnalité pose problème. Les erreurs de localisation sont nombreuses et instrumentalisées à des fins politiques. Le réseau X, ses algorithmes de recommandation et son chatbot Grok font l'objet d'une accumulation de plaintes en justice. Mais c'est sur la localisation des comptes de ses utilisateurs que le patron de la plateforme, le milliardaire américain Elon Musk a décidé d'agir, estimant qu'il y avait là moyen de restreindre l'activité inauthentique sur le réseau. Non seulement, la modification s'est appliquée du jour au lendemain -le vendredi 21 novembre 2025- sans être préalablement notifiée aux utilisateurs, mais en outre de nombreuses erreurs de localisation ont été constatées et parfois instrumentalisées à des fins politiques. Ces défaillances s'ajoutent à d'autres problèmes majeurs constatés dans les réponses fournies par Grok, l'agent conversationnel intégré à X. Au-delà des biais et inexactitudes de cette Intelligence artificielle, les publications de Grok en viennent à propager des récits négationnistes, des contre-vérités historiques. X, ses algorithmes de recommandation et son robot conversationnel font l'objet d'une accumulation de plaintes en justice. On en parle avec Valère Ndior, professeur de droit public à l'Université de Bretagne occidentale, spécialiste du numérique et des réseaux sociaux, également membre de GEODE, le projet de géopolitique de la data sphère, partenaire des Dessous de l'infox. En illustration de cet entretien, la chronique de Nathan Gallo des Observateurs de France 24 épingle une information mensongère sur le compte d'un journaliste gazaoui: Localisation sur X : Israël accuse à tort un journaliste de Gaza d'être basé en Pologne La chronique de Grégory Genevrier de la cellule info vérif de RFI : RDC: cette vidéo de Marine Le Pen critiquant Félix Tshisekedi est un hypertrucage.
CFI, l'agence française de développement média, organisait à Paris début octobre la 2e édition des Rendez-vous de l'expertise MédiaDev, qui portait sur la lutte contre la désinformation. À cette occasion, Steven Jambot a animé une table ronde avec Ange Kasongo, fondatrice de Balobaki Check (RDC), Julien Pain, présentateur de l'émission Vrai ou faux sur France info, et Noël Kokou Tadegnon, cofondateur de Togo Check. En voici quelques extraits choisis. Face à la viralité de la désinformation, les stratégies traditionnelles de diffusion montrent leurs limites. C'est l'un des constats que les participants avaient en tête lors des Rendez-vous de l'expertise MédiaDev organisés le 9 octobre 2025 à Paris par CFI, l'agence française de développement média, filiale du groupe France Médias Monde, maison-mère de RFI. Trois journalistes fact-checkeurs avaient été réunis pour une table ronde animée par Steven Jambot : Julien Pain, rédacteur en chef à France info et présentateur de l'émission Vrai ou faux, Ange Kasongo, fondatrice de Balobaki Check en République démocratique du Congo (RDC), et Noël Kokou Tadegnon, cofondateur de Togo Check. Cet épisode de L'atelier des médias a été conçu à partir d'extraits des échanges qui se sont tenus ce jour-là. Les trois intervenants rappellent les défis posés par la vitesse de circulation de la désinformation et le choix des plateformes. Une partie significative de la discussion porte sur l'utilisation de WhatsApp pour toucher des communautés spécifiques. Noël Tadegnon explique le travail de Togo Check avec les radios communautaires, notamment avec des humoristes qui s'emparent de sujets fact-checkés. Les panélistes rappellent la nécessité d'expliquer et de sensibiliser plutôt que de simplement décréter le vrai ou le faux. Julien Pain parle de son expérimentation de Twitch, il aborde également l'inquiétude grandissante face à l'intelligence artificielle générative qui pourrait rendre la distinction entre le vrai et le faux presque impossible, menant à une possible indifférence informationnelle. Enfin, Ange Kasongo mentionne l'importance de la collaboration entre fact-checkers (la Paff) et du nécessaire plaidoyer auprès des autorités pour améliorer l'accès à l'information.
À quatre mois des élections municipales en France, les tentatives d'ingérence sont avérées. Des plateformes de faux sites internet créés selon les codes de la presse locale ont été détectées. Menaces qui s'ajoutent aux attaques cyber, sabotage et survols d'installations sensibles par des drones. Comment y faire face ? Le sujet était au cœur de plusieurs événements cette semaine, la European Cyber week de Rennes et le salon Milipol Paris 2025. Notre invité est Bruno Courtois, conseiller défense et menace informationnelle de la société Sopra Steria, coordinateur du Cercle Pégase dédié à la lutte informationnelle. Pourquoi et comment Sopra Steria s'est lancée sur le terrain de la lutte informationnelle ? Les explications de Bruno Courtois : « Sopra Steria est une société de service numérique puissante dans les domaines du cyber, de l'aide à la numérisation ou la transformation digitale. Sopra Steria s'est interrogée sur l'influence et la lutte informationnelles, après la déclaration du président de la République en novembre 2022, instituant l'influence comme sixième fonction stratégique. À partir de là, on a monté un think tank, le Cercle Pégase, qui regroupe aujourd'hui 450 membres, qui traite la lutte informationnelle sous ses aspects politique, recherche, médias, économie, action de l'état. Aujourd'hui, si Sopra Steria s'implique en tant qu'entreprise citoyenne face à cette menace informationnelle, c'est qu'il s'agit d'une des menaces principales auxquelles sont confrontées nos institutions démocratiques, nos processus électoraux et la vie de notre nation. Cette menace instillée par nos grands adversaires, compétiteurs stratégiques -au premier rang desquels la Russie mais elle n'est pas seule- vise à découdre les liens qui font que nos sociétés occidentales et en particulier française fonctionnent. » La chronique de Grégory Genevrier de la cellule info vérif de RFI : Mali: la désinformation prolifère en pleine crise sécuritaire La chronique de la désinformation au Brésil, avec Martin Bernard : La COP30, dans le collimateur.
durée : 00:02:19 - L'Humeur du matin par Guillaume Erner - par : Guillaume Erner - D'après le Financial Times, la Chine n'a pas seulement inventé les fake news : elle a inventé les fake numbers. Appelons-les les numox — des chiffres lisses, ronds, impeccables, qui tiennent debout exactement comme une armoire Ikea montée sans les vis. - réalisation : Félicie Faugère
Surnommée « la COP de la vérité » par le président brésilien Lula, la 30ᵉ Conférence des Nations unies pour le Climat s'est ouverte, ce lundi 10 novembre 2025, à Belém. S'attaquer à la désinformation climatique figure parmi les nombreux enjeux de cette messe annuelle sur le climat. Pour la première fois, plusieurs États se sont engagés à lutter contre ce phénomène. « Infliger une nouvelle défaite aux négationnistes. » C'est avec ces mots que le président brésilien Lula a ouvert la 30ᵉ Conférence de l'ONU pour le climat, qui se déroule actuellement, au Brésil, à Belém. Ce mercredi, une douzaine d'États, dont la France, l'Allemagne et le Brésil, ont signé un texte inédit appelant à lutter contre la désinformation climatique. Alors simples effets d'annonce ou véritable prise de conscience ? Comment ces infox entravent la lutte contre le réchauffement climatique ? On en parle avec notre invité, Eva Morel, secrétaire générale et cofondatrice de l'association Quota Climat qui lutte pour une meilleure représentation des informations environnementales dans les médias. Niger: la junte sème le doute sur un exercice militaire français Quand un exercice de l'armée française dans le golfe de Guinée est présenté, à tort, comme une opération de déstabilisation. Dans sa chronique, Olivier Fourt revient sur cette nouvelle infox diffusée par le pouvoir en place au Niger. Ce n'est pas la première fois que le chef du Conseil national pour la sauvegarde de la patrie (CNSP) affiche des positions hostiles à la France. Cette fois-ci, il pointe du doigt la présence d'un porte-hélicoptères français dans le port de Cotonou, alors que les relations entre le Bénin et le Niger sont dans l'impasse. À lire aussiNiger: la junte tente de semer le trouble autour d'un exercice naval de l'armée française Non, l'Italie n'a pas quitté l'UE Contrairement à ce qui circule sur les réseaux sociaux depuis plusieurs mois, Giorgia Meloni n'a pas annoncé que l'Italie allait se retirer de l'Union européenne. Kahofi Suy, journaliste pour AFP Factuel, nous explique l'origine de cette rumeur.
Des centaines de sites internet composant un vaste réseau de dissémination d'articles de propagande pro-russe et chinoise est mis à jour dans l'étude Baybridge que publient l'IRSEM et Tadaweb. Les chercheurs qui ont documenté cette opération d'influence, à la fois complexe et sophistiquée, décrivent toutefois un écosystème de qualité médiocre, avec de nombreuses incohérences du point de vue informationnel. La cartographie de ce réseau s'avère riche d'enseignements. Le rapport Baybridge dévoile un ambitieux projet d'influence visant à disséminer des récits de propagande pro-russe et chinoise, à travers des centaines de faux sites internet provenant d'un écosystème chinois composé de plusieurs agences de marketing digital, dont deux principales Haixun et Haimai, situées à Shenzhen et Shanghaï. Ou comment une opération hypersophistiquée échoue à trouver sa cible. Un loupé riche d'enseignements, que nous dévoilent Paul Charon de l'IRSEM et Côme Allard de Tadaweb, grâce à l'exploitation de données en sources ouvertes. L'enquête permet de révéler les divers strates du réseau, les agences et les sites sources qui permettent de stocker des milliers d'articles, avant qu'ils ne se propagent à travers des sites internet permettant de masquer la provenance des contenus. Les recherches en sources ouvertes révèlent également l'identité des responsables de ces entreprises, les liens avec des organes de propagande du PCC, le Parti communiste chinois, à l'échelon local. L'analyse de ces données relativise enfin la portée de ce projet ambitieux, de facture médiocre, qui ne semble pas rattaché aux plus hautes sphères du pouvoir. Paul Charon explique néanmoins l'intérêt de cette cartographie, à titre préventif. Il s'agit de mieux connaître les modes opératoires de la désinformation afin d'être en mesure d'évaluer la menace et d'adapter la riposte. La chronique de Grégory Genevrier de la cellule info vérif de RFI : Guerre en Ukraine : comment la propagande pro-russe exploite les générateurs de vidéos par IA pour désinformer. La chronique de Charlotte Durand de l'AFP factuel : Images décontextualisées sur les manifestations en Tanzanie.
Les journalistes et experts de RFI répondent également à vos questions sur la libération d'otages détenus par le Jnim et la victoire de Zohran Mamdani à la mairie de New York. Espace : 3I/Atlas, la comète qui enflamme les réseaux sociaux Découverte en juillet 2025, la comète interstellaire 3I/ATLAS venue d'un autre système solaire intrigue les astronomes. Comment expliquer cet engouement ? Cet objet interstellaire est-il une menace pour notre planète ?, comme l'affirment certains internautes sur les réseaux sociaux. Avec Simon Rozé, chef du service environnement-climat de RFI. Mali : des otages libérés en échange d'une rançon record Capturés le 23 septembre 2025 à une trentaine de kilomètres de Bamako par le Groupe de soutien à l'islam et aux musulmans (Jnim), les trois otages (un Emirien, un Pakistanais et un Iranien) ont été libérés la semaine dernière contre une rançon de 50 à 70 millions de dollars, ainsi que du matériel militaire. Comment ces libérations ont-elles été négociées ? Comment expliquer un montant aussi élevé pour la rançon ? Avec Wassim Nasr, journaliste à France 24, spécialiste des mouvements jihadistes. New-York : un revers pour Donald Trump Figure de l'aile gauche démocrate, Zohran Mamdani est devenu le nouveau maire de New York. Pourquoi, lors de la campagne, Donald Trump a préféré soutenir Andrew Cuomo, candidat issu du camp démocrate plutôt que Curtis Sliwa, le candidat républicain ? Quel impact la victoire de Zohran Mamdani peut-elle avoir sur les élections de mi-mandat dans un an ? Avec Françoise Coste, historienne et professeure d'études américaines à l'Université de Toulouse Jean-Jaurès.
L'activité des grandes plateformes, le manque de transparence de leurs algorithmes de recommandation et la désinformation sur les réseaux sociaux, sont dans le collimateur de l'Union européenne. Les règlements se multiplient ainsi que les menaces de sanctions pour violation des règles. Mais qu'en est-il au juste de la souveraineté numérique des états face à ces géants de la tech hyper puissants ? « Quelle souveraineté étatique face aux géants du numérique ? Perspectives européennes à l'aune des compétences de l'État », l'autrice de cette étude est Aude Géry, chercheuse à GÉODE (Institut Français de Géopolitique). Elle est notre invitée. Nous évoquons avec elle, les rapports de force entre les États et les grandes plateformes numériques, à travers de récentes décisions de la Commission européenne, comme par exemple les demandes formulées à Tik Tok et Meta, maison-mère d'Instagram et Facebook, de remplir leurs obligations de transparence et d'accès aux données publiques, en vertu du règlement européen sur les services numériques. Comme le souligne l'exécutif européen, « Permettre aux chercheurs d'accéder aux données des plateformes est une obligation de transparence essentielle en vertu de la DSA (digital services Act ou règlement des services numériques), car cela permet au public d'examiner l'impact potentiel des plateformes sur notre santé physique et mentale ».
Avec Grokipedia, Elon Musk jure de détrôner Wikipedia, fleuron de l'accès au savoir et du partage de connaissances sur internet. Quelle crédibilité accorder à une encyclopédie en ligne propulsée par l'IA ? Le milliardaire américain n'est pas seul à s'en prendre à Wikipedia. Les attaques informationnelles se multiplient à l'encontre de l'encyclopédie en ligne, alors que celle-ci s'apprête à fêter ses 25 ans d'existence. Le lancement de Grokipedia, une nouvelle encyclopédie en ligne, propulsée par l'intelligence artificielle est imminent ! Annonce faite par Elon Musk cette semaine. Le patron de xAi en profite pour tacler Wikipedia, qu'il accuse de partialité. Avec nos invités, nous revenons sur cette cabale anti-Wikipedia. Le milliardaire américain n'est pas seul à s'en prendre à cette entreprise de partage du savoir en ligne. Des initiatives visant à modifier les articles par effraction, sont régulièrement détectées. Comment l'encyclopédie en ligne, indétrônable depuis bientôt un quart de siècle résiste-t-elle à ces attaques informationnelles ? Nos invités sont Rémy Gerbet, directeur exécutif de Wikimedia France, Jordan Ricker, directeur des opérations d'Opsci.ai, une PME française spécialiste de la lutte informationnelle, et Marc Fadoul, chercheur en Intelligence artificielle, spécialiste des systèmes de recommandation. L'organisation qu'il a co-fondée, AI Forensics enquête sur l'influence opaque des algorithmes. Autre bataille de géants du numérique et de l'intelligence artificielle : Sam Altman, le patron d'Open Ai a lancé ce mardi (21 octobre 2025) Atlas. Le nouveau navigateur entièrement construit sur Chat GPT s'attaque lui à la suprématie de Google chrome. Marc Fadoul évoque les risques que comporte cette volonté de puissance des IA génératives, qui tentent de sortir du simple rôle de chatbot ou agent conversationnel. Enfin, côté images, ce sont les vidéos de Sora 2 qui déboulent sur les réseaux sociaux. Avec elles, de quoi bien s'amuser mais aussi désinformer en masse. Un cap est franchi dans le perfectionnement des IA génératives d'images, c'est la chronique de Grégory Genevrier de la cellule info vérif de RFI : Sora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox.
In this episode, we explore the connections between Autism and Parkinson's, focusing particularly on the basal ganglia and its substructures, notably the substantia nigra within the midbrain. We discuss how the substantia nigra, known for its high concentration of neuromelanin, plays a critical role in these disorders. The episode examines how neuromelanin, a dark pigment, not only absorbs all frequencies of light but also has antioxidant properties, binds metals, and acts as a neuroprotector. This discussion leads into the broader implications of environmental signals, particularly light, on human biology, touching on how modern changes in light exposure might affect these conditions.We examine the role of tyrosine in the synthesis of neuromelanin and its derivatives like dopamine, which are crucial for neural function. We look at how deficiencies or imbalances in these pathways could lead to the symptoms observed in Autism and Parkinson's, including motor function issues. The conversation also covers the direct and indirect pathways in the basal ganglia, explaining how these pathways facilitate or inhibit movement, respectively, and how their dysfunction can manifest in the characteristic motor symptoms of both disorders. We also touch on the significance of thyroid function, particularly the roles of T3 and T4 hormones, in brain development and neuron health, tying these elements back to the overarching theme of energy loss and transduction in both Autism and Parkinson's.Autism and Parkinson's are a lack of, or a loss of, energy.Biological Energy: Quantum Mechanisms, Water, DHA, and NF-kB: https://youtu.be/2-IA_gunXbwDaylight Computer Company, use "autism" for $50 off athttps://buy.daylightcomputer.com/autismChroma Light Devices, use "autism" for 10% discount athttps://getchroma.co/?ref=autismCognity AI for Autistic Social Skills, use "autism" for 10% discount athttps://thecognity.com0:00 Autism and Parkinson's; Basal Ganglia; Substantia Nigra; Neuromelanin; Internal Calculators2:15 Tyrosine; Chromophores; Aromatic Amino Acids3:50 Biological Energy; Mitochondria; Environmental Signals; Cytochrome C Oxidase; Autism Research Miss6:20 Deep Brain Stimulation6:48 Neuromelanin9:02 Reverse Engineer ATPase10:48 Tree Examples11:45 Hypoxia and loss of energy & dopamine12:26 Eyes, hair, & skin; RPE; efficiency & power; What is Light?13:58 Light; Information & Energy; electromagnetic; wave-particle duality; sunlight versus artificial light17:08 Thyroid; T3 & T4; Iodine18:31 Roles of T323:00 Loss of energy in the womb & Autism research25:00 Melanin + Water = Electrons26:40 Basal Ganglia; "Motivations" & Movements; Direct Pathway30:55 Indirect Pathway32:52 Go, No-Go; Action selection, learning & habits; fine motor skills34:18 Parkinson's and loss of timing & energy; modulating the two pathways & dopamine37:07 Reviews/Ratings & contact infoX: https://x.com/rps47586YT: https://www.youtube.com/channel/UCGxEzLKXkjppo3nqmpXpzuAemail: info.fromthespectrum@gmail.com
Les plus grandes puissances mondiales -qu'elles soient chinoise ou américaine- dominent l'espace cyberinformationnel du haut de leurs grandes plateformes Tik Tok, Meta, X et autres YouTube. Elles se trouvent donc en position de force face à l'Union européenne, unique organisation à tenter de réguler leurs activités, afin d'en limiter les abus, en termes de respect des droits fondamentaux. Les textes sont adoptés, mais la mise en œuvre ne suit pas. Comment sortir de l'impasse ? Cette semaine, cap sur la Slovénie qui accueillait la conférence annuelle #Disinfo2025 organisée par EU disinfo Lab, une organisation à l'échelle européenne pour contrer la menace informationnelle sous toutes ses formes, tout particulièrement celles qui visent les fondements de la Démocratie, notamment les processus électoraux. Que fait le régulateur européen ? Nous évoquerons le règlement sur les services numériques (RSN) et autres textes que les grandes plateformes bafouent quotidiennement. Pourquoi aujourd'hui les infox, les manipulations de l'information les plus flagrantes, continuent de circuler allègrement, en violation des textes déjà adoptés ? Alexandre Alaphilippe, directeur exécutif de EU Disinfo Lab, nous donne un aperçu du contexte dans lequel s'organise la riposte contre ce fléau de la désinformation Joe Mc Namee, senior policy expert de EU Disinfo Lab, nous livre son analyse sur les textes adoptés par l'Union européenne. «On a fait le travail, les textes sont là, maintenant il n'y a plus qu'à les mettre en œuvre» dit-il, sans quoi, affirme-t-il, c'est la destruction de la Démocratie qui est en jeu, à travers la destruction de son espace public Guillaume Kuster, co-fondateur et PDG de la société Check First, présente l'initiative RADAR, pour Regulatory Assessment for Digital Services Act Risks, dans le but de faciliter la mise en œuvre du règlement sur les services numériques.
Le dispositif russe de propagande procède par élimination des moyens d'accès à l'information, en exerçant une répression féroce contre les médias et journalistes indépendants. Une fois verrouillé l'espace informationnel, le Kremlin et ses officines saturent l'espace cyber et informationnel de ses propres narratifs. Le dossier Propaganda monitor publié par RSF dresse un état des lieux de la situation, au-delà de l'espace russophone. Il recense également les initiatives engagées pour la riposte. Un an après le lancement de Progapanda monitor, Reporters sans frontières publie le premier volet de son enquête, visant le dispositif de propagande de la Russie : comment elle s'impose au détriment de l'information du public ? Quelles sont ses implications : privation de liberté et autres crimes de guerre. On en parle avec Anne Bocandé, directrice éditoriale de RSF. La chronique de dessous de l'infox, par Olivier Fourt de la cellule info vérif de RFI : Une infox sur un luxueux bunker destiné à la famille Macron bat des records sur les réseaux sociaux. L'expérience d'un fact checker du Bénin : Ariel Gbaguidi, lauréat Africa Fact 2025 revient sur l'enquête qui lui a valu le prix «meilleur fact check de l'année», où il est question d'une fausse base militaire française censée permettre le ravitaillement des djihadistes pour déstabiliser le Burkina Faso. Une infox alimentée par des images détournées de leur contexte.
Depuis plusieurs années, Brigitte Macron est visée par une rumeur qui s'est très largement propagée sur internet et qui ne cesse d'agiter les sphères complotistes. Selon cette rumeur, l'épouse du président dissimule le fait d'être née garçon et d'avoir fait une transition de genre.Cette théorie a de nouveau enflammé les réseaux sociaux le 10 juillet dernier, lorsque la cour d'appel de Paris a relaxé l'une des internautes à l'origine de la rumeur, et qui était poursuivie pour diffamation par la Première dame.Code source revient sur l'itinéraire de cette folle rumeur et sur ses répercussions avec Emmanuelle Anizon, grande reporter au Nouvel Obs et autrice de « L'affaire Madame. Le jour où la Première dame est devenue un homme : anatomie d'une fake news ».Écoutez Code source sur toutes les plates-formes audio : Apple Podcast (iPhone, iPad), Amazon Music, Podcast Addict ou Castbox, Deezer, Spotify.Crédits. Direction de la rédaction : Pierre Chausse - Rédacteur en chef : Jules Lavie - Reporter : Barbara Gouy - Production : Thibault Lambert, Clara Garnier-Amouroux, Pénélope Gualchierotti et Anaïs Godard - Réalisation et mixage : Julien Montcouquiol - Musiques : François Clos, Audio Network - Archives : TF1, Candace Owens. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.