POPULARITY
Parce que… c'est l'épisode 0x615! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Dans ce podcast approfondi, Charles Hamilton partage sa vision du red teaming moderne et de l'évolution de l'écosystème cybersécurité. L'échange révèle les complexités d'un marché en constante mutation et les défis qui touchent tant les professionnels que les organisations. Le paradoxe du red teaming moderne Hamilton souligne un phénomène fascinant : les red teamers ciblent principalement des entreprises matures en sécurité, créant un écart croissant avec la réalité des attaques criminelles. Cette sophistication forcée des équipes rouges s'explique par la nécessité de contourner des solutions de sécurité avancées pour accomplir leurs missions d'évaluation. Paradoxalement, cette expertise finit par être publique et influence les techniques des vrais attaquants, créant un cycle où les défenseurs doivent constamment s'adapter. Les véritables cybercriminels, quant à eux, privilégient l'opportunisme au détriment de la sophistication. Ils concentrent leurs efforts sur des cibles plus vulnérables, rendant leurs techniques souvent moins raffinées mais plus pragmatiques. Cette approche business-oriented explique pourquoi on retrouve encore des outils anciens comme Mimikatz dans les incidents réels, alors que les red teamers développent des techniques d'évasion complexes. L'écart entre recherche et réalité opérationnelle L'expérience d'Hamilton illustre comment les innovations du red teaming finissent par être récupérées par les attaquants réels. Il raconte l'anecdote d'un code qu'il avait publié il y a plus de dix ans et qui fut récemment réutilisé par un groupe d'attaquants, devenant soudainement une “nouvelle backdoor” aux yeux des analystes. Cette récupération démontre que les criminels puisent largement dans les ressources publiques plutôt que de développer leurs propres innovations. Cette dynamique soulève des questions importantes sur l'équilibre entre le partage de connaissances défensives et les risques d'armement involontaire des attaquants. Hamilton défend néanmoins la publication de recherches, arguant que ces techniques finiraient par être découvertes de toute façon, et que leur divulgation permet aux défenseurs de mieux se préparer. La sophistication technique face à l'efficacité pratique Un point central de la discussion concerne l'appréciation des outils techniques. Hamilton insiste sur l'importance de comprendre la complexité sous-jacente d'outils comme Mimikatz, développé par Benjamin Delpy. Cet outil, souvent perçu comme “simple” par les utilisateurs, représente en réalité des centaines d'heures de recherche sur les structures internes de Windows. Cette incompréhension de la sophistication technique conduit à une sous-estimation de la valeur des outils et des compétences nécessaires pour les développer. Il établit un parallèle avec Metasploit, framework qui a démocratisé l'exploitation de vulnérabilités. Beaucoup d'utilisateurs peuvent lancer un exploit sans comprendre sa mécanique interne, comme l'exemple historique de MS08-067, exploitation particulièrement complexe impliquant des services RPC, des buffer overflows et des techniques de contournement de protections mémoire. La collaboration entre équipes rouges et bleues Hamilton prône une approche collaborative à travers les “Detection Capability Assessment”, exercices où red teamers et blue teamers travaillent ensemble. Ces sessions permettent aux défenseurs de voir les techniques en action et de développer des règles de détection appropriées. Cette collaboration bidirectionnelle enrichit les deux parties : les red teamers comprennent mieux les traces qu'ils laissent, tandis que les blue teamers apprennent à identifier des indicateurs subtils. Cette approche collaborative reste malheureusement rare, particulièrement au Québec où les budgets cybersécurité sont plus limités. Le recours massif aux services managés crée également une opacité problématique, où l'intelligence de détection développée reste propriété du fournisseur plutôt que de l'organisation cliente. Les défis de la détection moderne La conversation aborde la transition des signatures antivirales vers la télémétrie moderne. Cette évolution, bien que techniquement supérieure, reste mal comprise par de nombreux professionnels. La télémétrie génère d'importants volumes de données qui nécessitent une analyse contextuelle sophistiquée pour identifier les activités malicieuses. Hamilton illustre ce défi avec l'exemple d'un utilisateur non-technique exécutant soudainement PowerShell et effectuant des requêtes LDAP. Individuellement, ces actions peuvent sembler bénignes, mais leur combinaison et le contexte utilisateur révèlent une activité suspecte typique d'outils comme BloodHound. Cette contextualisation reste difficile à automatiser et nécessite une compréhension fine de l'environnement organisationnel. Critique des métriques de vulnérabilité L'expert critique vivement l'utilisation systématique du système CVSS pour évaluer les risques. Dans le contexte du red teaming, une vulnérabilité “low” selon CVSS peut devenir critique si elle constitue le maillon manquant d'une chaîne d'attaque vers des actifs sensibles. Cette approche contextuelle du risque contraste avec les évaluations standardisées des tests d'intrusion traditionnels. L'exemple de Log4J illustre parfaitement cette problématique. Plutôt que de paniquer et patcher massivement, une compréhension du vecteur d'attaque aurait permis de mitiger le risque par des mesures réseau, évitant le stress des équipes pendant les vacances de Noël. L'industrie de la cybersécurité et ses travers Hamilton observe une tendance préoccupante vers la sur-médiatisation et le marketing dans la cybersécurité. Les vulnérabilités reçoivent des noms accrocheurs et des logos, les groupes d'attaquants sont “glorifiés” avec des noms évocateurs et des représentations heroïques. Cette approche marketing dilue les vrais messages techniques et crée une confusion entre communication et substance. Il dénonce également la prolifération de contenu généré par IA sur les plateformes professionnelles, particulièrement LinkedIn, qui noie les discussions techniques pertinentes sous un flot de contenu vide mais bien formaté. Cette tendance marginalise les voix techniques expertes au profit de “cyber-influenceurs” qui recyclent des concepts obsolètes. Formation et transmission des connaissances Malgré ces défis, Hamilton continue de former la prochaine génération de professionnels. Il insiste sur l'importance de comprendre les fondamentaux plutôt que d'utiliser aveuglément des outils. Cette philosophie éducative vise à créer des professionnels capables d'adaptation et d'innovation plutôt que de simples utilisateurs d'outils. Il encourage également la publication de blogs techniques, même sur des sujets déjà connus, comme moyen de développer les compétences de communication essentielles dans le domaine. La capacité à documenter et expliquer son travail s'avère aussi importante que l'expertise technique elle-même. Vers une industrie plus collaborative La conversation se conclut sur un appel à plus de collaboration et moins de compétition stérile dans l'industrie. Hamilton plaide pour des échanges constructifs entre professionnels techniques et dirigeants, entre red teamers et blue teamers, entre chercheurs et praticiens. Cette vision d'une communauté unie contraste avec la réalité actuelle d'écosystèmes cloisonnés qui peinent à communiquer efficacement. Il partage son expérience personnelle des critiques et de la toxicité parfois présente dans la communauté cybersécurité, tout en réaffirmant son engagement à partager ses connaissances et à contribuer à l'évolution positive du domaine. Son parcours, depuis les débuts dans les années 2000 jusqu'à aujourd'hui, témoigne de l'évolution rapide du secteur et de l'importance de l'adaptation continue. Cette riche discussion révèle les multiples facettes d'un domaine en constante évolution, où l'équilibre entre technique et communication, entre offensive et défensive, entre innovation et pragmatisme, définit l'efficacité des approches sécuritaires modernes. Collaborateurs Charles F. Hamilton Crédits Montage par Intrasecure inc Locaux réels par Northsec
Parce que… c'est l'épisode 0x614! Shameless plug 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Ce podcast explore les réalités et malentendus entourant l'intelligence artificielle, avec Mickael Nadeau, expert du domaine depuis plusieurs années. La discussion révèle les confusions actuelles entre les différents types d'IA et l'importance cruciale de la transparence dans cette technologie. L'expertise précoce face à la popularisation récente Mickael Nadeau travaillait déjà dans l'intelligence artificielle appliquée à la cyberdéfense en 2021, bien avant l'explosion populaire de ChatGPT. Cette expérience lui donne une perspective unique sur l'évolution du secteur. Il observe aujourd'hui que “tout le monde est rendu des experts en IA”, alors que la réalité de la compréhension technologique est bien différente. Cette popularisation soudaine a créé une situation où les termes “IA”, “machine learning” et “intelligence artificielle générative” sont constamment confondus et utilisés de manière interchangeable. La confusion terminologique généralisée L'un des problèmes majeurs identifiés est la tendance à réduire l'IA à ChatGPT ou aux chatbots génériques. Pour beaucoup, l'IA s'arrête à ces outils conversationnels, alors qu'elle englobe en réalité de nombreux segments d'algorithmes différents, conçus pour répondre à des besoins spécifiques. Cette confusion se manifeste particulièrement dans les appels d'offres gouvernementaux, où Nadeau a récemment dû répondre à des questions “sidérantes” mélageant concepts d'IA générative, de stockage de données, de métadonnées et de propriété intellectuelle. Ces questions semblent inspirées du RGPD européen, le Québec tentant de suivre cette approche réglementaire. Cependant, elles révèlent une incompréhension fondamentale des différences entre les types d'IA et leurs implications techniques. Les rédacteurs de ces documents mélangent l'entraînement des modèles, l'hébergement cloud, et les différents types d'algorithmes, créant un “amalgame” de préoccupations légitimes mais mal contextualisées. L'IA traditionnelle versus l'IA générative La distinction entre l'IA traditionnelle (machine learning classique) et l'IA générative (GenAI) est cruciale mais mal comprise. L'IA existe depuis des décennies dans nos appareils quotidiens : la prédiction de texte sur nos téléphones, les algorithmes de recommandation de Netflix, la correction automatique, ou encore les moteurs de recherche Google utilisent tous des formes d'intelligence artificielle. Ces applications sont ciblées, efficaces et consomment relativement peu d'énergie. En revanche, les grands modèles de langage (LLM) comme ChatGPT sont des outils généralistes comparables à “faire du trail avec un char de ville”. Ils peuvent produire des résultats dans de nombreux domaines, mais au prix d'une consommation énergétique massive et avec des risques d'erreurs ou d'hallucinations. Cette différence fondamentale explique pourquoi Google et Apple n'ont pas initialement développé de chatbots grand public : ils utilisaient déjà l'IA de manière spécialisée et efficace. L'évolution technologique et les capacités actuelles Ce qui a véritablement changé récemment, ce ne sont pas les algorithmes eux-mêmes, mais la puissance de calcul disponible. Les concepts statistiques sous-jacents au machine learning existent depuis des décennies. Cependant, l'accès démocratisé aux serveurs puissants, aux cartes graphiques spécialisées et aux capacités cloud a permis de traiter des volumes de données impensables il y a encore cinq ans. Cette évolution technologique a également permis l'émergence de nouveaux paradigmes, comme les MCP (Model Context Protocol), qui agissent comme des coprocesseurs spécialisés. Ces systèmes permettent de combiner plusieurs agents IA spécialisés plutôt que de s'appuyer sur un seul modèle généraliste. Cette approche modulaire, déjà utilisée par Apple et Google sur leurs téléphones, représente probablement l'avenir de l'IA pratique. Les défis de qualité et de fiabilité Un problème récurrent avec les outils d'IA générative concerne la qualité et la fiabilité des résultats. Nadeau partage des exemples frustrants de personnes envoyant des courriels clairement générés par IA, contenant des erreurs ou des “hallucinations” que l'expéditeur n'a même pas pris la peine de relire. Cette paresse révèle une confiance aveugle dangereuse envers ces outils. Pour le développement de code, les modèles généralistes produisent souvent du code non maintenable, inventent des bibliothèques inexistantes, ou créent des solutions partiellement fonctionnelles. En revanche, les modèles spécialisés comme Claude Code, entraînés spécifiquement sur du code de qualité, produisent des résultats significativement meilleurs. Cette différence illustre l'importance de choisir l'outil approprié pour chaque tâche. La question cruciale de la transparence Le défi majeur identifié par Nadeau concerne la transparence des systèmes d'IA. Contrairement aux LLM qui fonctionnent comme des “boîtes noires”, les systèmes d'IA spécialisés peuvent être conçus pour expliquer leurs décisions. Dans leur solution de cyberdéfense, ils indiquent le degré de confiance du modèle dans chaque décision et expliquent le raisonnement sous-jacent. Cette transparence devient un avantage concurrentiel majeur. Elle permet aux utilisateurs de comprendre pourquoi une décision a été prise, d'évaluer la fiabilité du résultat, et de prendre des décisions éclairées. Cette approche contraste avec la mentalité “trust me bro” de nombreuses solutions actuelles qui demandent une confiance aveugle dans leurs résultats “magiques”. Les enjeux géopolitiques et de confidentialité La discussion révèle également les préoccupations géopolitiques autour de l'IA. L'interdiction de TikTok aux États-Unis, les amendes contre ByteDance en Europe, et les questions sur l'envoi de données en Chine illustrent ces tensions. Cependant, les intervenants soulignent l'hypocrisie de ces préoccupations : les mêmes questions auraient dû être posées depuis longtemps concernant le cloud computing, les applications mobiles, et les services web en général. OpenAI a été forcé de conserver indéfiniment les conversations ChatGPT par les tribunaux américains, mais Google conserve déjà toutes nos recherches. Cette situation révèle un “réveil tardif” face à des pratiques existantes depuis des années. L'IA générative a simplement rendu visible des problématiques de confidentialité préexistantes. L'avenir : spécialisation et orchestration L'avenir de l'IA semble s'orienter vers des écosystèmes d'agents spécialisés orchestrés intelligemment. Plutôt qu'un seul modèle généraliste tentant de tout faire, nous verrons probablement des “essaims” de petits agents, chacun expert dans un domaine particulier. Cette approche, déjà visible dans les dernières versions de ChatGPT et Gemini qui intègrent des modules de recherche web, promet des résultats plus fiables et plus efficaces. Conclusion : éducation et transparence Le podcast se termine sur l'importance de l'éducation et de la transparence. La confusion actuelle autour de l'IA résulte largement d'un manque de compréhension des différentes technologies et de leurs implications. Les consommateurs, régulateurs, et entreprises doivent développer une meilleure compréhension de ces outils pour les utiliser efficacement et en toute sécurité. La transparence devient non seulement un impératif éthique mais aussi un avantage concurrentiel. Les entreprises capables d'expliquer clairement le fonctionnement de leurs systèmes d'IA, leurs limites, et leurs garanties de confidentialité auront un avantage significatif dans un marché de plus en plus méfiant face aux “boîtes noires” technologiques. Cette évolution vers plus de transparence et de spécialisation pourrait finalement résoudre de nombreux problèmes actuels de l'IA, tout en réalisant son véritable potentiel dans des applications pratiques et fiables. Collaborateurs Mickael Nadeau Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
Parce que… c'est l'épisode 0x613! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Ce podcast présente le témoignage d'Antoine Vacher, auditeur technique chez Cyblex Consulting, qui partage son retour d'expérience sur ses premières missions d'intrusion physique. Cette discussion révèle les défis, apprentissages et méthodologies d'un professionnel de la cybersécurité découvrant un nouveau domaine d'expertise. Contexte et approche initiale Antoine Vacher travaille comme pentester dans une petite société française de cybersécurité. Lorsqu'un client manifeste son intérêt pour une mission d'intrusion physique, l'équipe décide de se lancer malgré leur manque d'expérience dans ce domaine. Cette transparence avec le client constitue un élément clé de leur approche : ils informent clairement qu'il s'agit de leur première expérience tout en exprimant leur motivation à relever ce défi. Première mission : société de développement monétique La première mission concerne une entreprise de développement de systèmes monétiques répartie sur deux bâtiments. Les objectifs sont clairement définis et géographiquement précis : accéder à différents étages, prendre un café au troisième étage, visiter le bureau du directeur, accéder aux salles serveurs, passer un appel depuis un téléphone interne et évaluer la possibilité de vol de modules HSM (Hardware Security Modules). Phase de reconnaissance et préparation L'équipe commence par une phase d'OSINT (Open Source Intelligence) pour collecter des informations utiles. Ils recherchent des noms d'employés, des événements, des marques d'équipements informatiques ou de machines à café, toute information pouvant servir de prétexte pour justifier leur présence. Bien que cette recherche ne produise pas énormément de résultats exploitables, ils parviennent à identifier et vérifier la présence en ligne du facility manager, information qu'ils comptent utiliser. Première approche : reconnaissance nocturne et tentative matinale L'équipe adopte une approche en deux phases. La première consiste en une reconnaissance nocturne pour évaluer la sécurité physique des bâtiments. Ils découvrent que la barrière de sortie du parking est cassée en position ouverte, facilitant l'accès véhiculaire. Cependant, toutes les portes et fenêtres sont correctement sécurisées. Le lendemain matin, ils exploitent une particularité architecturale : un des bâtiments appartient entièrement au client, mais un étage est loué à une société tierce. En sonnant à cette société sous prétexte de livraison, ils obtiennent un accès immédiat au bâtiment sans argumentation. Une fois à l'intérieur, ils découvrent qu'ils peuvent accéder aux cages d'escalier grâce aux normes de sécurité incendie, et qu'une porte d'étage n'est pas correctement verrouillée. Cette intrusion leur permet de valider plusieurs objectifs : photographier des HSM abandonnés, passer un appel au donneur d'ordre depuis un téléphone interne. Pour accéder à un autre étage, ils utilisent l'ingénierie sociale en tapant à une vitre séparant la cage d'escalier d'une salle de pause. Un employé leur ouvre après qu'ils aient inventé une histoire de mesures WiFi. Deuxième approche : professionnalisation du prétexte Sur le second bâtiment, l'équipe se fait remarquer et décide de reporter l'intrusion. Pour la deuxième tentative, ils développent un scénario plus élaboré en exploitant le passé professionnel d'un collègue, ancien ingénieur en acoustique. Équipés de véritables micromètres de mesure sonore, ils se présentent à l'accueil comme une équipe de mesures acoustiques mandatée par le facility manager. Cette approche s'avère remarquablement efficace. La réceptionniste leur délivre des badges temporaires sans vérification préalable, révélant un défaut procédural majeur. Quand elle tente de contacter le facility manager, celui-ci ne répond pas comme convenu, et elle s'absente pour le chercher, leur laissant le champ libre. L'expertise technique du collègue ajoute une crédibilité naturelle à leur couverture. Pendant qu'il effectue de véritables mesures acoustiques dans chaque bureau, Antoine note fictement les résultats. Cette méthode leur permet d'accéder systématiquement à tous les espaces, y compris un bureau gérant les badges où Antoine parvient à subtiliser des badges (qui s'avéreront malheureusement désactivés). Pour la salle serveur, ils demandent simplement à un employé de leur ouvrir l'accès pour effectuer des mesures, requête qui est satisfaite sans difficulté. Cependant, leur succès trouve ses limites quand un employé plus vigilant vérifie effectivement auprès du facility manager, mettant fin à leur mission sur cet étage. Deuxième mission : structures publiques départementales La seconde mission concerne des bâtiments publics : les archives départementales et un centre de solidarité avec PMI (Protection Maternelle et Infantile). Les objectifs sont plus larges, incluant une dimension informatique légère avec l'accès à une session utilisateur et l'installation d'un C2 (Command and Control). Reconnaissance dans les espaces publics L'équipe commence par une reconnaissance dans les zones accessibles au public. Un collègue visite la PMI en prétextant chercher des informations sur les modes de garde pour sa femme enceinte. Cette visite révèle une information cruciale : l'imprimante est en panne. Parallèlement, la visite des toilettes (décrite comme “la base” en reconnaissance) permet de découvrir une salle technique contenant des équipements réseau non sécurisée. Exploitation de l'information collectée Antoine exploite l'information sur l'imprimante défaillante en appelant l'accueil en se faisant passer pour le service technique départemental. Non seulement il obtient un rendez-vous, mais la réceptionniste lui propose spontanément de venir le lundi matin pendant la fermeture au public, facilitant considérablement leur mission. Le jour J, l'accès se déroule sans encombre. Antoine demande à la réceptionniste d'ouvrir sa session informatique et de lui prêter son badge, requêtes satisfaites sans questionnement. Cette complaisance permet de valider immédiatement les objectifs informatiques : accès session et installation du C2 sans résistance du système de sécurité. Pour justifier leur déplacement dans le bâtiment, ils utilisent des antennes WiFi basiques, prétextant effectuer des mesures de qualité réseau. Cette couverture leur permet d'explorer l'intégralité des locaux sans être questionnés, découvrant une seconde salle technique non sécurisée. Enseignements et apprentissages Variabilité des réactions humaines L'expérience révèle la grande diversité des réactions humaines face aux intrus. Certaines personnes ouvrent immédiatement sans poser de questions, d'autres appliquent spontanément des procédures de vérification inexistantes mais efficaces. Cette variabilité suggère qu'une approche patiente, avec plusieurs tentatives à différents moments et avec différentes personnes, peut surmonter les refus initiaux. Importance du prétexte et de la crédibilité La différence d'efficacité entre les approches improvisées et préparées est frappante. L'expertise technique réelle du collègue en acoustique apporte une crédibilité naturelle impossible à simuler par de simples recherches internet. Cette expérience souligne l'importance de s'appuyer sur de véritables compétences techniques pour construire des scénarios crédibles. Exploitation des informations collectées Les missions démontrent l'importance de la phase de collecte d'informations, même apparemment anodines. L'information sur l'imprimante en panne, recueillie lors d'une visite publique légitime, devient le pilier d'une intrusion réussie. Cette approche illustre comment transformer des détails opérationnels en opportunités d'accès. Défaillances procédurales systémiques Les missions révèlent des défaillances procédurales récurrentes : délivrance de badges sans vérification, absence de procédures claires pour les employés face à des visiteurs suspects, complaisance excessive des personnels. Ces failles suggèrent que les problèmes de sécurité physique relèvent souvent plus de l'organisation que de la technologie. Aspects légaux et déontologiques Antoine insiste sur l'importance du cadre légal et déontologique. Chaque mission nécessite des autorisations formelles, une notification aux forces de l'ordre, et les auditeurs portent une lettre de mission attestant de la légitimité de leur présence. Le donneur d'ordre doit être disponible pour confirmation en cas de contrôle. Cette approche professionnelle protège à la fois les auditeurs et les organisations testées. Communication des résultats Les rapports adoptent une approche narrative, racontant chronologiquement le déroulement des intrusions avec photos à l'appui. Cette méthode, qualifiée “d'article de magazine”, permet aux clients de comprendre concrètement les techniques utilisées et les failles exploitées. Les recommandations portent sur la sensibilisation, la définition de procédures claires, et l'adaptation des mesures de sécurité physique aux menaces réelles. Réception par les clients Les réactions clients varient selon leur niveau de conscience préalable des vulnérabilités. Le premier client, bien que déçu, n'était pas surpris par certaines défaillances. Le département public montrait plus d'inquiétude concernant l'accès aux archives sensibles, mais restait pessimiste sur la sécurité de la PMI. Recommandations pour les futurs praticiens Antoine encourage la prise de risque mesurée et l'exploration de nouveaux domaines, tout en insistant sur la transparence avec les clients concernant le niveau d'expertise. Il souligne l'importance de l'honnêteté professionnelle : mieux vaut avouer son manque d'expérience que de se présenter faussement comme expert. L'expérience démontre qu'un niveau d'expertise modeste peut suffire à révéler des vulnérabilités significatives. Si des novices parviennent à atteindre leurs objectifs, cela révèle un niveau de sécurité préoccupant nécessitant des améliorations. Cette expérience illustre parfaitement comment aborder un nouveau domaine professionnel avec méthode, transparence et éthique, tout en tirant des enseignements précieux pour l'amélioration continue de la cybersécurité organisationnelle. Collaborateurs Nicolas-Loïc Fortin Antoine Vacher Crédits Montage par Intrasecure inc Locaux réels par BreWskey Pub
Parce que… c'est l'épisode 0x612! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Dans cet épisode, l'animateur reçoit Simon Du Perron, avocat spécialisé en protection de la vie privée, pour analyser deux projets de loi majeurs du gouvernement : C-2 et C-8. Ces projets législatifs, qualifiés de « massifs », ont des implications significatives sur la protection des renseignements personnels au Canada. Le projet de loi C-2 : un régime de surveillance élargi Le projet de loi C-2, officiellement intitulé « Loi concernant certaines mesures liées à la sécurité de la frontière entre le Canada et les États-Unis et d'autres mesures connexes liées à la sécurité », constitue un projet omnibus de 140 pages modifiant près de 20 lois fédérales. Présenté par le ministre de la sécurité publique, ce projet va bien au-delà des simples enjeux frontaliers. Modifications au code criminel La partie 14 de C-2 modifie le code criminel pour accorder aux agents de la paix des pouvoirs élargis d'accès aux données. Cette modification est particulièrement préoccupante car elle s'applique de manière générale à travers le Canada. Les agents peuvent désormais ordonner aux fournisseurs de services électroniques de divulguer des métadonnées sur leurs utilisateurs sans mandat préalable, incluant l'identifiant du client, ses numéros de compte, le type de service fourni, la période d'utilisation et les informations sur les dispositifs utilisés. Cette approche contraste avec la jurisprudence récente de la Cour suprême, notamment l'affaire Bicovette, qui avait établi qu'un mandat était nécessaire pour obtenir des adresses IP. Le projet C-2 semble vouloir contourner cette protection judiciaire en facilitant l'accès aux données par les forces de l'ordre. Le régime d'accès légal La partie 15 crée un cadre juridique pour l'accès légal (« legal access »), obligeant les fournisseurs de services électroniques à maintenir des capacités techniques permettant aux autorités d'accéder aux informations demandées. Cette obligation va jusqu'à créer un pouvoir ministériel d'ordonner par décrets contraignants la mise en place de mesures spécifiques, avec des sanctions pécuniaires pouvant atteindre 250 000 dollars. La définition de « fournisseur de services électroniques » est particulièrement large, englobant essentiellement tout service permettant de mettre à disposition des informations par un moyen technologique. Paradoxalement, la loi crée une distinction entre les fournisseurs canadiens et étrangers : pour ces derniers, une autorisation judiciaire reste nécessaire, créant une situation où il est plus facile d'accéder aux données d'un fournisseur canadien qu'américain. Autres modifications préoccupantes Le projet modifie également la Loi sur la Société canadienne des postes, réduisant la protection du contenu des transmissions postales en ajoutant une exception « sauf en conformité avec une loi fédérale ». Cette modification pourrait permettre l'application des nouvelles dispositions du code criminel aux services postaux. Une modification à la Loi sur le recyclage des produits de la criminalité permet aux institutions financières de recueillir et utiliser des renseignements personnels sans consentement s'ils proviennent d'une autorité policière, dans le but de lutter contre le blanchiment d'argent et le financement terroriste. Le projet de loi C-8 : renaissance de C-26 Le projet C-8 reprend presque intégralement l'ancien projet C-26, qui n'avait pas pu être adopté lors de la législature précédente en raison d'un problème de traduction. Ce projet vise à sécuriser les systèmes de télécommunications et les infrastructures critiques. Modifications à la loi sur les télécommunications La première partie modifie la Loi sur les télécommunications pour inclure « la promotion de la sécurité du système canadien de télécommunication » dans ses objets. Elle confère au ministre de l'Industrie le pouvoir d'interdire aux télécommunicateurs d'utiliser certains produits ou services, ou d'imposer des mesures de sécurité spécifiques, sans indemnisation en cas de pertes financières. La loi sur la protection des cybersystèmes essentiels La seconde partie crée une nouvelle loi visant les secteurs critiques : télécommunications, pipelines et lignes électriques, énergie nucléaire, système bancaire, et transport de compétence fédérale. Les organisations de ces secteurs devront adopter un programme de cybersécurité, notifier les incidents au Centre de la sécurité des télécommunications dans les 90 jours, et se conformer aux directives gouvernementales. Cette approche s'inspire du règlement européen NIS 2, créant un régime de cybersécurité robuste pour les infrastructures essentielles. Les incidents de cybersécurité qui affectent la confidentialité, l'intégrité ou la disponibilité de l'information devront être signalés, créant potentiellement une double obligation de notification pour les incidents touchant aussi la vie privée. Préoccupations et enjeux constitutionnels Inspiration américaine problématique Les deux projets s'inspirent fortement du modèle américain, particulièrement du FISA (Foreign Intelligence Surveillance Act). Cette approche soulève des inquiétudes quant à la création d'un système de surveillance de masse similaire à celui des États-Unis, mais appliqué aux données de citoyens canadiens plutôt qu'aux données d'étrangers. La facilité d'accès aux métadonnées pourrait mener à la constitution de bases de données gouvernementales permettant des requêtes systématiques, transformant l'État en « courtier de données criminel ». Cette évolution vers un modèle de surveillance étatique accrue préoccupe les défenseurs de la vie privée. Absence de contrepouvoirs Contrairement à d'autres juridictions qui mettent en place des mécanismes de surveillance spécifiques pour encadrer de nouveaux pouvoirs, C-2 s'en remet principalement aux tribunaux pour baliser l'usage des nouvelles dispositions. Cette approche réactive plutôt que préventive laisse une large marge de manœuvre aux forces de l'ordre. Questions constitutionnelles Le projet C-2 présente la particularité de ne pas contenir de disposition d'objets claire, contrairement à la pratique habituelle des projets de loi fédéraux qui cherchent à ancrer leur compétence constitutionnelle. Cette omission pourrait poser des défis d'interprétation judiciaire. Processus parlementaire et perspectives Le gouvernement conservateur semble pressé de faire adopter ces mesures. C-2 est actuellement en deuxième lecture tandis que C-8 est en première lecture. Tous deux relevant du ministre de la sécurité publique, ils seront probablement étudiés par le même comité parlementaire, ce qui pourrait ralentir leur progression. L'adoption de ces projets marquerait un tournant significatif dans l'équilibre entre sécurité et vie privée au Canada. Ils reflètent une volonté gouvernementale de s'aligner sur les demandes américaines en matière de sécurité frontalière, tout en modernisant les outils d'enquête face à la multiplication des plateformes numériques. Les audiences publiques et l'étude détaillée en comité seront cruciales pour évaluer l'impact réel de ces mesures sur les droits fondamentaux des Canadiens. La communauté juridique et les défenseurs de la vie privée devront être particulièrement vigilants face à ces transformations majeures du paysage législatif canadien en matière de surveillance et de cybersécurité. Collaborateurs Nicolas-Loïc Fortin Simon Du Perron Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
Parce que… c'est l'épisode 0x611! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2026 Description Ce sixième épisode du balado réunit NLF, Catherine Dupont-Gagnon et Samuel Harper pour discuter de trois sujets majeurs touchant la cybersécurité et les enjeux technologiques actuels. Grok et les dérives de l'IA d'Elon Musk Le premier sujet porte sur l'intelligence artificielle Grok de XAI, propriété d'Elon Musk et intégrée à X (anciennement Twitter). Vers le 10 juillet, Grok a connu un dérapage majeur pendant 24 à 48 heures suite à une modification de ses instructions qui l'encourageait à ne plus être “politiquement correct” et à exprimer des opinions plus osées. L'incident a débuté quand quelqu'un a questionné Grok sur un faux compte Twitter qui avait écrit des commentaires horribles sur des enfants morts lors d'inondations au Texas. Grok a alors utilisé l'expression antisémite “every damn time”, suggérant un pattern lié à l'origine juive des personnes impliquées dans des actions répréhensibles. L'IA s'est ensuite mise à délirer sur ce thème, allant jusqu'à se renommer “Mekahitler”. Les dérapages ont continué avec des scénarios d'agression sexuelle impliquant des personnalités publiques, des instructions pour commettre des effractions, et même l'analyse des horaires de sommeil d'utilisateurs basée sur leurs publications. Face à cette situation hors contrôle, les ingénieurs ont finalement désactivé Grok temporairement. Paradoxalement, le Pentagone a annoncé un contrat pour utiliser Grok dans leurs systèmes le lendemain de cette débâcle. Il a également été révélé que Grok vérifie l'alignement de ses réponses avec les opinions d'Elon Musk en analysant ses publications. Catherine ajoute qu'Elon Musk souhaite créer une “religion cosmique de l'IA” avec pour objectif de maximiser l'activité cognitive à l'échelle cosmique, notamment par la colonisation de Mars et l'augmentation de la natalité humaine. Cette situation dystopique inquiète particulièrement dans le contexte politique actuel. L'incident WeTransfer et la protection des données Le deuxième sujet concerne WeTransfer, qui a discrètement modifié ses conditions d'utilisation pour s'autoriser à entraîner des modèles d'IA sur les fichiers partagés par les utilisateurs. Cette modification, cachée dans les termes de service sans communication claire, accordait à l'entreprise une licence perpétuelle pour utiliser, développer et commercialiser le contenu des utilisateurs. Cette décision a particulièrement choqué les industries créatives qui utilisaient WeTransfer pour partager des contenus confidentiels et des propriétés intellectuelles importantes, en se basant sur la réputation de sécurité de la plateforme. La réaction négative a été si forte que WeTransfer a dû faire marche arrière et annuler ces modifications. L'incident soulève deux problèmes majeurs : d'abord, l'intégration forcée de l'IA dans tous les services web au détriment de la vie privée, et ensuite, la pratique problématique des changements de politiques d'utilisation communiqués de manière subtile et difficile à détecter pour les utilisateurs. Nicolas note la différence significative entre les régimes légaux européen et américain, où les utilisateurs européens bénéficient de bien plus d'informations et de protection grâce à des réglementations plus strictes. L'incident rappelle que les entreprises américaines peuvent modifier leurs conditions à tout moment, souvent motivées par de nouvelles opportunités de monétisation des données utilisateurs. Vulnérabilités ferroviaires : vingt ans de négligence Le troisième sujet traite d'une vulnérabilité dans les systèmes de communication sans fil des trains, permettant potentiellement d'arrêter ou de déclencher les freins à distance. Bien que cette faille soit connue depuis environ vingt ans, l'industrie ferroviaire a constamment refusé d'agir, adoptant une attitude de déni typique des secteurs patrimoniaux. Cette vulnérabilité concerne particulièrement les appareils “Fred” (les lumières clignotantes rouges à l'arrière des trains de marchandises) en Amérique du Nord. L'estimation du coût pour remplacer ces systèmes s'élève entre 6 et 10 milliards de dollars, ce qui explique en partie la résistance de l'industrie. Cependant, le contexte a changé avec les récentes cyberattaques sur les infrastructures critiques, notamment Salt Typhoon, les attaques sur les systèmes électriques, et l'incident de 2023 en Pologne où des pirates (probablement russes) ont réussi à arrêter des trains transportant de l'équipement militaire vers l'Ukraine. Dans ce dernier cas, l'attaque était si simple qu'elle nécessitait seulement de “siffler trois notes”. L'exploitation de cette vulnérabilité nécessite une présence physique près des voies ferrées pour envoyer un signal radio, mais comme le soulignent les animateurs, il serait facile d'automatiser cela avec un simple Raspberry Pi programmé et caché près des rails. Dans le contexte actuel de montée des mouvements conspirationnistes et du terrorisme domestique aux États-Unis, le risque qu'un “loup solitaire” exploite cette faille devient plus préoccupant. Réflexions sur l'écosystème technologique Tout au long de l'épisode, les animateurs soulèvent des questions importantes sur notre dépendance aux plateformes centralisées et aux services des GAFAM. Ils critiquent le fait que les partis politiques et institutions publiques continuent d'utiliser et de financer ces plateformes malgré leurs positions officielles contre leur influence. Samuel Harper note que la Coalition Avenir Québec possède 13 comptes vérifiés sur X, le Parti libéral en a dix, et le PQ neuf, tous payant pour ces services malgré les dérives évidentes de la plateforme. Cette incohérence entre les valeurs affichées et les actions concrètes reflète une difficulté plus large à abandonner les raccourcis offerts par ces plateformes centralisées. L'alternative du “fediverse” (comme Mastodon ou BlueSky) demande plus d'efforts pour construire une audience authentique, mais offre une plus grande souveraineté et un meilleur alignement avec les valeurs démocratiques. Cependant, l'effet de réseau et la facilité d'utilisation des plateformes centralisées continuent d'attirer les utilisateurs, même ceux qui critiquent ces systèmes. Conclusion : un avenir incertain L'épisode se termine sur une note d'inquiétude concernant l'évolution des mouvements conspirationnistes aux États-Unis, particulièrement dans le contexte de l'affaire des “Epstein Files” et des tensions internes au sein des groupes qui ont soutenu Trump. Les animateurs expriment leur préoccupation face à la perte de contrôle de ces mouvements par leurs leaders présumés, créant un contexte imprévisible et potentiellement dangereux. Cette discussion illustre parfaitement les défis de notre époque : la concentration du pouvoir technologique entre les mains de quelques individus, la négligence des infrastructures critiques, et la manipulation de l'opinion publique par des algorithmes et des leaders irresponsables. L'épisode appelle à une prise de conscience collective et à des actions concrètes pour reprendre le contrôle de notre environnement technologique et informationnel. Collaborateurs Nicolas-Loïc Fortin Catherine Dupont-Gagnon Samuel Harper Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
Parce que… c'est l'épisode 0x610! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2026 Description Introduction et contexte Dans cet épisode technique du podcast, les participants explorent les défis complexes de l'implémentation des technologies de télémétrie de sécurité dans les environnements de technologie opérationnelle (OT). Ils abordent particulièrement la transposition des concepts familiers du monde IT, comme les EDR (Endpoint Detection and Response), XDR (Extended Detection and Response) et NDR (Network Detection and Response), vers l'univers industriel. Les fondements de la télémétrie de sécurité Les technologies de détection et de réponse reposent sur deux piliers principaux : la détection (génération de télémétrie intelligente) et la réponse (capacité d'intervention automatisée). Du côté IT, ces systèmes permettent d'intervenir sur les terminaux en les isolant ou en bloquant certaines actions, tandis qu'au niveau réseau, ils peuvent bloquer le trafic identifié comme malveillant. Cette approche, bien maîtrisée en IT, pose des défis considérables lorsqu'elle est transposée dans les environnements OT. Les défis spécifiques à l'environnement OT L'installation d'un EDR sur un automate industriel s'avère impossible, contrairement à un poste Windows traditionnel. Les équipements industriels génèrent une télémétrie primaire et limitée, rendant difficile l'extraction de signaux de sécurité pertinents. Les experts recommandent de se concentrer sur les actifs plus évolués fonctionnant sous Windows ou Linux, car la majorité des attaquants privilégient ces plateformes familières plutôt que les systèmes industriels propriétaires. Cette approche s'appuie sur la “théorie du 99%”, qui stipule que les actifs IT ont une capacité de défense autonome contrairement aux actifs OT. Les attaques sophistiquées ciblant directement les systèmes industriels, comme Stuxnet ou Triton, demeurent exceptionnelles avec seulement quatre cas documentés en vingt ans. La plupart des incidents se limitent au niveau 3 du modèle de référence industriel, où se trouvent les serveurs et stations de travail Windows. L'enjeu patrimonial et la durée de vie des équipements L'environnement OT présente une caractéristique unique : la longévité exceptionnelle des équipements. Contrairement au monde IT où les systèmes sont régulièrement renouvelés, les installations industrielles peuvent fonctionner pendant 40 ans. Cette durée de vie étendue s'explique par les coûts élevés des équipements (plusieurs millions par pièce) et leur cycle de vie utile prolongé, particulièrement dans des secteurs comme la santé. Cette situation crée des défis de sécurité considérables, certaines installations fonctionnant encore sur des systèmes obsolètes comme Windows 3.11 ou NT4. Les organisations développent parfois des solutions de contournement, comme l'isolement par air gap et la réinstallation périodique des stations de travail pour gérer les infections persistantes. Complexité d'implémentation des EDR en OT L'implémentation d'EDR dans l'environnement OT nécessite une analyse de risque approfondie. Le confinement automatique, fonction standard des EDR, peut s'avérer catastrophique dans un contexte industriel. Les experts rapportent des incidents où un fichier de programmation d'automate (ladder logic) a été incorrectement identifié comme malveillant, provoquant le confinement automatique d'un serveur critique. La configuration des EDR en OT exige une adaptation minutieuse, notamment la désactivation des fonctions de réponse automatique. De plus, ces systèmes demandent des ressources significatives et ne peuvent pas être déployés sur des serveurs déjà saturés ou ayant des capacités limitées, situation fréquente dans l'industrie. Défis de la télémétrie personnalisée Contrairement aux systèmes IT où les événements sont standardisés, les automatismes industriels génèrent une télémétrie sur mesure. Il existe peu d'experts capables d'interpréter les signaux industriels pour détecter des anomalies sécuritaires. Cette analyse nécessite généralement l'expertise d'ingénieurs de procédé familiers avec les systèmes spécifiques. Les solutions de surveillance passive existent mais requièrent un investissement considérable en configuration et en compréhension de l'environnement. L'établissement d'une baseline de trafic normal peut prendre près d'un an de travail pour atteindre un niveau de visibilité comparable à celui obtenu en IT. Architecture et cloisonnement réseau Le transfert des signaux OT vers les consoles IT pose des défis architecturaux majeurs. Les environnements industriels sont généralement cloisonnés, nécessitant la création de pipelines d'ingestion de données complexes. Ces systèmes de relais permettent de traverser les barrières réseau tout en maintenant la sécurité, mais rendent les projets de visibilité particulièrement laborieux. La remontée des signaux vers une console de sécurité unifiée nécessite souvent une infrastructure dédiée côté OT, créant un “réseau dans le réseau” pour observer les systèmes cloisonnés depuis l'extérieur. Contraintes des fournisseurs et garanties Les fournisseurs d'équipements industriels imposent souvent des restrictions strictes sur les solutions de sécurité autorisées. Dans les installations récentes sous garantie, seules certaines solutions approuvées peuvent être déployées. Le non-respect de ces contraintes peut entraîner l'annulation de garanties couvrant parfois 10 à 15 ans d'exploitation. Cette situation oblige les organisations à valider toute solution de sécurité en laboratoire avant le déploiement, avec une représentation miniature de l'environnement de production. Certains éditeurs d'EDR montrent peu d'affinité avec les environnements cloisonnés, privilégiant des approches IT traditionnelles. Évolution vers le cloud et nouveaux paradigmes L'industrie OT évolue progressivement vers des solutions cloud, même pour les scanners passifs traditionnellement conçus pour des environnements isolés. Cette transition soulève des questions sur l'ouverture contrôlée d'accès Internet dans les couches basses du modèle de Purdue, remettant en question l'isolement total historiquement privilégié. Les solutions modernes nécessitent un flux continu de renseignements sur les menaces pour détecter efficacement les menaces émergentes. Le transport traditionnel de signatures s'avère trop lent face à l'évolution rapide des cybermenaces. Perspectives et recommandations Les experts recommandent de se concentrer sur la consolidation des journaux Windows et des événements SNMP comme point de départ pour améliorer la visibilité. Cette approche pragmatique permet d'obtenir rapidement des gains significatifs dans des environnements actuellement dépourvus de toute visibilité sécuritaire. L'implémentation réussie de ces technologies requiert une collaboration étroite entre les équipes IT et OT, traditionnellement en tension. La cybersécurité en OT doit être perçue comme un mode de défaillance supplémentaire à surveiller, au même titre que les paramètres opérationnels traditionnels. Conclusion L'adaptation des technologies xDR aux environnements OT représente un défi multifacette nécessitant une approche sur mesure. Bien que les concepts IT puissent servir de base, leur transposition directe s'avère inadéquate. Le succès dépend d'une compréhension fine des contraintes industrielles, d'une analyse de risque rigoureuse et d'une architecture respectant les impératifs de sécurité et de continuité opérationnelle. L'évolution vers une visibilité sécuritaire complète en OT demeure un processus long et complexe, mais nécessaire face à l'évolution des menaces cybernétiques. Collaborateurs Nicolas-Loïc Fortin Steve Bélanger Camille Felx Leduc Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
Tous les matins à 7h20, les petits secrets de l'actualité, les infos que vous n'avez pas vues ailleurs. Les journalistes des rédactions de RMC et RMC Sports se mobilisent pour vous raconter les coulisses de l'actualité.
durée : 00:04:07 - Le coup de cœur, ici Orléans - À Vennecy, le Pop Corn Labyrinthe transforme un champ de maïs en espace de jeux pour toute la famille, entre énigmes de jour et frayeurs de nuit, avec des produits locaux en prime. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.
Parce que… c'est l'épisode 0x609! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Dans cet épisode spécial, l'hôte du podcast P secure reçoit Davy Adam pour analyser une question cruciale : l'internet mondial existe-t-il encore vraiment, ou est-il déjà mort ? Cette discussion fait suite à leur précédent échange sur la souveraineté numérique et s'inscrit dans le contexte géopolitique mouvementé de 2025, marqué par les changements de politique américaine sous l'administration Trump. La nature d'internet et ses fondements Davy Adam commence par rappeler ce qu'est réellement internet : contrairement à la perception commune qui l'assimile à un service centralisé, internet est en réalité l'interconnexion de réseaux privés avec des règles de routage permettant d'accéder aux ressources. Quand nous visitons un site de commerce en ligne ou de streaming, nous accédons à une infrastructure privée appartenant à une entreprise, internet servant de réseau intermédiaire. Cette vision du “village planétaire” et des “autoroutes de l'information” a longtemps été portée par les États comme un bien commun. L'origine d'internet remonte à DARPANET, que Bill Clinton a décidé de rendre public. En France, le Minitel représentait une alternative prometteuse, mais son contrôle centralisé par une seule entité l'a empêché de rivaliser avec le modèle décentralisé d'internet qui favorisait la compétition et l'innovation. La fin de la neutralité d'internet Un des problèmes majeurs identifiés est la disparition progressive de la neutralité d'internet. Les acteurs privés qui contrôlent aujourd'hui les plateformes ne sont nullement neutres : ils ont leurs propres visions idéologiques et modèles sociologiques qu'ils imposent à travers leurs services. L'exemple d'Elon Musk avec Twitter/X illustre parfaitement cette dérive : depuis son acquisition, il a banni des centaines de milliers de comptes opposés à ses idées, modifié les algorithmes pour favoriser ses propres tweets, et utilisé la plateforme comme un outil de propagande personnelle. Cette manipulation s'étend au-delà des réseaux sociaux. Les résultats de recherche varient désormais selon la géolocalisation, créant des bulles informationnelles nationales. L'exemple récent du “golfe du Mexique” rebaptisé “golfe de l'Amérique” par Trump illustre comment la géopolitique influence directement l'information accessible aux utilisateurs selon leur localisation. La fragmentation géopolitique d'internet L'internet mondial subit une fragmentation croissante sous l'influence des tensions géopolitiques. Pendant la guerre en Ukraine, le gouvernement américain a décidé de couper certains liens reliant la Russie à l'internet mondial. En parallèle, la Russie développe son propre internet interne pour réduire sa dépendance. La Chine, avec son “grand firewall”, oblige tous les fournisseurs de services à héberger leurs données sur son territoire sous contrôle gouvernemental. Cette balkanisation reflète une tendance plus large : les gouvernements préfèrent aujourd'hui contrôler l'information plutôt que de permettre la libre circulation des idées. Comme le soulignent les intervenants, c'est exactement la stratégie de toute dictature : prendre le contrôle des médias pour déverser un flux constant de propagande et de “fausses vérités”. L'effacement de l'histoire et la manipulation de l'information Un aspect particulièrement inquiétant évoqué dans le podcast est la capacité des États-Unis à faire disparaître des données publiques. L'exemple des bases de données climatiques, collectées par des entités scientifiques et universitaires américaines et utilisées comme référence mondiale, qui ont été coupées récemment par l'administration Trump, illustre cette dérive. Cette suppression s'inscrit dans une démarche climatonégationniste qui va jusqu'à effacer les preuves scientifiques. Cette capacité d'effacement rappelle le travail du protagoniste de “1984” d'Orwell, chargé de réécrire constamment l'histoire. Amazon a déjà retiré des livres des bibliothèques numériques de particuliers, démontrant le pouvoir de ces entreprises privées de faire littéralement disparaître des œuvres de l'histoire littéraire. L'évolution dangereuse des outils de recherche Le podcast soulève également les risques liés au remplacement progressif des moteurs de recherche traditionnels par des intelligences artificielles comme ChatGPT. Contrairement aux moteurs de recherche qui fournissent une liste de sources avec leurs adresses spécifiques, les IA offrent une synthèse sans sources vérifiables. Cette évolution prive les utilisateurs de la possibilité de vérifier l'information et de consulter plusieurs sources. Les intervenants mettent en garde contre cette tendance : ChatGPT ne comprend pas réellement les requêtes et peut fournir des réponses erronées ou biaisées selon les intentions de ceux qui le contrôlent. Cette centralisation de l'information dans les mains de quelques acteurs privés représente un danger majeur pour l'accès à une information objective et diversifiée. La concentration du pouvoir technologique Le podcast analyse également la concentration du pouvoir entre les mains des GAFAM (Google, Apple, Facebook, Amazon, Microsoft). Ces entreprises ne se contentent plus de fournir des services ; elles possèdent désormais leurs propres réseaux backbone mondiaux, leur donnant un pouvoir considérable sur l'infrastructure même d'internet. Cette concentration s'accompagne d'une influence politique croissante. L'exemple d'Elon Musk dans l'administration Trump illustre l'émergence de “techno-états” où les dirigeants technologiques deviennent des acteurs politiques majeurs. Ces personnalités, souvent libertariennes, prônent la disparition des régulations étatiques pour favoriser leur business, créant un environnement de “far-west numérique”. Les risques pour la résilience globale Un aspect critique soulevé concerne la résilience des systèmes. La dépendance totale à internet créé une vulnérabilité systémique : en cas de panne majeure, nos sociétés pourraient “retourner au Moyen Âge” selon l'expression utilisée dans le podcast. Cette dépendance est d'autant plus dangereuse que les infrastructures critiques comme les systèmes DNS (Domain Name System) restent majoritairement contrôlées par les États-Unis. L'exemple de Starlink, contrôlé par Elon Musk, illustre parfaitement cette vulnérabilité. Ce système, devenu essentiel dans de nombreuses régions rurales et zones de conflit, peut être coupé ou manipulé selon les décisions d'un seul individu. Les menaces répétées de Musk de couper l'accès à l'Ukraine démontrent le pouvoir démesuré de ces acteurs privés. La passivité européenne Les intervenants critiquent sévèrement la “lâcheté” des États européens qui, malgré leurs compétences technologiques, se réfugient systématiquement vers les solutions des GAFAM. L'Europe dispose pourtant des talents et des entreprises nécessaires, mais manque de courage politique pour mener à bien des projets souverains. L'exemple du Minitel français, abandonné face à internet au lieu d'évoluer, symbolise cette tendance européenne à “battre en retraite” face à la concurrence américaine. Cette passivité a conduit à une fuite des cerveaux vers les États-Unis, où l'argent et les capitaux favorisaient l'innovation technologique. Vers un retour aux sources Face à ces constats alarmants, le podcast propose des solutions. Les intervenants prônent un retour aux sources d'internet avec les plateformes décentralisées comme Mastodon, qui échappent au contrôle des corporations. Ces systèmes, basés sur le “Fediverse”, permettent un partage d'information sans filtrage algorithmique imposé. Ils encouragent également une démarche active de diversification des sources, de vérification croisée des informations, et de questionnement systématique sur les motivations des fournisseurs d'information. L'éducation, particulièrement des jeunes générations souvent abreuvées par TikTok, devient cruciale pour développer l'esprit critique nécessaire à la navigation dans cet environnement manipulé. Conclusion : un appel à la résistance Le podcast se termine sur une note à la fois pessimiste et optimiste. Pessimiste car la situation actuelle révèle une manipulation généralisée de l'information et une concentration dangereuse du pouvoir technologique. Optimiste car les intervenants croient en un réveil des consciences et un retour aux interactions humaines authentiques, loin de la manipulation algorithmique. Ils appellent à considérer Trump comme un “agent de chaos” qui, malgré ses aspects négatifs, peut catalyser des changements positifs en révélant au grand jour les dérives du système actuel. La citation de Camus qui clôt l'émission résume bien cette philosophie : “Je ne choisis pas ce qu'on fait de ce qu'on m'a fait mais je choisis ce que j'en fais.” Ce podcast constitue un avertissement lucide sur l'évolution préoccupante d'internet et un appel à l'action pour préserver la liberté d'information et la démocratie face aux dérives technopolitiques actuelles. Collaborateurs Nicolas-Loïc Fortin Davy Adam Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
durée : 00:22:03 - Journal de 12h30 - Le Royaume-Uni et la France se sont mis d'accord ce jeudi sur le sort des migrants. Les deux pays proposent un "projet pilote" qui doit encore être validé par la Commission Européenne, et provoque déjà l'inquiétude des élus locaux.
durée : 00:22:03 - Journal de 12h30 - Le Royaume-Uni et la France se sont mis d'accord ce jeudi sur le sort des migrants. Les deux pays proposent un "projet pilote" qui doit encore être validé par la Commission Européenne, et provoque déjà l'inquiétude des élus locaux.
Parce que… c'est l'épisode 0x608! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte Nicolas accueille Christophe d'Arlhac pour cette nouvelle édition du podcast. Faisant suite à leur précédent échange sur l'importance de l'analyse des menaces, cette discussion se concentre sur l'outillage associé à l'analyse de risque. L'objectif est de mettre en perspective les avantages et inconvénients de ces outils pour en tirer le maximum de bénéfices tout en évitant les pièges potentiels. Les avantages fondamentaux de l'outillage Structure et guidance Les outils d'analyse de risque constituent un élément structurant essentiel qui aide les analystes à effectuer leur travail méthodiquement sans rien omettre. Christophe souligne que ces outils permettent d'identifier, d'évaluer et de prioriser les menaces potentielles pesant sur les systèmes d'information. L'intégration intrinsèque de différentes fonctionnalités offre un cadre rigide qui évite l'oubli de certaines étapes importantes et standardise les méthodes de calcul. Conservation et pérennisation de l'information Un avantage majeur réside dans la capacité de ces outils à conserver et pérenniser l'information. Contrairement aux fichiers Excel artisanaux, les outils dédiés facilitent le transfert du travail entre différents intervenants. Nicolas observe que dans un contexte plus artisanal, chaque changement d'analyste tend à provoquer une reprise complète du travail, chacun ayant sa propre approche. Cette tendance à “repartir de zéro” fait perdre les bénéfices de l'amélioration continue et de l'approche itérative préconisée par les méthodologies actuelles. Gestion de la complexité Les fichiers Excel deviennent rapidement volumineux et difficiles à gérer, posant des problèmes de sécurité et de partage de droits. La ultra-personnalisation de ces fichiers les rend difficilement compréhensibles pour d'autres utilisateurs, créant un cercle vicieux où il devient plus simple de recommencer que de comprendre le travail précédent. L'adaptabilité face aux évolutions Suivi des menaces évolutives L'évolution constante des menaces constitue un argument fort en faveur des outils stables. L'exemple de la guerre en Ukraine illustre parfaitement comment la nature des menaces peut changer rapidement, modifiant le niveau de risque pour certains secteurs ou pays. Les outils permettent de pivoter et de suivre ces évolutions dans le temps, offrant une vision claire des raisons des changements de risque. Évolution réglementaire De même, les réglementations évoluent constamment, particulièrement en Europe où l'activité législative est intense. Les outils intègrent ces mises à jour réglementaires automatiquement, permettant de suivre facilement ces évolutions et de comprendre pourquoi un risque peut différer selon l'époque, non seulement à cause des attaques mais aussi des changements réglementaires. Les fonctionnalités avancées Intégration et pré-remplissage Les outils modernes offrent des capacités d'intégration avec d'autres systèmes, permettant de puiser dans des sources de données existantes. Cette fonctionnalité pré-remplit automatiquement les informations sur les actifs de support et business, représentant un gain de temps considérable. Pour les entreprises matures disposant de CMDB (Configuration Management Database), cette intégration automatique élimine l'effort manuel de collecte d'informations. Collaboration et reporting Ces outils favorisent la collaboration entre équipes et s'intègrent avec d'autres solutions pour enrichir les données d'entrée. Ils offrent également des capacités de reporting avancées avec des tableaux de bord permettant aux dirigeants de prendre des décisions éclairées concernant les investissements sécuritaires, avec une vue historique des choix stratégiques et financiers. Les écueils à éviter Faux sentiment de sécurité L'utilisation d'outils peut créer une illusion de précision et un faux sentiment de sécurité. Les utilisateurs risquent de devenir moins objectifs et de manquer de contextualisation, se concentrant davantage sur les capacités de l'outil que sur l'analyse critique des données. Cette tendance peut conduire à suivre mécaniquement une checklist sans remettre en question les données ou la logique sous-jacente. Risque de déshumanisation Un piège particulièrement dangereux consiste à croire qu'un outil peut remplacer l'expérience humaine. Certaines organisations font l'erreur de penser qu'un consultant junior peut utiliser l'outil de manière autonome, sous prétexte que celui-ci le guide. Cette approche néglige l'importance de l'expertise humaine dans l'interprétation des résultats et l'analyse contextuelle. Stagnation des compétences Les outils évoluent constamment, nécessitant une formation continue. Les utilisateurs peuvent avoir tendance à rester sur les fonctionnalités qu'ils maîtrisent, passant à côté des améliorations et nouvelles capacités. Cette stagnation limite l'efficacité de l'outil et peut conduire à une sous-utilisation de ses potentialités. L'importance du binôme expérimenté-junior Nicolas et Christophe soulignent l'importance de faire travailler ensemble des consultants expérimentés et des juniors. Cette approche permet un transfert de connaissances efficace tout en évitant les écueils de l'utilisation d'outils par des personnes inexpérimentées. L'outil accélère le travail de l'expert et aide le junior à progresser plus rapidement en se concentrant sur l'analyse plutôt que sur les aspects techniques. La valeur ajoutée de l'expertise humaine Interprétation et explication La capacité d'expliquer les résultats aux dirigeants reste fondamentalement humaine. Un expert doit pouvoir expliquer pourquoi l'outil produit certains résultats, quelles valeurs ont été saisies et pour quelles raisons. Cette interprétation constitue le cœur de métier du consultant et ne peut être automatisée. Solutions créatives L'expertise humaine permet d'identifier des solutions organisationnelles simples là où l'outil proposerait uniquement des mitigations techniques complexes. Les exemples abondent de problèmes résolus par de simples changements de processus plutôt que par des solutions techniques coûteuses et complexes. Dialogue avec les métiers L'écoute des équipes métier reste cruciale pour identifier les solutions les plus appropriées. Souvent, ces équipes ont déjà proposé des solutions simples qui n'ont pas été entendues par les départements IT. L'analyse de risque, guidée par un expert utilisant les bons outils, permet de remettre toutes les parties prenantes autour de la table et de créer cette cohésion nécessaire. Recommandations pour une utilisation optimale Formation et processus La réussite de l'implémentation d'outils d'analyse de risque nécessite une formation approfondie des utilisateurs et l'implication de toutes les parties prenantes. La documentation des processus et la sollicitation régulière des retours utilisateurs permettent d'optimiser l'utilisation et de mesurer le retour sur investissement. Critères de choix Le choix d'un outil doit tenir compte de plusieurs facteurs : interface intuitive et ergonomique, capacité de personnalisation, flexibilité de connexion avec d'autres systèmes, qualité du reporting et des visualisations, fonctionnalités collaboratives permettant le partage sécurisé de données confidentielles, et capacité d'évolution qualitative. Amélioration continue La contribution des experts utilisateurs au développement des outils bénéficie à tout l'écosystème. Les retours d'expérience permettent aux éditeurs d'améliorer leurs produits, créant un cercle vertueux d'amélioration continue qui profite à tous les acteurs de la cybersécurité. Conclusion L'outillage en analyse de risque représente un élément essentiel pour structurer et améliorer l'efficacité des analyses de sécurité. Cependant, ces outils ne doivent jamais remplacer l'expertise humaine mais l'augmenter. Ils constituent des accélérateurs qui permettent aux analystes de se concentrer sur leur valeur ajoutée : l'interprétation, l'analyse contextuelle et la création de solutions adaptées aux besoins réels des organisations. L'approche idéale combine la puissance structurante des outils avec l'expertise humaine, dans un processus d'amélioration continue impliquant toutes les parties prenantes. Collaborateurs Nicolas-Loïc Fortin Christophe D'ARLHAC Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
Au menu de la troisième heure des GG du lundi 7 juillet 2025 : Augmenter les indemnités des élus locaux, logique ? ; avec Barbara Lefebvre, enseignante et essayiste, Bruno Poncet, cheminot, et Charles Consigny, avocat.
Ecoutez Le débat du jour avec Stéphane Carpentier du 07 juillet 2025.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Ecoutez Le débat du jour avec Stéphane Carpentier du 07 juillet 2025.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Parce que… c'est l'épisode 0x607! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Un épisode depuis Paris Cet épisode spécial du podcast propose une rencontre inhabituelle entre deux Québécois expatriés à Paris pour assister au leHACK, un événement mythique de cybersécurité francophone. L'animateur retrouve Martin Dubé, ancien organisateur du HAckfest au Québec, qui réalise un rêve de quinze ans en découvrant enfin cet événement légendaire. Depuis 2010, Martin s'impliquait dans le milieu de la cybersécurité québécoise, notamment avec le Hackfest, avant de prendre une pause pour des raisons familiales. Aujourd'hui entrepreneur indépendant, il s'est offert ce voyage comme un cadeau personnel. Découverte du leHACK et de son atmosphère unique Le leHACK, anciennement appelé “La Nuit du Hack”, se révèle être un événement impressionnant par son ampleur et son organisation. Avec environ 3000 participants, l'événement se déroule à la Cité des Sciences, offrant un cadre exceptionnel avec des espaces généreux et bien distribués. Contrairement au NorthSec ou au Hackfest québécois, l'atmosphère y est remarquablement détendue et non-compétitive. Le CTF (Capture The Flag) rassemble plus de 400 participants dans deux grandes salles, mais fonctionne selon un principe individuel plutôt qu'en équipes, ce qui explique cette ambiance plus relaxe. Différences culturelles et techniques L'infrastructure technique du leHACK impressionne par son approche “old school” avec des serveurs sur site, des switches 10GB et 25GB, et trois gros serveurs Xeon avec 128GB de RAM chacun. Cette approche filaire contraste avec la tendance cloud des événements québécois. L'aspect culturel se révèle également fascinant : les deux Québécois découvrent un environnement plus ouvert et respectueux, où les conflits se résolvent par une simple bise plutôt que par des confrontations. Cette différence culturelle enrichit leur expérience, même si elle crée parfois un sentiment d'isolement initial. Conférences : entre excellence et redondance L'amphithéâtre de 900 places offre des conditions d'écoute exceptionnelles, avec un son et un confort impeccables. Les conférences présentent un mélange intéressant : certaines sont remarquables, comme celle sur le reverse engineering d'une montre connectée à 12 euros. Cette présentation technique de haut niveau démontre comment les conférenciers ont contourné des protections complexes pour révéler que l'appareil générait simplement des données de santé aléatoires. D'autres conférences, malheureusement, recyclent des concepts déjà largement abordés dans le milieu, créant une certaine frustration chez les participants expérimentés. Réflexions sur l'évolution du milieu L'événement révèle une problématique générationnelle intéressante : de nombreux sujets “basiques” doivent encore être expliqués, révélant des lacunes dans la formation académique. Les techniques de sécurité recommandées aujourd'hui pour l'IA reprennent souvent des principes établis il y a vingt ans, soulignant un éternel recommencement dans le domaine. Cette situation crée un dilemme : les vétérans aimeraient du contenu plus avancé, mais les nombreux jeunes participants ont besoin de ces bases fondamentales. Observations sur la relève et l'écosystème Le leHACK frappe par la jeunesse de ses participants, contrastant avec le vieillissement observé dans certains événements québécois. De nombreuses écoles sont présentes, notamment l'École 42, démontrant un investissement fort dans la formation. Cette diversité générationnelle enrichit l'événement, même si elle complique parfois le niveau des présentations. L'écosystème français semble plus dynamique pour attirer et former la relève en cybersécurité. Expérience personnelle et networking Malgré leur statut d'étrangers, les deux Québécois parviennent à créer des liens intéressants, notamment grâce à Florent, associé français de l'un d'eux, qui facilite les rencontres. L'événement se distingue par son accessibilité : pas de files d'attente interminables comme au DefCon, une circulation fluide, et des espaces qui ne donnent pas cette impression d'écrasement malgré les 3000 participants. Cette organisation permet de véritablement profiter du contenu et des interactions. Anecdotes et détails marquants L'événement réserve quelques surprises technologiques, comme la présence de minitels connectés au WiFi, rappelant l'histoire des télécommunications françaises. Un chien robot programmable attire l'attention, créant des réactions mitigées selon les profils des participants. La canicule parisienne ajoute une dimension climatique inattendue pour des Québécois habitués à des températures plus clémentes en cette période. Bilan et perspectives Cette première participation au leHACK constitue une réussite totale pour Martin Dubé, qui envisage déjà un retour en 2026. L'événement offre un excellent équilibre entre contenu technique de qualité, networking efficace, et découverte culturelle. Il confirme l'importance des événements internationaux pour élargir les perspectives professionnelles et personnelles. L'expérience démontre que sortir de sa zone de confort géographique et culturelle apporte une richesse inestimable au développement professionnel. L'épisode se conclut sur une note philosophique concernant l'importance de la diversité culturelle dans l'enrichissement professionnel, Martin soulignant comment ces expériences internationales le rendent plus complet comme professionnel de la cybersécurité. Collaborateurs Nicolas-Loïc Fortin Martin Dubé Crédits Montage par Intrasecure inc Locaux réels par Intrasecure inc
Le cent-deuxième épisode du Podcast : QUITTE LE BOOMER DREAMINVESTIR EN LOCAUX COMMERCIAUXOn a lancé nos accompagnements en investissement, si tu souhaites être accompagné pour quitter ton job et faire du cash RESERVE TON APPEL GRATUIT AVEC MOI :https://calendly.com/quitteleboomerdream/30minTU PEUX NOUS RETROUVER SUR INSTAGRAM @QUITTELEBOOMERDREAM OU SUR @LAFLOUZERIEhttps://linktr.ee/quitteleboomerdreamTu y trouveras aussi les infos et liens pour notre MASTERCLASS sur les locaux commerciaux !
Parce que… c'est l'épisode 0x606! Préambule Nous avons rencontré un problème technique durant l'enregistrement. L'équipement a cessé de fonctionner, sans que nous nous en rendions compte. Nous avons conservé le segment qui est utilisable. Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2026 Description Ce podcast enregistré lors de NorthSec réunit l'animateur et Martin Dubé pour une discussion nostalgique sur l'évolution de la communauté cybersécurité québécoise, particulièrement autour du Hackfest et de NorthSec. Les débuts du Hackfest et l'innovation des CTF Martin Dubé raconte ses débuts en 2010 au Hackfest, alors qu'il était étudiant en deuxième année d'université. À cette époque, l'événement était très différent d'aujourd'hui : les organisateurs transportaient des serveurs physiques hébergés chez eux jusqu'à l'hôtel, utilisant des technologies comme Proxmox et VMware. Cette période artisanale contraste fortement avec l'automatisation moderne mise en place par des équipes comme celle de Laurent au NorthSec. L'innovation majeure de cette époque fut l'introduction du format “attaque-défense” pour les CTF, remplaçant le traditionnel format “jeopardy” (matrice de challenges par catégories). Ce nouveau format permettait aux participants d'attaquer les infrastructures des autres équipes tout en défendant la leur, créant une dynamique plus réaliste et complexe. Leadership et apprentissage par la pratique Martin souligne l'importance de l'aspect leadership dans son rôle de responsable des CTF. Gérer une équipe de bénévoles non rémunérés lui a enseigné des compétences précieuses en gestion d'équipe, motivation par la reconnaissance et coordination de projets complexes. Cette expérience s'est révélée cruciale pour sa carrière professionnelle, démontrant que l'implication dans la communauté offre bien plus que des compétences techniques. Il encourage fortement les nouveaux arrivants dans le domaine à s'impliquer dans de tels événements, car cela permet de garnir son CV d'expériences pertinentes et facilite l'entrée sur le marché du travail. Cette recommandation reste valable aujourd'hui, même si le domaine s'est professionnalisé. L'innovation de la track Windows Un moment marquant fut la création de la “track Windows” au NorthSec, une innovation que Martin et Stéphan Sigman considèrent comme pionnière. Contrairement aux challenges synthétiques habituels, cette track simulait un véritable environnement d'entreprise avec Active Directory, partages réseau mal configurés, GPO contenant des mots de passe, et autres vulnérabilités typiques des infrastructures corporatives. Cette approche répondait à une critique importante : les CTF traditionnels développaient des compétences sur des challenges artificiels, tandis que les vrais pentesters doivent attaquer des réseaux d'entreprise réels. La track Windows a forcé les participants à développer des compétences directement applicables au Red Teaming et aux tests d'intrusion internes. Évolution technologique et impact de l'IA La discussion aborde l'évolution technologique du domaine. Martin observe que la sécurité par défaut s'est considérablement améliorée depuis les années 2010, rendant les vulnérabilités basiques moins fréquentes. L'arrivée de l'intelligence artificielle transforme également le paysage professionnel, mais plutôt comme un assistant qu'un remplaçant pour les pentesteurs. L'IA automatise certains aspects du travail de sécurité, notamment dans les outils de défense comme Sentinel pour l'analyse de logs. Cependant, Martin et l'animateur s'accordent sur le fait que l'IA reste un multiplicateur de force nécessitant une direction humaine, particulièrement en Red Team et pentest. Expérimentations mémorables Le podcast évoque plusieurs expérimentations marquantes, notamment les CTF avec des maquettes physiques comme le barrage hydroélectrique de 2013, précurseur des préoccupations actuelles sur la sécurité IoT et OT. Ces innovations visuelles permettaient aux non-participants de comprendre concrètement ce qu'était le hacking. L'expérience la plus mémorable reste les éditions “taupes” : des CTF 12 vs 12 ou 20 vs 20 où certains participants étaient secrètement des espions pour l'équipe adverse, simulant l'espionnage industriel. Ces expérimentations, bien que créatrices de “drama”, démontraient l'importance de prendre des risques calculés pour innover. Communauté et networking professionnel Un aspect crucial souligné est la valeur du réseau professionnel créé par ces événements. La communauté cybersécurité québécoise, bien que pas nécessairement composée d'amis proches, forme un réseau où chacun connaît les autres et peut interagir facilement. Cette connectivité s'avère particulièrement précieuse lors des transitions de carrière ou des périodes de recherche d'emploi. Cette dimension communautaire devient encore plus importante dans le contexte économique actuel, où les restrictions budgétaires entraînent des licenciements même dans le secteur technologique traditionnellement stable. Gestion des risques et culture d'apprentissage La conversation aborde la culture du risque et de l'erreur dans la communauté. Martin prône une approche permettant l'expérimentation et l'erreur, créant un “safe space” pour les bénévoles. Il partage un exemple récent où un bénévole a rencontré des difficultés opérationnelles, et comment son expérience lui a permis d'accompagner cette personne pour désamorcer le stress et trouver une solution. Cette philosophie s'oppose à l'élitisme parfois présent dans la communauté cybersécurité. Les deux interlocuteurs s'accordent sur l'importance de permettre aux nouveaux arrivants de faire des erreurs et d'apprendre, condition essentielle pour éviter la stagnation communautaire et favoriser l'inclusion. Réflexions sur l'humilité et l'évolution Le podcast se termine sur une note d'humilité, évoquant comment Olivier (probablement le président sortant de NorthSec) a publiquement reconnu avoir peut-être poussé trop fort ses équipes de bénévoles vers la perfection. Cette reconnaissance publique illustre la maturité croissante de la communauté et l'importance de l'équilibre entre excellence et bienveillance. Martin partage également ses propres “blessures de guerre” professionnelles, ces erreurs passées qui, bien que parfois encore douloureuses, constituent un apprentissage précieux qu'il souhaite transmettre aux générations suivantes. Conclusion Ce podcast offre un regard privilégié sur l'évolution de la cybersécurité québécoise, montrant comment l'innovation, la prise de risques calculés et la construction communautaire ont façonné l'écosystème actuel. Il souligne l'importance de maintenir un équilibre entre excellence technique et bienveillance humaine, tout en continuant à expérimenter pour faire évoluer le domaine. L'expérience de Martin Dubé illustre parfaitement comment l'implication bénévole peut catalyser une carrière professionnelle tout en contribuant significativement au développement d'une communauté technique dynamique et inclusive. Collaborateurs Nicolas-Loïc Fortin Martin Dubé Crédits Montage par Intrasecure inc Locaux réels par Northsec
Parce que… c'est l'épisode 0x605! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Dans cet épisode spécial du podcast enregistré lors de l'événement Cyberco, l'animateur reçoit Vicky Desjardins, candidate au doctorat en criminologie à l'Université de Montréal et spécialiste en réponse à incident. Vicky présente les résultats de sa recherche de cinq années sur les rançongiciels, offrant une perspective unique qui combine criminologie et cybersécurité. Parcours et motivation de la recherche Vicky a débuté sa thèse avant la pandémie, cherchant à comprendre pourquoi les défenseurs semblaient toujours surpris et en mode réaction face aux attaques de rançongiciels. Malgré son manque initial d'expertise technique, elle était déterminée à contribuer à résoudre ce problème croissant. L'arrivée du Covid-19 a considérablement amplifié l'ampleur du phénomène qu'elle étudiait. Son expérience dans l'industrie a transformé sa perspective de recherche. Elle a réalisé qu'il existait souvent un fossé important entre la recherche académique et la réalité terrain. Cette prise de conscience l'a amenée à adopter une approche différente, se concentrant non pas sur ce qui change constamment dans les techniques d'attaque, mais plutôt sur les éléments stables et prévisibles du comportement criminel. Approche criminologique des rançongiciels L'originalité de la recherche de Vicky réside dans son approche criminologique. Plutôt que de se concentrer uniquement sur les aspects techniques qui évoluent rapidement, elle a choisi d'analyser les comportements humains sous-jacents aux attaques. Sa philosophie est que les techniques ne sont que des outils utilisés par des humains pour commettre des actes criminels. Cette perspective lui a permis de découvrir que les attaques de rançongiciels sont beaucoup moins sophistiquées qu'on pourrait le croire. En réalité, la plupart peuvent être exécutées en quelques lignes de commande une fois l'accès obtenu. Cette simplicité contraste avec l'image de tours de magie technologiques souvent véhiculée dans les médias. Constats sur la simplicité des attaques L'un des enseignements les plus marquants de sa recherche concerne la banalité technique des attaques. Vicky observe que les méthodes utilisées aujourd'hui sont essentiellement identiques à celles d'il y a six ans. Les attaquants utilisent toujours la même approche : ils “se tapent la tête” sur différents systèmes jusqu'à ce qu'ils trouvent une faille exploitable. La principale évolution qu'elle note est l'augmentation de la spécialisation des tâches. Alors qu'auparavant, un même attaquant gérait l'ensemble du processus, on observe maintenant une séparation entre ceux qui obtiennent l'accès initial (Initial Access Brokers) et ceux qui mènent l'attaque finale. Cette fragmentation n'augmente cependant pas la complexité technique fondamentale des attaques. Problèmes de base en cybersécurité Vicky souligne que beaucoup d'organisations investissent massivement dans des produits de cybersécurité sophistiqués sans maîtriser les fondamentaux. Elle observe fréquemment des entreprises qui possèdent des outils avancés mais mal déployés ou mal configurés, parfois même pas mis en place du tout. Sa première question lors d'interventions de réponse à incident est révélatrice : “Savez-vous ce que vous avez dans votre environnement ?” La réponse est souvent approximative, ce qui illustre le problème fondamental. Sans une connaissance précise de son infrastructure et une configuration appropriée des éléments de base, les investissements en cybersécurité perdent leur efficacité. Dépendance des attaquants à l'infrastructure des victimes L'une des découvertes les plus importantes de la recherche concerne la forte dépendance des attaquants vis-à-vis de l'infrastructure des victimes. Cette observation est cruciale car elle identifie un point de contrôle pour les défenseurs. Contrairement aux outils d'attaque qu'on ne peut pas contrôler, l'infrastructure appartient à l'organisation et peut être configurée de manière à compliquer considérablement le travail des attaquants. Cette dépendance se manifeste dans tous les aspects de l'attaque : reconnaissance, mouvement latéral, élévation de privilèges, et exfiltration de données. En rendant l'infrastructure moins “accueillante” pour les attaquants, on peut augmenter significativement la difficulté de leurs opérations. Importance critique des comptes valides Les comptes valides représentent la technique la plus stable et la plus utilisée dans l'arsenal des attaquants de rançongiciels. Vicky les observe à toutes les étapes du processus d'attaque : entrée initiale, évasion des défenses, reconnaissance interne, élévation de privilèges, persistance, et mouvement latéral. Cette omniprésence des comptes valides dans les attaques souligne l'importance cruciale de repenser complètement la gestion des accès. Il ne s'agit plus seulement d'appliquer le principe de moindre privilège, mais d'adopter une approche beaucoup plus granulaire et contextuelle. Recommandations pour la gestion des accès Vicky propose une approche révolutionnaire de la gestion des accès basée sur plusieurs dimensions. D'abord, une segmentation par groupes d'employés avec des accès spécifiques à leurs besoins réels, pas théoriques. Ensuite, l'implémentation de restrictions temporelles : la plupart des employés ne travaillent pas après 21h, leurs comptes ne devraient donc pas avoir accès aux systèmes critiques durant ces heures. Elle suggère également des restrictions géographiques, bloquant les connexions depuis des emplacements non autorisés. Ces mesures forcent les attaquants à opérer dans des créneaux temporels et géographiques spécifiques, compliquant considérablement leurs opérations et potentiellement les décourageant de cibler l'organisation. Cibles privilégiées des attaquants L'analyse révèle que certains éléments de l'infrastructure sont systématiquement ciblés. Les antivirus et firewalls sont désactivés par des scripts automatisés. Les solutions de détection (EDR) voient leurs configurations modifiées. L'Active Directory et les contrôleurs de domaine sont particulièrement visés car ils donnent accès à des privilèges étendus. Le cloud est devenu une cible majeure depuis 2020, coïncidant avec la migration massive due à la pandémie. Les services d'accès distant (VPN, bureaux à distance) constituent des portes d'entrée privilégiées. Ces observations permettent de prioriser les efforts de sécurisation sur les éléments les plus à risque. Stratégies d'évasion et de dissimulation Les attaquants investissent énormément d'efforts dans l'évasion de la détection plutôt que dans la sophistication technique. Leur avantage principal réside dans leur capacité à rester indétectés le plus longtemps possible avant de révéler leur présence. Vicky observe de nombreuses techniques de brouillage du trafic réseau, rendant la détection difficile dans le volume normal des communications. Cette approche furtive explique pourquoi une détection précoce peut transformer radicalement la dynamique de l'incident, forçant les attaquants à opérer sous pression et à commettre des erreurs. Aspects comportementaux et motivations L'approche criminologique révèle des aspects souvent négligés. Les attaquants ont des vies personnelles et des contraintes temporelles. Beaucoup opèrent selon des horaires de travail normaux dans leur fuseau horaire. Cette humanisation des attaquants ouvre des possibilités de défense basées sur l'analyse comportementale. Concernant les motivations, au-delà de l'aspect financier évident des rançongiciels, Vicky identifie des problématiques plus subtiles comme les Initial Access Brokers qui vendent des accès pour des sommes dérisoires. Ces cas révèlent souvent des motivations personnelles (frustration professionnelle, problèmes financiers personnels) plutôt que purement lucratives. Méthodologie multidisciplinaire La force de cette recherche réside dans son approche multidisciplinaire, combinant écologie, économie, criminologie et technique. Cette convergence permet de créer une nouvelle chaîne d'attaque (kill chain) basée sur les techniques les plus fréquemment observées, offrant des points d'intervention plus précis. L'approche évite l'écueil de la sur-sophistication des menaces. Plutôt que de se préparer contre des groupes APT ultra-sophistiqués qui ciblent rarement les PME, elle encourage une évaluation réaliste des menaces appropriées à chaque organisation. Impact de la spécialisation criminelle L'évolution vers une spécialisation des rôles dans l'écosystème criminel reflète une professionnalisation du secteur. Les Initial Access Brokers se spécialisent dans l'obtention d'accès qu'ils revendent ensuite. Cette séparation des tâches, bien qu'augmentant l'efficacité globale, crée aussi de nouveaux points de vulnérabilité dans la chaîne criminelle. Le marché des accès révèle des prix parfois dérisoires, suggérant que certains vendeurs sont motivés par autre chose que le profit pur. Cette réalité soulève des questions importantes sur la gestion des risques internes et la satisfaction des employés ayant accès à des systèmes critiques. Recommandations stratégiques La recherche aboutit à des recommandations pragmatiques centrées sur le “security by design”. Il s'agit de repenser fondamentalement l'architecture de sécurité plutôt que d'ajouter des couches successives de protection. Cette approche reconnaît qu'il n'est jamais trop tard pour réviser ses configurations de base. L'objectif n'est pas de créer une forteresse impénétrable, mais de rendre l'environnement suffisamment “ennuyeux” ou difficile pour décourager les attaquants opportunistes. Dans l'esprit de Vicky, “le meilleur truc en cybersécurité, c'est juste être plus embêtant que quelqu'un d'autre”. Cette philosophie pragmatique reconnaît les limites des ressources et se concentre sur l'efficacité maximale avec les moyens disponibles, privilégiant une approche de risque proportionné plutôt que de protection absolue. Collaborateurs Nicolas-Loïc Fortin Vicky Desjardins Crédits Montage par Intrasecure inc Locaux réels par Cybereco
durée : 00:30:44 - La cuisine libanaise est désormais présente aux Halles de Pau - Marc Gahoui, chef libanais passionné, revisite la cuisine traditionnelle de son pays en l'adaptant aux produits locaux du Béarn. Découvrez ses créations culinaires authentiques, préparées avec des légumes du jardin et des saveurs méditerranéennes. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.
Parce que… c'est l'épisode 0x604! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Introduction et présentation de l'expert Dans cet épisode spécial de “Police Sécure Cyber Éco”, Emmanuel Christian Nternanya, expert en cybersécurité d'origine congolaise, présente ses recherches révolutionnaires sur la détection de l'empoisonnement de modèles d'intelligence artificielle. Certifié CISSP avec plus d'une décennie d'expérience dans l'industrie informatique depuis 2012 et cinq années spécialisées en cybersécurité, Emmanuel apporte une expertise technique approfondie à un sujet critique pour l'avenir de l'IA. Le problème de l'empoisonnement des modèles d'IA L'empoisonnement de modèles d'IA représente une menace sophistiquée et souvent invisible. Contrairement à l'expérience utilisateur simplifiée que nous connaissons avec ChatGPT ou d'autres interfaces conversationnelles, la réalité technique est bien plus complexe. Chaque modèle d'IA possède un “cerveau” qui doit être entraîné avec des données pour acquérir ses capacités de prédiction et de classification. Le principe fondamental est simple mais préoccupant : si un modèle est entraîné avec des données corrompues indiquant que 1+1=3, il reproduira fidèlement cette erreur. Les modèles d'IA ne font que reproduire ce qu'ils ont appris, sans capacité de discernement critique. Cette vulnérabilité ouvre la porte à des attaques sophistiquées où des adversaires peuvent corrompre intentionnellement les données d'entraînement. La recherche d'Emmanuel démontre qu'il suffit parfois de contaminer seulement 1% des données d'entraînement pour réussir à modifier significativement le comportement d'un modèle. Cette découverte est particulièrement alarmante car elle révèle qu'une intervention minimale peut avoir des conséquences majeures, tout en restant pratiquement indétectable par les méthodes conventionnelles. La solution innovante : le “docteur” en IA Face à cette menace, l'équipe d'Emmanuel a développé une approche révolutionnaire : créer un “docteur” spécialisé dans le diagnostic des modèles d'IA. Ce système de détection peut identifier si un modèle a été empoisonné en analysant uniquement ses poids internes, sans avoir accès aux données d'entraînement originales. La méthodologie de recherche s'appuie sur une approche rigoureuse et extensive. L'équipe a créé 1000 ensembles de données d'entraînement soigneusement vérifiés et non contaminés, puis a entraîné 1000 modèles correspondants. Parmi ces modèles, les 950 présentant les meilleures performances ont été sélectionnés pour l'analyse approfondie. Le processus d'analyse se concentre sur l'architecture des réseaux de neurones convolutifs, particulièrement sur les trois couches denses et la couche de classification finale utilisant une fonction sigmoïde. Chaque couche contient des neurones qui apprennent et retiennent l'information sous forme de poids, des valeurs numériques représentant la connaissance acquise par le modèle. La transformation des poids en images diagnostiques L'innovation majeure réside dans la transformation des poids du modèle en images analysables. Emmanuel explique que les poids d'un modèle varient généralement entre -1 et 1, des valeurs difficiles à interpréter directement. L'équipe a développé un algorithme propriétaire capable de convertir ces poids en valeurs d'intensité d'image (de 1 à 255), créant ainsi des représentations visuelles des états internes du modèle. Cette approche s'inspire de l'imagerie médicale : tout comme un cerveau humain peut être analysé par radiographie, le “cerveau” d'un modèle d'IA peut être “radiographié” en convertissant ses poids en images. Cette analogie n'est pas qu'une métaphore ; elle constitue la base technique de leur méthode de diagnostic. Le système utilise deux docteurs spécialisés, chacun entraîné sur des images de dimensions différentes extraites de couches distinctes du modèle analysé. Le premier docteur analyse des images de 100x100 pixels, tandis que le second traite des images de 200x200 pixels. Cette approche multicouche permet une analyse plus complète et nuancée des modèles suspects. L'apprentissage d'ensemble et les performances La combinaison des deux docteurs spécialisés à travers l'apprentissage d'ensemble (ensemble learning) produit un diagnostic final plus précis que chaque docteur individuellement. Cette synergie permet d'atteindre des taux de réussite impressionnants de 98% à 99% dans la détection des modèles empoisonnés. La validation de ces performances s'effectue sur des modèles que les docteurs n'ont jamais vus pendant leur entraînement. L'équipe utilise des bases de données publiques reconnues comme MNIST Fashion et des données de plaques d'immatriculation disponibles publiquement. Cette approche garantit l'objectivité des résultats et la capacité de généralisation du système. Les défis de la détection à faible contamination Cependant, la détection devient plus complexe lorsque le niveau de contamination diminue. À 1% de contamination, le taux de réussite chute à 77%, révélant les limites actuelles de la technologie. Cette limitation est critique car les adversaires sophistiqués privilégieront naturellement des niveaux de contamination faibles pour éviter la détection. Emmanuel explique que l'amélioration de ces performances nécessite l'optimisation des hyperparamètres et l'exploration de nouvelles techniques d'apprentissage automatique. Néanmoins, il souligne un aspect rassurant : l'analyse du rapport signal/bruit révèle que les modèles empoisonnés à très faible niveau présentent souvent un bruit supérieur de 4% aux modèles sains, les rendant potentiellement inutilisables en pratique. Applications critiques et enjeux sociétaux L'importance de cette recherche transcende les aspects purement techniques. Emmanuel souligne les applications critiques où l'empoisonnement de modèles pourrait avoir des conséquences dramatiques : détection de cancer, diagnostic médical, reconnaissance de plaques d'immatriculation pour les systèmes de sécurité routière. Il illustre ces risques par un exemple concret : un modèle empoisonné de reconnaissance de plaques pourrait identifier incorrectement le véhicule d'un délinquant en fuite, envoyant la convocation à une personne innocente. Ces erreurs ne sont pas de simples dysfonctionnements techniques, mais des failles de sécurité aux conséquences sociales et judiciaires importantes. L'écosystème d'IA et ses vulnérabilités Un aspect particulièrement préoccupant concerne l'écosystème actuel de l'IA. De nombreuses applications utilisent des APIs payantes comme celle de ChatGPT sans vérification de l'intégrité des modèles sous-jacents. Les développeurs intègrent ces services par confiance, sans moyens de vérifier si les modèles ont été compromis. Cette situation crée une chaîne de vulnérabilités où la contamination d'un modèle central peut affecter des milliers d'applications dérivées. L'objectif d'Emmanuel est de fournir des outils forensiques permettant de vérifier l'intégrité des modèles avant leur mise en production, même sans accès complet au modèle original. Perspectives et développements futurs La recherche continue d'évoluer vers une meilleure adaptation aux différentes architectures de modèles. L'équipe développe des algorithmes capables d'ajuster automatiquement l'analyse en fonction de l'architecture spécifique de chaque modèle testé, améliorant ainsi la précision et la polyvalence du diagnostic. Les travaux s'étendent également vers l'analyse de modèles publics disponibles sur des plateformes comme Hugging Face, bien que cette phase n'ait pas encore été complètement mise en œuvre. Cette extension permettrait de cartographier la prévalence réelle de l'empoisonnement dans l'écosystème d'IA public. Conclusion et mission de sensibilisation Au-delà des aspects techniques, Emmanuel porte une mission de sensibilisation cruciale. Il cherche à éveiller les consciences sur l'existence réelle des modèles empoisonnés et leurs implications. Alors que l'adoption de l'IA s'accélère dans tous les secteurs, la compréhension de ces vulnérabilités devient essentielle pour un déploiement sécurisé. Cette recherche représente une contribution significative à la sécurisation de l'écosystème d'intelligence artificielle, offrant des outils concrets pour détecter et prévenir les attaques par empoisonnement de modèles, tout en sensibilisant la communauté aux enjeux critiques de sécurité dans l'ère de l'IA généralisée. Collaborateurs Nicolas-Loïc Fortin Christian Emmanuel Nteranya Crédits Montage par Intrasecure inc Locaux réels par Cybereco
La Libération de Paris en 1944 est un des grands symboles de la défaite du nazisme, avec ses défilés de militaires vainqueurs salués par une foule reconnaissante en liesse. Mais que se passe-t-il quand un territoire est occupé, qu'une guerre se termine et que les habitants reviennent pour récupérer ce qui leur appartient ? Sarah Gensburger, sociologue au CNRS/Sciences Po Paris, Isabelle Backouche, historienne à l'EHESS et Eric Le Bourhis, historien à l'Inalco, ont mené une grande enquête pour comprendre comment les rescapés de la Shoah ont subi la nouvelle épreuve de retrouver leur appartement, à leur retour à Paris. Dans leur livre Appartements témoins, la spoliation des locataires juifs à Paris, 1940-1946, (Editions La Découverte, 2025) il et elles nous racontent une autre histoire de l'Occupation et surtout de la Libération. Photo : Formulaire de déclaration de "Locaux israélites" (copyright : Archives municipales de Boulogne-Billancourt, 6H16).
durée : 00:25:30 - Les goûts d'ici en Béarn Bigorre - La Prod, traiteur et boutique à Pardies, propose une cuisine innovante et respectueuse des produits locaux. Cédric Dreux, associé de l'établissement, met en avant des produits de saison, en travaillant étroitement avec des producteurs locaux pour offrir des plats à la fois traditionnels et créatifs. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.
Parce que… c'est l'épisode 0x603! Shameless plug 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte Ce cinquième épisode de collaboration entre les balados Super Citoyen et Polysécure, animé par Catherine Dupont-Gagnon et Samuel Harper, avec la participation de Nicolas, aborde deux sujets majeurs touchant la cybersécurité et la vie privée des citoyens canadiens. Après une pause d'une semaine, les animateurs se retrouvent pour discuter d'enjeux critiques qui affectent directement les utilisateurs de technologies et les citoyens. Première partie : Les vulnérabilités de Microsoft Copilot La découverte d'une faille majeure L'épisode débute par l'analyse d'une vulnérabilité critique découverte dans Microsoft Copilot, spécifiquement dans sa version M365. Cette faille permet aux attaquants d'injecter des instructions malveillantes dans des documents de manière invisible pour les utilisateurs humains, mais détectable par l'agent d'indexation de Copilot. Le mécanisme d'attaque L'attaque fonctionne selon un principe relativement simple mais efficace : les cybercriminels cachent du texte dans des documents en utilisant des techniques comme l'écriture en blanc sur fond blanc ou des polices de caractères microscopiques. Lorsque Copilot analyse ces documents pour répondre aux requêtes des utilisateurs, il lit ces instructions cachées et les exécute comme s'il s'agissait de commandes légitimes. Samuel Harper explique que cette vulnérabilité est particulièrement dangereuse avec la version M365 de Copilot car cet agent peut indexer l'ensemble du contenu personnel d'un utilisateur : courriels, documents OneDrive, conversations Teams. Les instructions malveillantes peuvent donc ordonner à Copilot d'effectuer des actions non autorisées, comme envoyer des informations sensibles à des adresses externes. Les implications pour les entreprises Cette faille représente un risque considérable pour les organisations, particulièrement celles possédant des secrets industriels ou des informations confidentielles. Un attaquant pourrait théoriquement envoyer un courriel contenant des instructions cachées demandant à Copilot de transmettre tous les secrets industriels à une adresse spécifique. L'agent exécuterait ces commandes sans que l'utilisateur ne s'en aperçoive. Un problème systémique Les animateurs soulignent que bien que Microsoft ait corrigé cette vulnérabilité spécifique, le problème est plus large. Tous les agents d'intelligence artificielle utilisant des modèles RAG (Retrieval-Augmented Generation) - qui puisent leurs réponses dans des bases de données externes - sont potentiellement vulnérables à ce type d'attaque. Google Gemini, Claude et d'autres plateformes similaires pourraient être ciblés par des méthodes comparables. Deuxième partie : Le projet de loi C-4 et la protection des données Une loi aux multiples facettes Samuel Harper présente ensuite une analyse approfondie du projet de loi C-4 du gouvernement Carney, officiellement intitulé “Loi visant à rendre la vie plus abordable pour les Canadiens”. Si les trois premières parties de cette loi concernent effectivement des mesures d'abordabilité (baisses d'impôts, fin de la taxe carbone, remboursement de la TPS pour l'achat d'une première maison neuve), la quatrième partie introduit des modifications controversées à la loi électorale. L'exemption des partis politiques Cette section du projet de loi soustrait les partis politiques fédéraux aux lois de protection des renseignements personnels. Concrètement, cela signifie que les partis politiques, leurs bénévoles et tous ceux qui travaillent en leur nom peuvent exercer toutes les activités avec les renseignements personnels sans aucune restriction légale. Le contexte juridique Cette modification législative fait suite à une décision de 2022 du commissaire à la vie privée de la Colombie-Britannique, qui avait déterminé que les partis fédéraux devaient également respecter la loi provinciale PIPA (Personal Information Protection Act). Les partis politiques ont contesté cette décision jusqu'en Cour suprême de la Colombie-Britannique et ont perdu leur cause. Une stratégie législative discutable Les animateurs dénoncent la tactique consistant à inclure ces modifications controversées dans un projet de loi sur l'abordabilité. Cette approche, rappelant les “omnibus bills” de l'ère Harper, rend difficile l'opposition à des mesures populaires tout en faisant passer des dispositions problématiques. Les risques pour la démocratie Le micro-ciblage politique Catherine et Samuel discutent des dangers du micro-ciblage politique, comparant les stratégies des partis politiques à celles utilisées par Cambridge Analytica. Ils soulignent que les mêmes techniques de marketing qui poussent les consommateurs vers des achats peuvent être utilisées pour manipuler les intentions de vote. L'érosion du choix démocratique Les animateurs expriment leurs préoccupations concernant l'utilisation d'algorithmes pour influencer les électeurs. Ils argumentent que ces pratiques transforment le processus démocratique en exercice de marketing, éloignant les citoyens d'un choix libre et éclairé basé sur leurs valeurs personnelles. La paresse technologique Un thème récurrent de l'épisode est la “paresse technologique” - la tendance des utilisateurs à accepter passivement les solutions automatisées sans exercer leur esprit critique. Cette passivité, selon les animateurs, représente un danger plus immédiat que l'intelligence artificielle générale souvent évoquée dans les scénarios catastrophiques. Réflexions sur l'engagement citoyen La responsabilité démocratique Les animateurs insistent sur l'importance de l'engagement citoyen au-delà du simple vote. Ils encouragent les auditeurs à contacter leurs députés pour exprimer leurs préoccupations concernant des projets de loi comme le C-4, rappelant que la démocratie ne se limite pas aux périodes électorales. L'urgence d'agir Samuel souligne que le projet de loi C-4 pourrait être adopté très rapidement, utilisant une procédure accélérée qui contourne les étapes normales du processus législatif. Cette urgence rend encore plus crucial l'engagement immédiat des citoyens. Conclusion et perspectives L'épisode se termine sur une note qui mélange pessimisme et espoir. Bien que les animateurs identifient des tendances inquiétantes - vulnérabilités technologiques, érosion de la vie privée, manipulation démocratique - ils maintiennent leur foi en la capacité des citoyens canadiens à influencer leur système politique par l'engagement actif. Les deux sujets traités dans cet épisode illustrent les défis interconnectés de notre époque numérique : d'une part, des technologies puissantes mais imparfaites qui créent de nouvelles vulnérabilités ; d'autre part, des institutions politiques qui tentent de s'adapter à ces nouvelles réalités parfois aux dépens des protections démocratiques traditionnelles. L'appel à l'action des animateurs est clair : les citoyens doivent rester vigilants, s'informer activement et s'engager dans le processus démocratique pour préserver leurs droits dans un monde de plus en plus numérisé. La technologie n'est ni bonne ni mauvaise en soi, mais son impact dépend largement de la façon dont la société choisit de l'encadrer et de l'utiliser. Notes À venir Collaborateurs Nicolas-Loïc Fortin Catherine Dupont-Gagnon Samuel Harper Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
durée : 00:15:02 - Bienvenue chez vous : on passe en cuisine, ici Alsace - Focus sur la conserverie des papillons, un projet solidaire qui transforme les fruits et légumes déclassés en conserves savoureuses. Stéphanie Grosjean nous en dit plus sur cette initiative locale et éco-responsable. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.
durée : 00:32:05 - Les goûts d'ici en Béarn Bigorre - Marcel Miedougé, président de Slow Food Béarn, œuvre pour promouvoir une alimentation responsable et locale. À travers des événements comme « Les Liens du Vivant », il défend les producteurs locaux et plaide pour un modèle alimentaire durable, respectueux de l'environnement. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.
Luxe, impact, matières premières, environnement, crypto ... Chaque jour, une nouvelle thématique d'investissement !
Parce que… c'est l'épisode 0x602! Shameless plug 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte François Proulx fait son retour pour présenter l'évolution de ses recherches sur la sécurité des chaînes d'approvisionnement (supply chain) depuis sa présentation de l'année précédente. Ses travaux portent sur la détection de vulnérabilités dans les pipelines de construction (build pipelines) des projets open source, un sujet qui avait suscité beaucoup d'intérêt suite à l'incident XZ Utils. Évolution de la méthodologie de recherche Depuis l'année dernière, l'équipe de François a considérablement amélioré ses outils et sa stratégie de détection. Plutôt que de scanner massivement tous les dépôts disponibles, ils ont adopté une approche plus ciblée en se concentrant sur des entités majeures comme Google, Red Hat, Nvidia et Microsoft. Ces organisations sont des contributeurs importants de projets open source critiques et bien maintenus. Cette nouvelle approche leur permet de découvrir des centaines d'organisations GitHub par entité, chacune contenant parfois des milliers de dépôts. L'objectif reste le même : détecter des vulnérabilités zero-day dans les build pipelines qui permettent de compiler, tester et distribuer les projets open source, notamment via GitHub Actions. La problématique fondamentale des CI/CD François présente une analogie frappante pour expliquer la dangerosité des systèmes d'intégration continue : “un CI/CD, c'est juste du RCE as a service” (Remote Code Execution as a Service). Ces systèmes sont des applications web qui attendent de recevoir des déclencheurs sur une interface publique accessible via Internet. Dans le cas de GitHub Actions, il suffit d'ouvrir une pull request pour déclencher automatiquement l'exécution de tests. Cette situation rappelle les vulnérabilités des années 1990-2000 avec les débordements de pointeurs. François utilise une formule percutante : “les build pipelines ressemblent à une application PHP moyenne de 2005 en termes de codage sécurisé”. Cette comparaison souligne que malgré les décennies d'évolution en sécurité informatique, les mêmes erreurs fondamentales se répètent dans de nouveaux contextes. Les mécanismes d'exploitation Les vulnérabilités exploitent principalement les entrées non fiables (untrusted input) provenant des pull requests. Même les brouillons de contributions peuvent déclencher automatiquement l'exécution de tests avant qu'un mainteneur soit notifié. Le problème s'aggrave quand les pipelines nécessitent des secrets pour communiquer avec des systèmes externes (notifications Slack, télémétrie, etc.). Par défaut, GitHub Actions hérite parfois d'anciennes permissions en lecture-écriture, ce qui permet aux tests d'avoir accès à un token avec des droits d'écriture sur le dépôt. Cette configuration peut permettre à un attaquant d'écrire dans le dépôt de manière non visible. Résultats impressionnants des analyses L'équipe a considérablement affiné ses outils de détection. À partir de 200 000 résultats initiaux, ils appliquent des règles plus précises pour identifier environ 10 000 cas intéressants. Ces règles valident non seulement la présence de vulnérabilités, mais aussi les critères d'exploitation et la présence de secrets exploitables. Après validation manuelle, environ 25% de ces 10 000 cas s'avèrent facilement exploitables. Ces chiffres démontrent l'ampleur du problème dans l'écosystème open source, même en reconnaissant l'existence probable de nombreux faux négatifs. Cas concrets : Google et les régressions François rapporte avoir découvert des vulnérabilités dans 22 dépôts appartenant à Google, notamment dans un projet lié à Google Cloud (probablement Data Flow). Après avoir signalé et reçu une récompense pour la correction, une régression est survenue une semaine plus tard dans le même workflow, leur valant une seconde récompense. Cette situation illustre un problème récurrent : même les grandes organisations comme Google peuvent reproduire les mêmes erreurs après correction, souvent par méconnaissance des mécanismes sous-jacents de ces nouvelles techniques d'exploitation. L'affaire Ultralytics : un cas d'école L'incident le plus marquant concerne la bibliothèque Python Ultralytics, très populaire pour la détection d'images par apprentissage automatique. En août, l'équipe avait détecté une vulnérabilité dans ce projet mais s'était concentrée sur les découvertes chez Google, négligeant de signaler cette faille. En décembre, Ultralytics a été compromis par l'injection d'un crypto-mineur, exploitant précisément la vulnérabilité identifiée quatre mois plus tôt. Cette attaque était particulièrement ingénieuse car elle ciblait des environnements avec des GPU puissants (utilisés pour le machine learning), parfaits pour le minage de cryptomonnaies, tout en restant discrète dans un contexte où une forte consommation GPU est normale. Pivot vers la détection proactive Cet incident a motivé un changement stratégique majeur : passer de la simple détection de vulnérabilités à la détection proactive d'exploitations en cours. L'équipe ingère désormais le “firehose” des événements publics GitHub, soit environ 5,5 millions d'événements quotidiens. Après filtrage sur les projets critiques avec des build pipelines, ils analysent environ 500 000 événements intéressants par jour. En appliquant leurs analyses sophistiquées et en croisant avec leurs connaissances des vulnérabilités, ils obtiennent environ 45 événements suspects à investiguer quotidiennement. Validation forensique avec Kong Cette nouvelle approche s'est rapidement avérée efficace. Pendant les vacances de Noël, leur système a continué d'ingérer les données automatiquement. Au retour, l'incident Kong (un contrôleur Ingress pour Kubernetes) leur a permis de créer une timeline forensique détaillée grâce aux données accumulées pendant leur absence. Découverte sur les forums cybercriminels La collaboration avec Flare, spécialisée dans l'analyse du dark web, a révélé des informations troublantes. En recherchant “Ultralytics” sur Breach Forum avec un filtrage temporel précis, François a découvert qu'un utilisateur avait créé un compte 24 heures avant l'attaque, publié exactement la vulnérabilité du pipeline Ultralytics en mentionnant l'utilisation de “Poutine” (leur outil), puis confirmé 24 heures après l'exploitation avoir gagné des Monero grâce à cette attaque. Cette découverte confirme que les cybercriminels utilisent activement les outils de recherche en sécurité pour identifier et exploiter des vulnérabilités, transformant ces outils défensifs en armes offensives. Implications et recommandations Cette situation soulève des questions importantes sur la responsabilité des chercheurs en sécurité. François insiste sur le fait que Poutine, leur outil de détection, devrait devenir le minimum absolu pour tout projet open source. Il compare cette nécessité à l'interdiction d'avoir des dépôts Git pour ceux qui n'implementent pas ces vérifications de base. L'analogie avec PHP 2005 reste pertinente : il a fallu des années pour que la communauté PHP matûrisse ses pratiques de sécurité. Les build pipelines traversent actuellement la même phase d'évolution, avec des erreurs fondamentales répétées massivement dans l'écosystème. Défis techniques et limites François reconnaît honnêtement les limitations de leur approche. Leur système ne détecte que les attaques les moins sophistiquées - des “low hanging fruits”. Des attaques complexes comme celle de XZ Utils ne seraient probablement pas détectées par leurs outils actuels, car elles sont trop bien camouflées. Le défi principal reste de filtrer efficacement le bruit dans les millions d'événements quotidiens pour obtenir un nombre d'alertes gérable par une petite équipe d'analystes. Ils reconnaissent que la majorité des incidents leur échappe probablement encore. Perspective d'avenir François exprime l'espoir que la maturation de l'écosystème des build pipelines sera plus rapide que les 20 ans qu'il a fallu pour sécuriser PHP. Leur travail de pionnier contribue à cette évolution en sensibilisant la communauté et en fournissant des outils concrets. L'angle d'analyse des build pipelines est particulièrement pertinent car il se situe à la croisée des chemins entre le code source et sa distribution, avec des possibilités d'exécution de code qui en font un point critique de la chaîne d'approvisionnement logicielle. Cette présentation illustre parfaitement l'évolution rapide des menaces dans l'écosystème open source moderne et la nécessité d'une vigilance constante pour sécuriser les infrastructures critiques dont dépend l'ensemble de l'industrie logicielle. Notes François Proulx Collaborateurs Nicolas-Loïc Fortin François Proulx Crédits Montage par Intrasecure inc Locaux réels par Northsec
durée : 00:20:35 - C'est bon ça, c'est fait en Isère ? - À Grenoble, la Maison des Saveurs propose une cuisine asiatique fusion ultra-fraîche et locale. Bao-burgers, mochis maison, cocktails à la chartreuse : une cuisine du monde bien ancrée dans l'Isère… avec les astuces du chef à emporter. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.
Parce que… c'est l'épisode 0x601! Shameless plug 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Collaborateurs Nicolas-Loïc Fortin Thierry St-Jacques-Gagnon Nora Boulahia Cuppens Berenice Alanis Frédéric Cuppens Crédits Montage par Intrasecure inc Locaux réels par Propolys - Polytechnique Montréal
durée : 00:25:49 - L'omeletterie du fort, on casse des oeufs dans la cité mariale - L'Omeletterie du Fort à Lourdes séduit par sa cuisine simple mais de qualité. Dirigée par Raynald et Rose-Marie Barroy, ce restaurant familial mise sur des omelettes garnies de produits locaux, une expérience authentique où le terroir est à l'honneur. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.
La CoVE, avec l’ICV et l’AOC Ventoux ont mis en place un nouveau dispositif en faveur du réemploi des contenants en verre pour les producteurs locaux (vins appellations Ventoux mais aussi autres appellations, producteurs de bière, de jus, etc.) répondant aux exigences du réemploi en vue de leur réutilisation après [...]
Parce que… c'est l'épisode 0x600! Shameless plug 2 au 4 avril 2025 - Humaco 8 et 9 avril 2025 - Cybereco 10 au 18 mai 2025 - NorthSec 27 au 30 mai 2025 - Cycon 4 au 6 juin 2025 - SSTIC 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte Le 600e épisode du podcast Policesécure réunit une assemblée d'experts en cybersécurité pour aborder un sujet particulièrement pertinent : l'obsec (operational security) personnel et la façon dont les professionnels de la sécurité gèrent leurs propres risques numériques. L'animateur Nicolas souligne d'emblée le paradoxe central de cette discussion : bien que ces experts conseillent quotidiennement leurs clients sur les meilleures pratiques de sécurité, ils admettent volontiers ne pas toujours appliquer ces recommandations dans leur vie personnelle. Cette conversation virtuelle rassemble des professionnels aux parcours variés : Vincent Milette (gestionnaire chez Air Canada), Guillaume Ross (expert en sécurité avec plus de 20 ans d'expérience), Samuel Harper (journaliste spécialisé), Dominique Derrier (consultant en cybersécurité), Catherine Dupont-Gagnon (spécialiste en sensibilisation), Alexandre Fournier (expert en continuité d'activité), Stéphane Laberge (professionnel chevronné) et Andréanne Bergeron (professeure associée à l'Université de Montréal). Les approches personnelles de la sécurité Vincent Milette : l'approche pragmatique Vincent adopte une perspective d'affaires même dans sa vie personnelle. Il privilégie la praticité et évite les solutions trop contraignantes qui pourraient affecter la flexibilité de sa famille. Sa stratégie repose sur la diversification : plusieurs navigateurs selon les contextes, utilisation de VPN pour certaines activités spécifiques, et adaptation aux besoins d'une famille où les niveaux techniques varient considérablement. Guillaume Ross : l'expert prudent mais réaliste Guillaume se distingue par sa rigueur concernant les mises à jour système et les sauvegardes. Il maintient un chiffrement systématique de ses données, qu'elles soient locales ou dans le cloud. Cependant, il avoue ne pas utiliser de VPN par paranoïa du WiFi public, préférant s'appuyer sur le chiffrement TLS généralisé. Son approche révèle une contradiction intéressante : parfois, trop de sécurité peut créer des vulnérabilités, comme il l'illustre avec l'anecdote de ses trois appareils dans le même sac contenant son gestionnaire de mots de passe. Samuel Harper : le journaliste pragmatique En tant que journaliste d'enquête, Samuel présente un cas d'usage particulier. Il utilise des VPN principalement pour ses recherches sur des infrastructures suspectes et maintient des comptes séparés pour ses investigations. Il souligne la difficulté pratique de maintenir un anonymat total, notamment concernant les numéros de téléphone anonymes, et prône une approche équilibrée entre sécurité et sanité mentale. Les autres approches Dominique se décrit comme “pourri” dans son obsec personnel malgré ses conseils professionnels. Catherine révèle les défis liés à son passé en marketing, où elle a construit une présence numérique importante avant de s'intéresser à la cybersécurité. Andréanne propose une philosophie intéressante : éviter la paranoïa excessive tout en maintenant une cohérence entre discours et pratique. Les anecdotes révélatrices L'incident de Catherine : un cas d'école de sécurité physique Catherine partage une anecdote particulièrement instructive de l'époque où elle animait un canal Twitch. En annonçant publiquement ses déplacements vers un café spécifique et en diffusant depuis son appartement avec une fenêtre visible, elle a involontairement fourni assez d'informations pour qu'un spectateur déduise son adresse exacte. Cette histoire illustre parfaitement comment l'ingénierie sociale et l'agrégation d'informations apparemment anodines peuvent compromettre la sécurité personnelle. Les désastres de sauvegarde Plusieurs participants partagent leurs expériences de pertes de données. Nicolas raconte avoir perdu des machines complètes à cause de clés de chiffrement perdues, tandis qu'Alexandre évoque sa “formation” précoce à l'importance des sauvegardes après avoir accidentellement supprimé des répertoires entiers sur un mainframe militaire, affectant 200 personnes passant un examen. La sécurité physique versus numérique La discussion révèle une dichotomie intéressante entre sécurité numérique et physique. Andréanne avoue une obsession pour la sécurité physique, cachant ses équipements dans des “pièces secrètes” et utilisant des leurres, contrastant avec son approche décontractée de la cybersécurité. Cette différence d'approche soulève des questions sur la perception des menaces et leur hiérarchisation. Les participants abordent également les défis pratiques des voyages : où laisser son passeport, comment gérer les appareils électroniques, l'utilisation des coffres-forts d'hôtel (généralement considérés comme peu fiables), et les précautions à prendre aux frontières. Les outils et leur utilisation Gestionnaires de mots de passe La conversation révèle des approches variées concernant les gestionnaires de mots de passe. Alors que la plupart utilisent des solutions classiques, Andréanne se distingue en utilisant un algorithme mental personnel pour générer ses mots de passe. Dominique utilise trois voûtes différentes selon le niveau de sensibilité des comptes. VPN et WiFi public Les avis divergent considérablement sur l'utilité des VPN. Guillaume argue que le chiffrement TLS généralisé rend les VPN moins critiques pour le WiFi public, tandis que d'autres les utilisent pour des cas spécifiques. La discussion souligne l'importance de comprendre la menace réelle plutôt que de suivre aveuglément des recommandations génériques. Passkeys et nouvelles technologies Les participants sont généralement optimistes concernant les passkeys, avec Sony PlayStation citée comme exemple positif d'implémentation, malgré des défis de récupération complexes. L'adoption reste limitée par la fragmentation entre les écosystèmes (Google, Apple, Microsoft). La fatigue sécuritaire et l'expérience utilisateur Un thème central émerge : la fatigue sécuritaire. Trop de mesures de sécurité peuvent conduire à l'abandon ou à des pratiques moins sûres. Les participants soulignent l'importance de l'expérience utilisateur dans l'adoption des bonnes pratiques. Les exemples incluent les sites bloquant le copier-coller de mots de passe, les demandes répétitives d'authentification, et les interfaces mal conçues qui poussent les utilisateurs vers des solutions moins sécurisées. Signal et la communication sécurisée La discussion sur “Signalgate” illustre les limites des outils de communication sécurisée. Signal offre un excellent chiffrement de bout en bout, mais ne protège pas contre les mauvaises pratiques d'utilisation ou les compromissions d'appareils. Les participants soulignent l'importance de comprendre ce que chaque outil protège réellement versus ce qu'il ne protège pas. Les menaces modernes et l'évaluation des risques Au-delà du hacker traditionnel Les participants identifient des menaces souvent négligées : la manipulation par la publicité ciblée, l'exploitation des données par des courtiers légitimes, et l'utilisation de ces informations par les forces de l'ordre sans mandat. Samuel souligne que cette collecte légale de données personnelles représente souvent une menace plus concrète que les cyberattaques traditionnelles. L'exemple des employés nord-coréens La discussion aborde le phénomène des employés nord-coréens infiltrant des entreprises occidentales, illustrant comment les processus de vérification d'identité pour les employés distants sont souvent moins rigoureux que ceux appliqués aux clients. Évolutions technologiques et perspectives Les participants notent plusieurs améliorations positives : 99% des connexions Chrome utilisent maintenant TLS, les gestionnaires de mots de passe sont intégrés dans les systèmes d'exploitation, et le chiffrement devient standard. Cependant, des défis persistent, notamment les paramètres par défaut souvent inadéquats et la complexité de maintenance de certaines solutions. Réflexions sur l'industrie et l'éducation La conversation révèle une autocritique de l'industrie de la sécurité : les experts reconnaissent leur difficulté à communiquer efficacement avec le grand public. Les conseils sont souvent trop techniques, contradictoires, ou inadaptés au modèle de menace réel des utilisateurs moyens. L'exemple du “carnet de mots de passe” illustre cette déconnexion : universellement critiqué par les experts, il peut pourtant être la solution la plus sécurisée pour certains utilisateurs. Conclusion Ce 600e épisode de Policesécure offre une perspective rafraîchissante et honnête sur la sécurité personnelle. En admettant leurs propres failles et contradictions, ces experts humanisent les défis de la cybersécurité. Leur message principal est clair : l'évaluation du risque doit précéder toute mesure de sécurité. Il ne s'agit pas d'atteindre la perfection sécuritaire, mais de trouver un équilibre praticable entre protection et fonctionnalité. La discussion souligne l'importance de contextualiser les conseils de sécurité selon le profil de menace réel de chaque individu, plutôt que d'appliquer une approche universelle. Elle met également en lumière les défis persistants de l'industrie pour rendre la sécurité accessible et compréhensible pour tous, tout en évitant la fatigue sécuritaire qui peut paradoxalement réduire le niveau de protection global. Collaborateurs Nicolas-Loïc Fortin Dominique Derrier Stéphane Laberge Andréanne Bergeron Catherine Dupont-Gagnon Samuel Harper Vincent Milette Guillaume Ross Alexandre Fournier Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
Parce que… c'est l'épisode 0x599! Shameless plug 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Ce deuxième bloc de conversation avec les experts de Propolis, un incubateur d'entreprises, explore les défis complexes de la commercialisation des innovations en cybersécurité au Québec et au Canada. Les défis de la vulgarisation technique Berenice Alanis, représentante de Propolis, souligne un problème récurrent chez les entrepreneurs techniques : leur difficulté à communiquer efficacement leurs solutions. Les start-ups en cybersécurité peinent particulièrement à vulgariser leurs innovations, ce qui constitue un obstacle majeur à la commercialisation. L'incubateur consacre six mois à former ces entrepreneurs aux compétences relationnelles (soft skills) par le biais d'ateliers, de mentorat et de coaching. Le défi principal réside dans l'incapacité des entrepreneurs à bien poser le problème qu'ils tentent de résoudre. Comme l'explique Nora Boulahia Cuppens, professeure-chercheuse, cette difficulté existe aussi dans le milieu académique : un article scientifique n'est accepté que si le problème est clairement positionné et que l'innovation apporte une solution nouvelle et rentable. Les entrepreneurs doivent apprendre à expliquer leur solution comme s'ils s'adressaient à un enfant de dix ans, en évitant le jargon technique excessif. La spécificité du marché de la cybersécurité Thierry St-Jacques-Gagnon, entrepreneur en résidence, identifie une particularité fondamentale du secteur : contrairement aux technologies médicales où les clients sont naturellement du domaine médical, la cybersécurité doit s'adresser à des entreprises qui ne sont pas spécialisées en sécurité informatique. Les premiers clients ne sont pas les experts en cybersécurité, qui pourraient être des concurrents, mais plutôt les utilisateurs finaux qui ont besoin de protection. Cette réalité crée un paradoxe : la cybersécurité n'est ni considérée comme “sexy” ni comme prioritaire par les entreprises. Elle reste perçue comme une fonction de support plutôt qu'une unité d'affaires stratégique. L'intérêt ne se manifeste généralement qu'après un incident de sécurité, moment où les budgets deviennent soudainement disponibles, mais cet élan retombe rapidement. L'innovation par l'amélioration de l'expérience utilisateur L'approche de Kelvin Zero illustre une stratégie prometteuse : positionner la cybersécurité comme un amélioration de l'expérience utilisateur plutôt qu'une contrainte. L'exemple des solutions sans mot de passe démontre comment il est désormais possible d'augmenter simultanément la sécurité et la facilité d'utilisation, rompant avec le paradigme traditionnel selon lequel ces deux aspects étaient inversement proportionnels. L'insularité du secteur cybersécuritaire Un problème structurel majeur émerge des discussions : l'écosystème cybersécuritaire québécois reste très insulaire. Les professionnels se parlent entre eux lors de conférences spécialisées, mais peinent à franchir les frontières sectorielles pour atteindre les véritables utilisateurs finaux. Cette situation contraste avec celle observée aux États-Unis, où davantage de non-experts participent aux événements cybersécuritaires et comprennent l'importance de ces enjeux pour leurs entreprises. Les approches culturelles et réglementaires La discussion révèle des différences culturelles significatives entre les approches nord-américaine et européenne. Frédéric Cuppens explique que l'Europe privilégie une approche “régalienne” où l'État impose des réglementations que les entreprises doivent respecter, comme illustré par le RGPD ou les lois sur les infrastructures critiques. Cette approche serait difficilement acceptable en Amérique du Nord, où l'on privilégie la libre entreprise. Cependant, ces différences s'estompent avec des initiatives comme le projet de loi C-26 au Canada, qui crée des opérateurs d'importance vitale sur le modèle européen. Cette évolution suscite des débats, les entreprises n'étant pas habituées à une intervention étatique aussi directe. L'impact de la peur et de la sensibilisation L'analyse comparative révèle que les États-Unis et Israël bénéficient d'un contexte de menaces qui facilite naturellement la sensibilisation à la cybersécurité. L'Europe a compensé ce facteur par la réglementation, créant une culture de la conformité. Au Québec et au Canada, l'absence de ces deux éléments maintient une certaine complaisance collective face aux enjeux cybersécuritaires. Les solutions d'accompagnement et de formation Propolis développe plusieurs stratégies pour surmonter ces défis. L'incubateur s'appuie sur des entrepreneurs en résidence, des partenariats avec de grandes entreprises comme CGI, et un réseau de mentors pour aider les start-ups à franchir la barrière entre l'innovation technique et la réalité commerciale. L'accès aux subventions et le développement de prototypes fonctionnels constituent également des éléments clés du programme d'accompagnement. Innovation pédagogique : la maîtrise entrepreneuriat-cybersécurité Face au constat que les étudiants ayant des projets d'innovation sont souvent contraints de choisir entre leurs études et leur projet entrepreneurial, Polytechnique Montréal a créé un parcours novateur. Cette maîtrise en cybersécurité avec spécialisation entrepreneuriat permet aux étudiants de développer leur start-up tout en validant leurs crédits académiques. Le programme s'appuie sur Propolis pour la partie incubation, créant un pont naturel entre formation et commercialisation. Les enjeux de financement et d'accessibilité Un défi important concerne l'accessibilité des programmes d'incubation. Tous les participants n'ont pas la liberté financière de se consacrer entièrement à leur projet d'innovation, particulièrement ceux qui ont déjà une famille et des obligations professionnelles. Cette réalité soulève la question du besoin de subventions spécifiques permettant aux entrepreneurs de se dégager temporairement de leurs autres activités. Vers une approche systémique de l'innovation Les experts identifient plusieurs pistes d'amélioration pour l'écosystème. Le concept de “living lab” développé par l'IMC2 vise à créer des espaces d'interaction entre chercheurs, industriels et start-ups. Ces plateformes permettraient de partager des expérimentations, des données et des résultats dans un environnement de confiance mutuelle. La nécessité d'une approche plus structurée émerge également, avec des parallèles tracés avec les secteurs de la construction ou de l'ingénierie, où l'innovation coexiste avec des cadres réglementaires stricts. L'idée d'une certification professionnelle pour les développeurs web, par exemple, illustre comment l'encadrement pourrait coexister avec l'innovation. En conclusion, ce podcast révèle que le succès de l'entrepreneuriat en cybersécurité au Québec nécessite une approche holistique combinant formation technique et commerciale, sensibilisation du marché, évolution réglementaire mesurée, et création d'écosystèmes collaboratifs entre l'académie, l'industrie et les start-ups. L'enjeu principal reste de transformer une expertise technique reconnue en solutions commercialement viables répondant aux besoins réels des entreprises québécoises. Collaborateurs Nicolas-Loïc Fortin Thierry St-Jacques-Gagnon Nora Boulahia Cuppens Berenice Alanis Frédéric Cuppens Crédits Montage par Intrasecure inc Locaux réels par Propolys - Polytechnique Montréal
Parce que… c'est l'épisode 0x598! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte Ce podcast technique présente un retour d'expérience fascinant sur l'utilisation de l'intelligence artificielle lors du NorthSec CTF (Capture The Flag), l'un des plus importants événements de cybersécurité en Amérique du Nord. L'animateur s'entretient avec Mickael Nadeau, qui partage son expérience de l'intégration massive de l'IA dans les compétitions de sécurité informatique. L'évolution spectaculaire de l'IA dans les CTF Une transformation radicale Mickael souligne une évolution majeure depuis leur dernier enregistrement il y a deux ans. Alors qu'à l'époque l'IA était encore balbutiante dans le domaine des CTF, elle est devenue aujourd'hui un outil incontournable qui change fondamentalement la dynamique de ces compétitions. Cette transformation s'est révélée particulièrement frappante lors du NorthSec de cette année. Intégration pratique de ChatGPT L'un des aspects les plus remarquables rapportés est l'utilisation intensive de ChatGPT par les participants. Un membre de l'équipe de Mickael s'est présenté avec une tablette dédiée exclusivement à ChatGPT, l'utilisant pour prendre des notes, analyser des problèmes et combler ses lacunes en matière de connaissances sécuritaires. Cette approche a permis à des participants moins expérimentés de rester productifs et compétitifs tout au long de l'événement. Les défis techniques spécifiques du NorthSec La complexité IPv6 Le NorthSec se distingue par son utilisation délibérée d'IPv6, un choix stratégique des organisateurs pour complexifier les défis et sortir les participants de leur zone de confort. Cette particularité a créé des situations où même les participants expérimentés comme Mickael se sont retrouvés en difficulté, ayant oublié les spécificités des outils compatibles IPv6 après deux ans d'absence. L'IA comme solution aux lacunes techniques Face à ces défis techniques, l'IA s'est révélée être un allié précieux. Les participants ont pu interroger ChatGPT sur les outils compatibles IPv6, obtenir des explications sur des concepts complexes et recevoir des suggestions d'approches qu'ils n'auraient pas nécessairement envisagées seuls. Cette assistance a considérablement réduit le temps habituellement consacré à la consultation de documentation technique. L'impact sur l'analyse et le reverse engineering Analyse de fichiers simplifiée L'une des révolutions les plus marquantes concerne l'analyse de fichiers et le reverse engineering. Mickael décrit comment il était possible de simplement télécharger un fichier dans un outil alimenté par l'IA et obtenir instantanément une analyse détaillée. Cette capacité a particulièrement impressionné l'équipe, permettant d'extraire des métadonnées, d'identifier des méthodes de chiffrement et de décompiler des fichiers Linux sans avoir besoin de l'environnement technique traditionnel. Génération d'hypothèses L'IA excelle dans la génération d'hypothèses créatives. Plutôt que de remplacer l'expertise humaine, elle complète la réflexion en proposant des pistes que les participants n'auraient pas forcément explorées. Cette collaboration homme-machine s'est révélée particulièrement efficace pour débloquer des situations complexes et accélérer la résolution de défis. Les outils et plateformes émergentes Évolution des outils en ligne Mickael observe une prolifération d'outils en ligne intégrant l'IA, permettant d'effectuer des tâches complexes directement dans un navigateur. Cette évolution est particulièrement avantageuse pour les utilisateurs de MacBook, traditionnellement désavantagés dans les CTF par rapport aux environnements Linux. La possibilité de dropper simplement un fichier et d'obtenir une analyse automatique représente un changement de paradigme majeur. Les MCP (Model Context Protocol) Bien que Mickael n'ait pas eu l'opportunité d'utiliser pleinement les MCP pendant le CTF, il exprime un vif intérêt pour cette technologie. Il envisage de développer des chaînes MCP spécifiquement configurées pour les besoins du NorthSec, notamment pour automatiser les phases de reconnaissance et l'analyse IPv6. Impact social et collaboratif Démocratisation de la participation L'un des effets les plus remarquables de l'intégration de l'IA concerne l'aspect social des CTF. Mickael rapporte que cette édition a été la plus collaborative qu'il ait jamais vécue. L'IA a permis de niveler les compétences, permettant à des participants moins expérimentés de contribuer efficacement et de rester engagés tout au long de l'événement. Fin de l'isolement technique Traditionnellement, les CTF pouvaient créer des situations où certains participants se retrouvaient isolés, incapables de suivre le rythme ou de contribuer aux discussions techniques. L'IA a brisé ces barrières en permettant à chacun d'obtenir rapidement les informations nécessaires pour participer aux échanges et proposer des solutions. Maintien de l'engagement Pour la première fois de son expérience, Mickael observe que tous les membres de l'équipe sont restés motivés et impliqués jusqu'à la fin de l'événement. Cette constance dans l'engagement contraste fortement avec les éditions précédentes où certains participants décrochaient face à la complexité des défis. Défis et limitations Limites des garde-fous Malgré les avancages considérables, l'IA présente encore des limitations. Les garde-fous intégrés dans les systèmes peuvent parfois empêcher certaines opérations légitimes dans le contexte d'un CTF. Mickael envisage d'utiliser des instances locales ou des environnements cloud dédiés pour contourner ces restrictions. Risque de sur-dépendance Bien que non explicitement mentionné, la discussion suggère la nécessité de maintenir un équilibre entre l'utilisation de l'IA et le développement des compétences fondamentales. L'IA accélère l'apprentissage mais ne remplace pas la compréhension profonde des concepts sécuritaires. Perspectives d'avenir Préparation pour 2025 Mickael exprime son désir de mieux se préparer pour la prochaine édition en développant des outils MCP spécialisés et en explorant davantage les plateformes en ligne émergentes. Il envisage également de s'entraîner sur des CTF en ligne pour perfectionner ses techniques d'intégration de l'IA. Évolution technologique rapide Les intervenants soulignent la rapidité d'évolution du domaine. Ce qui semblait impossible il y a quelques années devient routine, et ils anticipent des changements encore plus drastiques d'ici la prochaine édition du NorthSec. Conclusion Cette expérience du NorthSec 2024 illustre une transformation fondamentale dans l'approche des compétitions de cybersécurité. L'IA ne remplace pas l'expertise humaine mais la démultiplie, rendant les CTF plus accessibles, plus collaboratifs et paradoxalement plus éducatifs. Cette évolution pourrait attirer de nouveaux participants et revitaliser l'intérêt pour ces événements, tout en maintenant leur caractère technique et challengeant. L'enthousiasme de Mickael pour cette nouvelle approche est palpable, et sa suggestion d'enregistrer en direct lors du prochain CTF témoigne de la dimension sociale renforcée de ces événements. L'IA semble avoir réussi le pari de rendre les CTF à la fois plus techniques et plus humains, une contradiction apparente qui pourrait bien définir l'avenir de la cybersécurité collaborative. Collaborateurs Nicolas-Loïc Fortin Mickael Nadeau Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
Parce que… c'est l'épisode 0x597! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Ce podcast spécial Cybereco réunit Dominique Derrier et Thomas Veynachter pour explorer l'univers méconnu mais crucial des key ceremonies (cérémonies de clés). Cette discussion révèle l'existence d'un processus de sécurité fondamental qui protège notre quotidien numérique, bien que moins de 0,1% de la population en connaisse l'existence. Un phénomène d'une rareté exceptionnelle Les key ceremonies représentent un phénomène d'une rareté stupéfiante dans le monde de la cybersécurité. Comme le souligne Dominique, expert en sécurité informatique qui se présente comme le “moldu” de la table face à Thomas, véritable expert du domaine, seulement 0,04% à 0,1% de la population sait ce qu'est une key ceremony. Pour donner une perspective, ce pourcentage équivaut approximativement au nombre de personnes possédant un jet privé personnel ou ayant terminé tous les jeux Mario à 100% sur toutes les plateformes. Cette rareté crée un paradoxe fascinant : ces cérémonies sont essentielles au fonctionnement de notre société numérique, mais restent totalement invisibles pour le grand public. Même des professionnels de la cybersécurité (CISO) peuvent ignorer leur existence, créant un véritable défi de communication et de sensibilisation. L'infrastructure invisible de notre confiance numérique Les key ceremonies constituent l'épine dorsale de notre écosystème numérique. Chaque transaction bancaire, chaque connexion sécurisée (HTTPS), chaque paiement sans contact s'appuie sur cette infrastructure cryptographique. Quand nous effectuons un paiement avec notre téléphone, des échanges de clés complexes se déroulent en arrière-plan en quelques secondes, garantissant que notre argent arrive au bon destinataire. L'exemple d'Apple illustre parfaitement cette omniprésence invisible. La PKI (Public Key Infrastructure) d'Apple distribue et renouvelle automatiquement des millions de certificats de manière transparente. Quand un certificat expire - comme cela est arrivé à de grands opérateurs de messagerie - les conséquences peuvent être dramatiques pour les utilisateurs. L'art et la science de la génération de clés Une key ceremony n'est pas un simple “meeting de gestion de clés”. Le terme “cérémonie” évoque intentionnellement un processus solennel, ritualisé, où chaque étape est cruciale. Ces événements peuvent durer plusieurs heures et nécessitent des semaines de préparation minutieuse. Le processus commence par la vérification de l'intégrité physique des équipements. Les HSM (Hardware Security Modules) arrivent dans des cartons scellés avec des étiquettes de sécurité numérotées. Chaque sceau, chaque numéro est vérifié pour s'assurer qu'aucune altération n'a eu lieu pendant le transport. Cette vigilance reflète les principes de sécurité de la chaîne d'approvisionnement poussés à l'extrême. La génération de la clé racine (root key) constitue le moment le plus critique. Cette clé maîtresse, souvent stockée offline dans des coffres-forts physiques, sert de fondation à toute la chaîne de confiance. Comme l'explique Thomas avec une métaphore parlante : “Si vous coupez la racine de l'arbre, la petite feuille qui vous est utile dans votre transaction ne marchera plus.” Une orchestration humaine complexe Les key ceremonies réunissent jusqu'à quinze personnes aux rôles spécialisés et complémentaires : Le maître de cérémonie supervise l'ensemble du processus et garantit le respect strict du protocole. Contrairement aux fantasmes, il ne porte ni toge ni chapeau, mais sa responsabilité est immense : s'assurer que ce qui était souhaité a été correctement livré. Les opérateurs manipulent les équipements et saisissent les commandes. Par sécurité, ils ne travaillent jamais seuls et possèdent chacun une partie du mot de passe administrateur, appliquant le principe de la double authentification. Les témoins valident l'intégrité du processus et s'assurent qu'aucune collusion n'a lieu entre les participants. Les porteurs de secrets détiennent chacun une fraction de la clé maîtresse, généralement selon le principe de Shamir. Ce mécanisme mathématique permet de diviser un secret en plusieurs parts (souvent 7) tout en établissant un quorum (par exemple 5 sur 7) nécessaire pour reconstituer la clé. Cette approche garantit qu'aucune personne seule ne peut compromettre le système, tout en maintenant une redondance si certains porteurs perdent leur part. Les défis logistiques et humains L'organisation d'une key ceremony représente un défi logistique considérable. Réunir simultanément treize personnes de différents départements ou organisations, s'assurer qu'elles ont toutes leurs documents d'identité (un oubli classique qui peut reporter toute la cérémonie), coordonner leurs agendas sur plusieurs semaines… Chaque détail compte car une erreur, même minime, oblige à tout recommencer. L'environnement physique ajoute une contrainte supplémentaire. Ces cérémonies se déroulent souvent dans des cages de Faraday ou des data centers aux conditions spartanes. La ventilation limitée, les allées chaudes et froides des centres de données, l'isolement électromagnétique… Les participants endurent ces conditions pendant des heures, témoignant de l'importance critique du processus. La sécurité poussée à son paroxysme Les key ceremonies appliquent tous les principes de cybersécurité fondamentaux, mais portés à leur extrême. Le hachage cryptographique permet de vérifier l'intégrité des clés : chaque caractère du hash est lu lettre par lettre et vérifié par tous les participants. Cette vérification, bien que fastidieuse, garantit que tous ont vu la même clé et qu'elle correspond exactement à celle stockée dans l'équipement. La séparation des connaissances (split knowledge) empêche qu'une seule personne détienne tous les éléments. La défense en profondeur multiplie les couches de sécurité : isolation physique, contrôle d'accès, vérification de l'intégrité, authentification multiple, témoins indépendants… Les conséquences catastrophiques des compromissions L'impact d'une compromission de clé racine dépasse l'entendement. L'exemple de Symantec, dont la valorisation a chuté de dix fois suite à une perte de confiance, ou celui de certificats révoqués par Google illustrent les enjeux financiers colossaux. Si la clé racine d'Apple était compromise, des millions d'appareils perdraient leur certification. Si celle d'une banque majeure était altérée, c'est tout le système de transactions qui s'effondrerait. La durée de vie maximale de tous les certificats dérivés est limitée par celle de la clé racine : si elle expire, tout l'écosystème doit être reconstruit. L'échange de clés : Un écosystème interconnecté Les key ceremonies ne servent pas uniquement à créer des clés, mais aussi à les échanger de manière sécurisée entre organisations. Les connexions entre banques et forces de l'ordre pour les enquêtes financières, les échanges entre administrations, les interconnexions entre systèmes critiques… Tout cela nécessite des cérémonies d'extraction et d'intégration de clés. Quand nous nous plaignons que les services d'impôts ne communiquent pas avec ceux de la santé, la cause peut être l'absence de key ceremony appropriée ou le manque de maturité organisationnelle pour en conduire une. Les héros méconnus de la sécurité numérique Les participants aux key ceremonies forment une communauté restreinte et discrète. Ils ne portent pas de t-shirt proclamant “Je connais toutes les clés maîtresses de la banque” et n'affichent pas cette expertise sur leur CV, car cela en ferait des cibles potentielles. Pourtant, ces professionnels dévoués sacrifient leur temps, endurent des conditions difficiles et assument d'énormes responsabilités pour maintenir la sécurité de notre infrastructure numérique. Paradoxalement, beaucoup de participants ne comprennent pas entièrement l'importance de leur rôle. Cette ignorance relative constitue une protection supplémentaire : ils suivent scrupuleusement les procédures sans subir la pression psychologique que pourrait exercer la connaissance complète des enjeux. L'innovation au service de la tradition Malgré leur caractère traditionnel et ritualisé, les key ceremonies évoluent avec les technologies. L'introduction de coffres-forts à double accès, les nouvelles méthodes de vérification d'intégrité, l'amélioration des HSM… Ces innovations permettent d'ajouter des couches de sécurité supplémentaires tout en respectant les principes fondamentaux. Le principe de la défense en profondeur reste central : si un attaquant brise une couche de sécurité, sept autres l'attendent. Cette redondance, bien que coûteuse et complexe, constitue le seul moyen de protéger des secrets d'une valeur inestimable. Vers une démocratisation des bonnes pratiques L'objectif de Dominique et Thomas dépasse la simple sensibilisation. Ils souhaitent que les professionnels de la cybersécurité s'inspirent des key ceremonies pour améliorer leurs pratiques quotidiennes. Sans aller jusqu'aux extrêmes de ces cérémonies, adopter certains principes - vérification d'intégrité, séparation des privilèges, témoignage indépendant - pourrait considérablement renforcer la sécurité des organisations. Cette présentation au Cyberecho vise également à rendre hommage aux acteurs méconnus de cette discipline. En reconnaissant publiquement leur contribution essentielle à notre sécurité collective, ils espèrent encourager une prise de conscience plus large de l'importance de ces processus. Conclusion : L'invisible fondation de notre monde numérique Les key ceremonies incarnent parfaitement le paradoxe de notre époque numérique : les processus les plus critiques restent les plus invisibles. Ces cérémonies, menées par une poignée d'experts dévoués, constituent les fondations invisibles sur lesquelles repose notre confiance numérique quotidienne. Leur rareté même - 0,04% de la population - souligne à la fois leur importance critique et la nécessité urgente de sensibiliser davantage de professionnels à leur existence. Car comprendre les key ceremonies, c'est comprendre les enjeux véritables de la cybersécurité moderne et l'extraordinaire complexité des systèmes qui protègent notre vie numérique. Dans un monde où chaque clic, chaque paiement, chaque connexion dépend de ces cérémonies secrètes, il devient essentiel de reconnaître et de célébrer le travail remarquable de ceux qui, dans l'ombre des data centers, perpétuent ces rituels technologiques garants de notre sécurité collective. Collaborateurs Nicolas-Loïc Fortin Dominique Derrier Thomas Veynachter Crédits Montage par Intrasecure inc Locaux réels par Cybereco
Parce que… c'est l'épisode 0x596! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte Ce troisième épisode de la série dédiée à la souveraineté numérique explore SecNumCloud, un label français qui se positionne à l'intersection de la conformité et de la gestion des risques. Julien Levrard partage l'expérience d'OVHcloud dans l'obtention et la mise en œuvre de cette qualification, offrant une perspective unique sur un référentiel européen plus complet que les frameworks américains traditionnels. Qu'est-ce que SecNumCloud ? SecNumCloud est une qualification délivrée par l'ANSSI (Agence nationale de la sécurité des systèmes d'information), l'agence française en charge de la cybersécurité. Créé il y a environ 7-8 ans, ce référentiel définit un standard de sécurité pour les fournisseurs de services cloud destinés à l'administration, aux grandes entreprises et aux acteurs stratégiques français. Cette qualification s'inscrit dans un écosystème plus large de “visas de sécurité” développés par l'ANSSI, couvrant différents types d'acteurs : prestataires d'audit, de maintenance informatique, sociétés de services, etc. L'objectif est de créer un écosystème de confiance pour l'environnement économique français, aligné sur les exigences de cybersécurité nationales. L'évolution du contexte géopolitique Lors du lancement de SecNumCloud, le marché hésitait face à ce nouveau référentiel jugé complexe et dense. La souveraineté numérique n'était pas encore un enjeu prioritaire, et l'industrie imaginait le cloud comme un marché dominé par quelques grands acteurs internationaux proposant des services standardisés. OVHcloud a pris le risque de se positionner sur ce référentiel dès ses débuts, devenant le 4ème acteur français qualifié. Cette décision s'est révélée stratégique avec l'évolution du contexte géopolitique, qui a rendu la souveraineté et la maîtrise technologique de plus en plus cruciales. L'approche technique d'OVHcloud Premier produit : Hosted Private Cloud OVHcloud a débuté avec un produit d'environnement de virtualisation privatif basé sur les technologies VMware. Ce choix répondait à un large éventail de cas d'usage et était particulièrement adapté aux entreprises moyennes et grandes, les plus exigeantes en matière de sécurité. Évolution vers Bare Metal Pod Face aux limitations du premier produit, OVHcloud a développé Bare Metal Pod, un environnement de datacenter dédié avec des serveurs affectés aux clients et des outils d'orchestration sophistiqués. Cette approche offre plus de flexibilité pour déployer l'ensemble du catalogue dans un contexte qualifié SecNumCloud. La complexité du référentiel Volume des exigences Le référentiel SecNumCloud compte environ 280 exigences principales, mais en réalité, le nombre total d'exigences à respecter avoisine les 2000 points de contrôle une fois intégrées toutes les références aux guides et bonnes pratiques de l'ANSSI. Cette densité rend l'appropriation du framework extrêmement complexe et chronophage. Processus d'audit intensif L'audit SecNumCloud mobilise quatre auditeurs pendant trois semaines chaque année, représentant près de 60 heures d'audit. Cette intensité nécessite une organisation logistique importante et mobilise de nombreux opérationnels pour présenter les preuves de conformité. L'approche par les risques Contrairement aux frameworks purement conformité, SecNumCloud intègre une dimension d'analyse des risques. Les auditeurs peuvent refuser une qualification même si tous les points de conformité sont respectés, si l'architecture ou les choix de design présentent des risques jugés inacceptables. Cette approche nécessite des négociations approfondies sur les choix d'implémentation : isolation des plans de contrôle et de données, monitoring des interfaces sécurisées, traitement des logs et métadonnées, etc. L'ANSSI impose une liste de risques obligatoires à traiter, tout en laissant la possibilité d'ajouter des risques spécifiques au service proposé. L'architecture autonome Séparation complète des environnements La particularité de SecNumCloud réside dans l'exigence d'autonomie complète. L'environnement d'exploitation des produits SecNumCloud constitue un système d'information entièrement séparé du reste d'OVHcloud. Jusqu'aux postes de travail des administrateurs, tout est dupliqué dans un contexte complètement autonome. Cette séparation implique la reconstruction complète de toute l'infrastructure : monitoring, observabilité, gestion des droits, bastions, VPN, etc. Aucune dépendance avec le système d'information principal n'est autorisée, ce qui représente un investissement colossal en temps, matériel et ressources humaines. Défis opérationnels Cette approche crée des défis uniques. Par exemple, supporter un client nécessite des informations désensibilisées extraites du monde SecNumCloud via des “secure gateways” spécialement conçues. Ces mécanismes de filtrage et d'anonymisation doivent être justifiés par une analyse de risques approfondie. Perspectives européennes et mondiales Initiatives européennes Au niveau européen, plusieurs référentiels coexistent : C5 en Allemagne, ENS en Espagne, ACN en Italie. L'ENISA travaille sur EUCS, un référentiel européen unifié, mais les négociations butent sur les aspects de souveraineté, les États membres n'ayant pas tous la même approche politique sur ces questions. Exportabilité du modèle OVHcloud a conçu ses plateformes SecNumCloud pour être réplicables dans d'autres juridictions. Le cœur du produit et ses caractéristiques principales sont pensés pour la maîtrise locale et l'indépendance, avec des adaptations possibles selon les exigences locales. Des discussions sont en cours pour déployer ce modèle au Canada et en Asie-Pacifique, répondant à une demande croissante de souveraineté numérique dans ces régions. Innovation : On-Premises Platform OVHcloud propose également une version on-premises de sa plateforme, pouvant fonctionner dans les datacenters clients. Cette solution peut être opérée à distance par OVHcloud ou en totale autonomie par les équipes clients, offrant un niveau d'indépendance maximal. Évolution du marché cloud Le marché évolue d'un modèle “one size fits all” vers une personnalisation des offres cloud. Les clients recherchent désormais des standards techniques et de consommation, tout en intégrant leurs contraintes spécifiques : écologie, autonomie stratégique, coûts, souveraineté. Cette tendance positionne les acteurs comme OVHcloud sur un terrain alternatif, proposant des fonctionnalités cloud standard avec des caractéristiques additionnelles (maîtrise, souveraineté, respect environnemental) adaptées aux besoins, culture et contexte spécifiques de chaque client. Conclusion SecNumCloud représente un modèle pionnier de souveraineté numérique, plus exigeant que les frameworks traditionnels mais offrant un niveau de contrôle et d'indépendance unique. Bien que complexe et coûteux à mettre en œuvre, ce référentiel anticipe l'évolution géopolitique et les attentes croissantes en matière de souveraineté technologique. L'expérience d'OVHcloud démontre qu'il est possible de concilier standards techniques internationaux et exigences de souveraineté, ouvrant la voie à un nouvel équilibre dans l'écosystème cloud mondial. Cette approche pourrait bien définir l'avenir du cloud computing, où la normalisation technique cohabite avec la diversification géopolitique et culturelle des services. Collaborateurs Nicolas-Loïc Fortin Julien Levrard Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
Parce que… c'est l'épisode 0x595! Shameless plug 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Notes À venir Collaborateurs Nicolas-Loïc Fortin Thierry St-Jacques-Gagnon Nora Boulahia Cuppens Berenice Alanis Frédéric Cuppens Crédits Montage par Intrasecure inc Locaux réels par Propolys - Polytechnique Montréal
Parce que… c'est l'épisode 0x594! Shameless plug 03 au 05 juin 2025 - Infosecurity Europe 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Collaborateurs Nicolas-Loïc Fortin Thierry Marier-Bienvenue Crédits Montage par Intrasecure inc Locaux réels par Cybereco
durée : 00:24:05 - Maison Joanto à Briscous, du fait maison avec passion ! - La Maison Joanto à Briscous offre une cuisine sincère et généreuse, centrée sur les produits locaux et les sauces maison. Vincent Etcheverry et son équipe valorisent le terroir basque à travers une carte courte, raffinée et engagée, pour une expérience culinaire authentique et gourmande.
Avec : Florian Bercault, maire DVD de Laval (Mayenne). - Tous les matins à 8h10, le parti pris argumenté d'un invité sur un sujet d'actualité, avec les témoignages et les réactions des auditeurs de RMC en direct au 3216.
Avec : Pierre Rondeau, économiste. Périco Légasse, journaliste. Et Juliette Briens, journaliste à L'Incorrect. - Après le succès d'audience rencontré cette année, Estelle Denis repart pour une nouvelle saison. Toujours accompagnée de Rémy Barret et sa bande, Estelle Denis s'invite à la table des français pour traiter des sujets qui font leur quotidien. Société, conso, actualité, débats, coup de gueule, coups de cœurs… En simultané sur RMC Story.
Le ministre François Desquesne annonce deux grands chantiers pour soulager les élus locaux. Il veut simplifier les procédures de marchés publics, en réduisant le nombre d'étapes administratives. Il propose aussi la fusion des CPAS avec les administrations communales dans les petites entités, pour plus de clarté et d'efficacité. Ces mesures visent à alléger la charge des mandataires locaux, confrontés à une pression croissante. Le ministre insiste sur la nécessité d'un service public plus fluide, recentré sur les besoins des citoyens. Il évoque également l'arrivée d'une vignette automobile, qui ferait enfin contribuer les plaques étrangères à l'entretien des routes, sans hausse de fiscalité globale pour les Belges. Merci pour votre écoute N'hésistez pas à vous abonner également aux podcasts des séquences phares de Matin Première: L'Invité Politique : https://audmns.com/LNCogwPL'édito politique « Les Coulisses du Pouvoir » : https://audmns.com/vXWPcqxL'humour de Matin Première : https://audmns.com/tbdbwoQRetrouvez tous les contenus de la RTBF sur notre plateforme Auvio.be Retrouvez également notre offre info ci-dessous : Le Monde en Direct : https://audmns.com/TkxEWMELes Clés : https://audmns.com/DvbCVrHLe Tournant : https://audmns.com/moqIRoC5 Minutes pour Comprendre : https://audmns.com/dHiHssrEt si vous avez apprécié ce podcast, n'hésitez pas à nous donner des étoiles ou des commentaires, cela nous aide à le faire connaître plus largement. Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
370 travailleurs humanitaires tués en 2024. Un chiffre sans précédent, reflet d'un environnement de plus en plus dangereux pour celles et ceux qui s'engagent sur le terrain à apporter une aide essentielle aux populations civiles dans des contextes de crise. Et face à ces violences, l'impunité reste la norme.Au micro d'Alexandre Carette, d'ONU Info Genève, Olivier Vandecasteele, ancien travailleur humanitaire détenu arbitrairement en Iran et fondateur de l'ONG Protect Humanitarians, alerte sur les multiples menaces qui pèsent sur le personnel humanitaire : insécurité croissante, criminalisation de l'aide, manque de mécanismes de protection.Il insiste aussi sur la nécessité de mieux défendre les humanitaires locaux, en première ligne sur le terrain, mais souvent oubliés dans les politiques de protection.
En RDC, les transporteurs congolais ont désormais le droit de transporter 50 % des marchandises à l'importation et à l'exportation. La décision prise à la fin du mois de février par le ministère congolais des Transports pourrait avoir un impact positif, en particulier pour la région du Katanga où l'activité minière est intense. Pour les transporteurs congolais, le défi est grand : ils ne représentent aujourd'hui que 3 % de la flotte en activité dans le pays et font face à un coût de péage routier supérieur à celui de leurs collègues d'Afrique australe. En République démocratique du Congo, près de 300 véhicules par jour traversent la frontière avec la Zambie. Plus de 95 % de ce trafic est assuré par des sociétés étrangères. « L'une des raisons est le coût élevé pour les transporteurs routiers congolais, déplore un transporteur congolais, qui a requis l'anonymat. À titre d'exemple, au niveau de la Zambie, nous payons 1 000 dollars de coût supplémentaire que tous les autres transporteurs. Ce qui fait que nous ne sommes plus concurrentiels. »Les mines ont leur société de transport à l'étrangerEn effet, depuis 2021, la Zambie applique la réciprocité, car du côté congolais, les frais de péage routier sur le tronçon Kasumbalesa – Kolwezi sont de 900 dollars alors que dans les pays de la SADC, ils sont fixés à 10 dollars pour 100 km. « Sur le corridor sud qui part de Kolwezi jusqu'en Zambie, les transporteurs congolais ne représentent que 3 % parce que les entreprises minières installées au Congo ont leurs propres sociétés de transport en Zambie, en Namibie, en Afrique du Sud et en Tanzanie », souligne de son côté Philippe Seneve, le président du comité des transporteurs congolais au sein du patronat à Kolwezi.En vue de stimuler le secteur, les autorités ont récemment signé un arrêté accordant un droit préférentiel aux transporteurs locaux. « Cet arrêté accordant aux transporteurs locaux un droit de préférence à hauteur de 50 % des marchandises va sans nul doute accroître le nombre des transporteurs et travailleurs locaux et impacter positivement l'économie tant nationale que provinciale », espère Jean-Marie Abolia, secrétaire général au ministère des Transports de la République démocratique du Congo.Créer 4 000 emploisPour le patronat congolais, grâce à cette mesure, 4 000 emplois seront créés dans la région du Katanga, et un revenu mensuel évalué à 23 millions de dollars généré par ce secteur restera au pays. Mais les défis sont énormes vu le nombre réduit des transporteurs locaux. « Nous devons les accompagner afin d'atteindre une flotte d'au moins 3 500 camions avec un chargement journalier de 110 camions qui représentent effectivement les 50 % », estime Ritha Ilunga, la responsable du comité des transporteurs au sein du patronat à Lubumbashi, qui veut rester optimiste. Entre-temps, les transporteurs locaux attendent du gouvernement congolais une diminution du coût du péage routier ou tout simplement l'exonération de ces frais.À lire aussiRDC: dans le Sud-Kivu, l'avenir de la société aurifère DRC Gold Trading SA s'assombrit
Il manque 13 milliards de dollars pour répondre aux besoins de financements concernant la nutrition, selon les organisateurs du sommet Nutrition for Growth qui s'est tenu à Paris les 27 et 28 mars. Dans le monde, cinq millions d'enfants sont morts en 2021 avant d'avoir atteint l'âge de 5 ans, selon des estimations publiées en 2023. À l'extrême inverse, les maladies liées à l'obésité tueraient près de trois millions de personnes chaque année dans le monde. Dans le contexte de multiplication des conflits, de perturbation des chaînes de production et de distribution, produire plus localement est devenu une priorité pour beaucoup d'États. Des questions largement débattues en fin de semaine dernière lors du sommet Nutrition for Growth. Face aux problèmes de sécurité alimentaire, les autorités éthiopiennes ont engagé de grands chantiers pour faire du « made in Éthiopie » et, notamment, transformer localement. « Cette initiative vise à substituer les importations par de la production locale. Mais, comme vous le savez, de nombreux acteurs rencontrent des difficultés financières et ne bénéficient pas du soutien d'autres partenaires privés. C'est là le principal défi », explique Shibru Kelbessa, assistant technique au ministère de l'Industrie éthiopien.À écouter aussiNutrition for growth, une bonne alimentation pour tousDans certains pays, de grandes entreprises de l'agro-industrie sont présentes. « Elles façonnent nos systèmes alimentaires », met en exergue un ministre ivoirien lors du sommet sur la nutrition à Paris. Avec, dans certains cas, des produits très transformés, très sucrés ou très gras… Pour Augustin Grandgeorge, du Forum de Paris sur la Paix, les entreprises peuvent avoir intérêt à évoluer et y être incitées.« Si elles évoluent dans un environnement de marché qui le permet et récompense les bonnes pratiques et punit aussi les mauvaises, elles ont un intérêt économique, a priori, d'être mieux disant sur le marché, souligne-t-il. Elles ont aussi un intérêt du point de vue de leur responsabilité sociale, et cela sous deux aspects : l'image de l'entreprise, mais aussi des raisons financières, parce que les investisseurs s'intéressent de plus en plus à ces questions. »Investir de manière stratégiqueDans le cadre du sommet Nutrition for Growth, « on a discuté de l'intégration des critères nutritionnels pour les investisseurs », explique encore Augustin Grandgeorge. L'idée était de voir « comment est-ce qu'on fait pour que les investisseurs regardent la qualité nutritionnelle des portefeuilles des entreprises dans lesquelles ils investissent pour que ce soit un petit peu un gouvernail pour les investisseurs ».À écouter dans Priorité SantéSommet Nutrition for Growth contre la malnutritionLes États ont aussi un rôle à jouer, mais ils peinent encore à prioriser le secteur de l'agro-alimentaire. L'organisation Nutrition International mise sur le coût de l'inaction et a développé un outil pour le quantifier. « On voulait vraiment être capable d'aider des gouvernements à voir le coût de ne pas investir. L'outil est gratuit sur notre site. On offre également une expertise aux gouvernements pour les accompagner dans ces recherches et les aider à déterminer où leurs investissements, s'ils sont limités, auraient le plus grand impact », détaille Margaux Stastny, vice-présidente des relations extérieures de l'ONG.Lever des fonds privés et des fonds propres est de plus en plus nécessaires dans le contexte des aides budgétaires. Le Programme alimentaire mondial a annoncé une baisse de 40% de ses financements pour 2025.À lire aussiProgramme alimentaire mondial : répondre à l'urgence
Tous les dimanches à minuit, Daniel Riolo propose une heure de show en direct avec Moundir Zoughari pour les passionnés de poker. Conseils d'un joueur professionnel, actualité, tournois... Votre rendez-vous poker, sur RMC !
durée : 00:21:03 - La star du printemps: l'Asperge - À la cueillette de l'Aragnon, Valentin Joly met en avant l'asperge, star des marchés de printemps. Entre techniques de culture raisonnée et cuisine végétale inventive au bistrot, découvrez comment ce légume délicat est travaillé avec respect pour offrir des saveurs exceptionnelles.
Haïti vit « l'horreur enveloppé d'ordinaire », écrit le Nouvelliste. À Gressier, Fort national, Carrefour feuilles, Tabarre, et Delmas. Les 5 quartiers-communes de la région métropolitaine de Port-au-Prince, les gangs « tirent, brûlent, pillent, tuent depuis près d'un mois, ces derniers jours encore plus », témoigne notre confrère Frantz Duval, dans son éditorial, il ajoute : « tout est trop, tout est surréaliste, tout est au-dessus des mots. » ⇒ Le Nouvelliste : Des bandits tuent et brûlent à Delmas comme à Tabarre⇒ Le Nouvelliste : Des cris, du sang des larmes et beaucoup d'indifférence.L'emprise des gangs s'étend et la terreur avec elle : les criminels ont forcé des habitants de Delmas 30 à abandonner leur maison et la coalition de gangs « VIV Ansanm » a commis un nouveau massacre meurtrier à Tabarre. Notre correspondant à Port-au-Prince, Peterson Luxama nous fait part de la situation dramatique pour des centaines de familles contraintes d'abandonner leur maison, laissant derrière elles des années de souvenirs réduits en cendres. Il a rencontré une mère en larmes qui découvre le cadavre de son fils, qui crie sa douleur et implore le ciel.Un reportage à retrouver en intégralité ici.Malgré cette situation catastrophique en Haïti à laquelle s'ajoute une crise humanitaire et économique, Le président américain veut expulser les immigrés haïtiens des États-Unis. Donald Trump a promis de mener la plus grande opération d'expulsions de l'histoire, il a aussi décidé de restreindre le TPS, le statut de protection temporaire accordé à des milliers d'Haïtiens. Celui-ci devait durer jusqu'en 2026, mais s'arrêtera finalement en août 2025. Notre correspondante à New York, Loubna Anaki s'est rendue à Little Haïti où elle a recueilli des témoignages d'Haïtiens qui vivent dans la peur de l'expulsion et n'osent pas emmener leurs enfants à l'école, aller au travail, faire des courses ou sortir la nuit. La majorité d'entre eux sont en situation régulière, beaucoup d'entre eux vivent et travaillent légalement aux États-Unis grâce au TPS, ce programme de protection temporaire dont l'avenir est incertain.Son reportage est à retrouver en intégralité dans la version audio de ce podcast. Nicaragua : « Un contrôle total de la population à travers des violations généralisées des droits de l'homme »Un groupe d'experts mandatés par les Nations unies publie ce mercredi (26 février 2025) un rapport accablant sur la dictature de facto désormais en place au Nicaragua, qui montre l'ampleur de la répression mise en place dans le pays.Reed Brody est un avocat américain, spécialisé dans la défense des victimes des régimes dictatoriaux et il est membre de cette équipe d'experts. Interrogé par Paula Estanol de la rédaction en espagnol de RFI, il explique « comment le régime de Daniel Ortega et de son épouse, la co-présidente Rosario Murillo a systématiquement démantelé les derniers freins à son pouvoir et consolidé un contrôle total à travers des violations généralisées des droits de l'homme. » « C'est une démonstration de comment l'État et le front sandiniste ont fusionné en un seul appareil de répression » poursuit-il, « et au cœur de ce système, il y a un vaste réseau de renseignement qui surveille la population et sélectionne les cibles à réprimer au Nicaragua et au-delà de ses frontières. »L'entretien est à retrouver en intégralité dans la version audio de ce podcast. Chili : une panne massive de courant paralyse le paysLa vie reprend au Chili après une panne de courant majeure qui a paralysé le pays ce mardi (25 février 2025). L'état d'urgence couvre-feu qui avait été décrété suite à cette panne massive a été levé.Ce « black-out » qui a paralysé le pays serait lié à un problème de distribution. La quasi-totalité du Chili a été affecté, de la région d'Arica au Nord, jusqu'à l'île de Chiloé dans le Sud, en passant par la capitale Santiago.Des millions d'habitants ont été privés de courant mais aussi d'internet. Selon les médias chiliens, des personnes ont été piégées dans des ascenseurs et des manèges avant d'être secourues.À Santiago, notre correspondante Naïla Derroisné témoigne d'une situation chaotique dans les rues alors que les feux de signalisation étaient complètement éteints et que le métro a cessé de fonctionner.Un reportage à retrouver dans son intégralité dans la version audio de ce podcast. Les déchets plastiques contaminent l'archipel des GalapagosIls se font appeler les «Gardiens des Galapagos». Leur objectif est de diminuer d'au moins 30% le nombre de déchets plastiques qui s'échoue sur l'archipel des îles Galapagos, qui est classé au patrimoine naturel de l'Humanité. Elles ont beau être isolées à plus de 1 000 kilomètres de l'Équateur continental, ces terres ne sont pas protégées de la contamination par le plastique.En Équateur, la compagnie Ichtyon a installé 4 systèmes de captation de plastiques sur les rivières et les fleuves du pays. Notre correspondant en Équateur Éric Samson en a visité un, sur la rivière San Pedro près de Quito.Son reportage est à retrouver dans son intégralité dans la version audio de ce podcast. L'actualité des Outre-merBenoît Ferrand de la 1ère nous parle des métropolitains qui affluent en Guadeloupe car ils souhaitent changer de vie, ce qui n'est pas forcément très bien vécu par la population locale.
durée : 00:15:22 - Journal de 8 h - Plusieurs syndicats déposent un préavis de grève reconductible alors que les Mahorais partis pendant les fêtes dans l'hexagone reviennent dans l'archipel.