POPULARITY
Categories
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)David Deschênes a fondé une véritable institution à Montréal : une épicerie de quartier devenue une référence dans Hochelaga. Nous avons eu le plaisir d'accueillir le créateur du Bièrologue pour discuter des réalités du parcours entrepreneurial — les sacrifices, les défis comme le vandalisme et la pandémie, mais aussi pour plonger dans l'univers brassicole québécois. Il nous a parlé de l'engouement croissant pour les microbrasseries, ainsi que de la crise récente que le milieu a su traverser. Un grand merci à ce passionné de bière artisanale pour sa présence au Whats Up ! Enregistré le 20 août 2025.Pour suivre David Deschênes :https://www.linkedin.com/in/david-desch%C3%AAnes-75a61537a?utm_source=share&utm_campaign=share_via&utm_content=profile&utm_medium=ios_appFacebook :https://www.facebook.com/david.deschenes.18Pour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Au sommaire du 213ème Comixity, vous retrouverez un condensé des sorties comics VF parues du mois de juin et juillet 2025. Enregistrée le vendredi 1er août, vous retrouverez Sam, Kael et Steve pour un détail des [...] The post Comixity Podcast #213 first appeared on Comixity : Podcast & Reviews Comics - Comixity.fr.
📝 INVESTIR AVEC NOUS : Conseil en investissement et club deals alternatifs : https://bit.ly/sondageRA30A --- 0:00 - IA, Macron, grand remplacement 1:00 - Conseillère auprès du ministère 6:25 - Cheffe du campus du numérique au gouvernement 12:16 - Critiquer le président 15:58 - La souveraineté numérique 19:45 - Les données numériques des français 23:15 - La régulation de l'Intelligence Artificielle 28:05 - La régulation des cryptomonnaies 33:12 - La transformation des institutions 38:19 - Investir dans la tech, crypto, IA, quantique 42:07 - L'investissement privé et public dans l'IA 46:22 - L'IA dans 5 ans ! 52:36 - Formez vous ! #gouvernement #intelligenceartificielle #macron --- Nous sommes gestionnaires de patrimoine et conseillers en investissement. Nous accompagnons les citoyens à investir autrement. Nous sommes persuadés que le modèle économique du passé ne se reproduira pas et qu'il faut aller vers de nouvelles dimensions : fin de l'abondance, technologie du savoir, modes d'organisation, modèle économique... C'est un réel combat politique, qui se gagne par l'argent, le nerf de la guerre. Nous proposons des produits et services performants dans l'économie réelle, en respectant nos critères d'investissements : innovations utiles, éthiques et durables ; de souveraineté économique, industrielle, monétaire, technologique, énergétique et alimentaire. Nous axons nos stratégies d'investissements sur trois axes : - l'économie réelle via le private equity (le capital-investissement), deeptech, medtech, greentech, winetech, saas... - les investissements alternatifs de terrain (ressources naturelles, métaux rares et critiques, énergie, eau, vin, numismatique, oeuvres d'Art, immobilier atypique...) - les innovations Web3 (cryptoactifs, DeFi, RWA, token sales, DePIN, DAO, DApp, NFT, GameFi) --- // RESSOURCES : 📚 Le livre bestseller IMMOBITCOIN (gratuit) : http://bit.ly/immobtc 🧠 POUR ALLER PLUS LOIN (1h20) - INVESTIR durant la période de crise civilisationnelle en cours (atelier privée): https://youtu.be/rp71QVEjl78?si=enEoB6-NpPNNsXTA&t=2280 // SUIS-NOUS 📷 Instagram : https://instagram.com/francoisjgdenis https://instagram.com/pic.podcast 💼 LinkedIn : https://www.linkedin.com/in/fdenis01 --- FD Invest – Société par actions simplifiés au capital social de 100 € - n°89888347500029 au RCS de Montpellier – 2 rue des pivoines 34070 Montpellier – http://fdinvest-patrimoine.com/. Enregistré à l'ORIAS sous le n°22001382 http://www.orias.fr/ en qualité de : Conseiller en investissement financier adhérent de la compagnie cif, association agréée auprès de l'Autorité des Marchés Financiers. FD Invest exerçant en marque commerciale sous le nom Riche à 30 ans. RC Pro auprès de MMA. - IMPORTANT: Risque de perte en capital ou de moins-value sur les investissements alternatifs. Faites vos recherches si vous n'êtes pas accompagné. Ce retour d'expérience ne constitue pas un conseil ou une recommandation. Un conseil est toujours au cas par cas.
Les boys traînent de la patte. Enregistré le 25 août 2025.
Max Truman de danslescoulisses.com et le spectaculaire Less rejoignent Jeff et Gerry dans le podcast de sport Numéro 1 au Québec. Voici « Le Vestiaire » pour parler de la nouvelle saison du Canadien qui arrive très bientôt dans la LNH. Enregistré à RadioPirate le 25 septembre 2025. Learn more about your ad choices. Visit megaphone.fm/adchoices
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Elle dénonce avec force les stratégies d'influence islamistes et islamogauchistes au Québec. Ayant grandi en Iran, où elle a été confrontée dès l'enfance à un endoctrinement religieux imposé par l'État, elle a immigré au Québec avec l'espoir de trouver un environnement laïque et égalitaire.Vingt ans plus tard, c'est avec inquiétude qu'elle observe la reproduction, ici même, de dynamiques qui ont contribué à la montée de l'islam politique dans son pays d'origine : l'alliance entre une gauche radicale et des courants islamistes, rendue possible, selon elle, par l'aveuglement volontaire, le laxisme de certains élus et autorités, ainsi que par la compromission et la collaboration des « idiots utiles » issus des partis de gauche.Un grand merci à Mandana Javan pour sa présence en studio et pour avoir partagé son engagement indéfectible en faveur de la laïcité, qu'elle considère comme essentielle — et encore trop fragile au Québec.Enregistré le 19 août 2025.Pour suivre Mandana sur Facebook :https://www.facebook.com/mandana.javan.m/Pour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Pour ce nouvel épisode « Personnalité », nous sommes très heureux de recevoir le journaliste et essayiste Vincent Edin. En mai 2025, il a publié l'essai “Sauver l'information de l'emprise des milliardaires” aux éditions Payot, co-écrit avec Olivier Legrain. Il y critique l'accaparement de l'information par quelques grands fortunés à l'influence toujours plus grande sur les médias, les maisons d'éditions et les écoles de journalisme. Cet essai rappelle l'urgence de lutter contre ce qu'il considère comme un des plus grands dangers pour notre démocratie, en soutenant la presse indépendante. Dans cet épisode, Vincent Edin retrace son parcours de journaliste et nous livre son opinion sur ce qu'est l'engagement dans ce métier. Enregistré le 10 septembre 2025, jour de révolte citoyenne, ce commentateur assidu de l'actualité nous a livré sa lecture du climat politique actuel, son rapport à l'alimentation écoresponsable en tant que père ou encore du lien entre l'extrême droite et l'agriculture intensive. Bonne écoute ! Mentionnés dans cet épisode :Le Coin Pop, 24 rue du marché Popincourt, 75011 ParisL'avant-poste, 7 rue de la Fidélité, 75010 Paris FranceLa maison vide, Laurent Mauvignier (Éditions de minuit)La nuit au coeur, Nathacha Appanah (Gallimard) Le coût de la vie, Deborah Lévy (Éditions du Sous sol) C'est bio la France ! 40 ans de label AB, 40 portraits (Agence bio), co-écrit avec Bertrand Guillot Ecole de la Réparation avec Stéphanie Calvino (Antifashion)*** Pour nous soutenir : - Abonnez-vous à notre podcast ; - Donnez votre avis en mettant des étoiles et des commentaires sur votre plateforme d'écoute préférée ; - Parlez d'Écotable et de son podcast autour de vous ; - Allez manger dans nos restaurants vertueux et délicieux ! *** Écotable est une entreprise dont la mission est d'accompagner les acteurs du secteur de la restauration dans leur transition écologique. Elle propose aux restaurateurs une palette d'outils sur la plateforme www.ecotable.fr/proÉcotable possède également un label qui identifie les restaurants écoresponsables dans toute la France sur le site www.ecotable.frRéalisation : Emma ForcadeHébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Dans ce 31ième épisode de Farouches, on est de retour avec des épisodes devant public lors du congrès du Réseau Québécois de l'Action Communautaire Autonome (RQ-ACA) !Enregistré le 17 septembre 2025 au Centre des Congrès de l'Hôtel Delta de Trois-Rivières, on passe en revue les nouvelles depuis le dernier épisode (ou en tout cas on essaie) : Rentrée de la CAQ, interdiction de prières dans les rues et élargissement de la loi 21, l'histoire dans les musées révisée pour faire plaisir à Trump, répression des militants anti-génocide en Palestine et bien plus.Un épisode où on fait le point sur les luttes qui nous attendent avec nos invitées Sara Arsenault, responsable aux dossiers politiques à la Fédération des femmes du Québec (FFQ), Janic Galibois, coordonnatrice générale à la FFQ et Kanelle Bolin, chargée de projet aux pratiques inclusives et anti oppressive au RQ-ACA.Dans le segment Ça a mal vieilli, Emna parle des personnalités hollywoodiennes sionistes et revisite des statuts Facebook d'Olivier Primeau. Et on termine l'épisode avec l'édito de Coralie sur le narratif des “jobs” qui semble exclusivement profiter au capitalisme et à la destruction du territoire.Merci au RQ ACA de nous avoir fait confiance pour ce fabuleux épisode ! N'hésitez pas à nous contacter pour des épisodes personnalisés!Bonne écoute les Farouches !***RENTRÉE !!! On vous rappelle qu'on est de retour pour les enregistrements devant public à Montréal le 10 octobre prochain à La Maison du Développement Durable, avec comme invitées la journaliste indépendante Rachel Gilmore et la mairesse de Côte-Des-Neiges et 2e à Projet Montréal Gracia Kasoki Katahwa ! Les billets sont juste ici : https://www.zeffy.com/fr-CA/ticketing/farouches-devant-public?fbclid=PAQ0xDSwM5K0xleHRuA2FlbQIxMQABpzoAMWylMdPXCMznNuOXf9bJ0VSIfm7KFbcu5aRA2uVlJNSZwlgQFFzIbnC3_aem_xTE0GTFFU-P0NvZ5QuOGpQ*** Patreon - https://www.patreon.com/FarouchesBlue Sky - https://bsky.app/profile/farouches.bsky.socialInstagram - https://www.instagram.com/farouches_podcast/TikTok - https://www.tiktok.com/@farouches.podcastFacebook - https://www.facebook.com/groups/1379923395975267/Youtube - https://www.youtube.com/@FarouchespodcastAnimatrices: Coralie LaPerrière ( https://www.instagram.com/anar_coco/ ) etEmna Achour (https://www.instagram.com/emnaachour/ )Arrangement musical du jinggle: Véronique Bilodeau (https://www.instagram.com/veroniquebilodeau/)*** Allez suivre les organisations invitées ! RQ-ACA : https://rq-aca.org/FFQ : https://ffq.qc.ca/
⚠️ Avertissement Le contenu de cette vidéo ne constitue en aucun cas un avis médical. Il est proposé à titre informatif et ne concerne que les troubles du sommeil sans lien avec des problèmes de santé. Cette consultation filmée ne remplace pas l'avis d'un médecin ni un traitement. Le diagnostic et le suivi médical de votre enfant doivent toujours rester une priorité, et il est indispensable de consulter un professionnel de santé qualifié avant de mettre en place tout changement concernant le sommeil de votre enfant. ✨ Dans cet épisode inédit, Caroline Ferriol vous invite au cœur d'une consultation Fée Dodo. On y découvre Assia et Yusuf, des jumeaux de 3 mois, et leurs parents Lucie et Amine, très investis… mais épuisés. Les pleurs sont fréquents, le sommeil difficile et chacun des bébés a ses propres besoins, ses propres réactions. Un vrai défi au quotidien. On parle d'allaitement, de biberons, de sommeil haché et de fatigue parentale… Une consultation riche pour poser les bases d'un sommeil plus serein dès les premières semaines de vie.
Rejoignez la communauté iWeek et soutenez-nous sur patreon.com/iweek !Voici l'épisode 247 d'iWeek (la semaine Apple).AirPods Pro 3, première prise en main, et les nouveaux iPhone Air et 17 / Pro / Pro Max testés à travers le monde.Enregistré en streaming, mardi 23 septembre 2025 à 18h45 sur X, LinkedIn et YouTube.Un épisode chapitré : profitez-en !Présentation : Benjamin Vincent (journaliste, producteur et présentateur de Les Voix de la Tech) avec la participation de Fabrice Neuman (consultant auprès des PME et contributeur à "Comment ça marche").Au sommaire de cet épisode 247 : les nouveaux iPhone Air, iPhone 17, iPhone 17 Pro et iPhone 17 Pro Max sont disponibles depuis quatre jours et nous avons rassemblé les premiers tests effectués à travers le monde pour continuer la découverte en profondeur de ces nouveaux iPhone. Quant aux AirPods Pro 3, nous partageons avec vous notre première prise en main et c'est un carton plein malgré une déception majeure, la non disponibilité en Europe de la fonction de traduction en direct ainsi que de l'option qui permet d'utiliser le micro (bien meilleur) des AirPods Pro 3 avec la caméra de l'iPhone.Le bonus hebdo exclusif est de retour ! Au programme : le succès d'Oura avec ses bagues connectées, un secteur où Apple est absent.Merci à tous nos soutiens Patreon, rejoignez-les et aidez-nous à développer iWeek en cette 6è saison en allant sur patreon.com/iweek.Rendez-vous mardi 30 septembre 2025 à partir de 18h30 (nouvel horaire) en direct sur X, YouTube et LinkedIn Live.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
5 693 cas d'infections respiratoires aiguës enregistrés du 15 au 21 septembre : le port du masque dans les espaces clos et l'adoption des gestes barrières restent primordiaux pour limiter la hausse du nombre de cas. by TOPFM MAURITIUS
Avant Spotify on avait des MP3, et encore avant des CDs, et avant des cassettes... Mais quel a été le premier son à être enregistré, et sur quel support ?Notes de l'épisode :Le son original : https://www.firstsounds.org/sounds/scott.php
Bonjour, nous sommes Thomas, Pierre et Arnaud.Avec Thomas, nous avons parlé de l'obligation d'être parfait. Nous abordons la sécurité sexuelle, la testostérone, l'égoïsme, la drague, les valeurs et les leçons de la vie… sans oublier les patates.« Au Coeur des Hommes », ce sont 3 amis (Pierre, Pascal et Arnaud) qui ont décidé de poser à des copains des questions concernant les rapports amoureux. Depuis le départ de Pascal pour de nouveaux projets incroyables, Thomas a rejoint Pierre et Arnaud pour continuer cette belle aventure.À chaque épisode, nous recevons un nouvel invité et nous abordons un nouveau thème avec bienveillance.Avertissement : Il se peut qu'on dise des choses qui ne plairont pas à tout le monde… mais on va les dire quand-même.Un jeudi sur deux, écoutez nous sur Apple Podcasts – Spotify – Deezer – Podcast Addict – Amazon – Google Podcasts – YouTube (sur le compte de Compagnie Club) – Acast.Tous les liens sont ici : https://linktr.ee/aucoeurdeshommespodcastMerci de nous écouter, abonnez-vous, commentez-nous et partagez-nous !♡Vous pouvez nous rejoindre sur instagram : @aucoeurdeshommespodcastou par mail : aucoeurdeshommespodcast@gmail.com♡Question subsidiaire : qu'est-ce qui te fait sentir imparfait, mais terriblement humain ?—Voir Acast.com/privacy pour les informations sur la vie privée et l'opt-out.Au Coeur des Hommes est un podcast Compagnie Club. Enregistré à Rstlss studio. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans ce 30ième épisode (et le dernier des épisodes estivaux plus “conversationnels”!!), on reçoit Alex Viens alias @grandmeregrunge.Enregistré le 15 juillet 2025, on jase avec notre invité.e de son retour aux études en fin vingtaine, de l'adaptation littéraire au cinéma, du milieu littéraire en général, de la découverte de son identité de genre et de l'écriture inclusive (ou devrait-on dire de l'écriture non-genrée??).Dans la prolongation Patreon (https://www.patreon.com/Farouches ), on parle de la présence/de l'absence des personnalités de gauche dans les grands médias !ET SCOOP WOOT WOOT : On revient avec nos épisodes devant public le 10 octobre à la Maison du Développement Durable. Les billets sont déjà disponibles ! (https://linktr.ee/farouches )Encore un gros MERCI à notre partenaire de ces épisodes Belle et Rebelle (https://belleetrebelle.ca - code promo : FAROUCHES15 )Bonne écoute les Farouches ! Et on a hâte de vous retrouver en vrai !!***Blue Sky - https://bsky.app/profile/farouches.bsky.socialInstagram - https://www.instagram.com/farouches_podcast/TikTok - https://www.tiktok.com/@farouches.podcastFacebook - https://www.facebook.com/groups/1379923395975267/Youtube - https://www.youtube.com/@Farouchespodcast*** Animatrices: Coralie LaPerrière ( https://www.instagram.com/anar_coco/ ) et Emna Achour (https://www.instagram.com/emnaachour/ )Invité.e : Alex Viens (https://www.instagram.com/grandmeregrunge/)Montage : Octave Savoie-Lortie ( https://www.instagram.com/octave.savoielortie/ )Arrangement musical : Véronique Bilodeau ( https://www.instagram.com/veroniquebilodeau/)
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Ce fut un plaisir de recevoir Frank Fournier, co-animateur du podcast Ian et Frank, au Whats Up Podcast. Nous sommes revenus sur la genèse de leur balado, leurs motivations, ainsi que sur le déclin des médias traditionnels. J'en ai profité pour recueillir ses réflexions sur l'avenir de la liberté d'expression, les enjeux et erreurs de la droite, la question du wokisme, ainsi que sa position sur l'indépendance du Québec. Une conversation à la fois lucide et nuancée, qui ne laissera personne indifférent.Enregistré le 15 août 2025.Pour suivre le podcast Ian et Frank :https://www.youtube.com/c/IansénéchalPour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Plongez dans les coulisses de "My All", le hit emblématique de Mariah Carey.Entre rupture, renaissance artistique et nouvelle romance, cette ballade sensuelle raconte un tournant majeur de sa vie.Enregistrée à Porto Rico, inspirée par Derek Jeter, et mise en image par Herb Ritts, "My All" révèle une Mariah libre et audacieuse.Un épisode riche en anecdotes pour redécouvrir ce classique sous un nouveau jour !Notre équipe a utilisé un outil d'Intelligence artificielle via les technologies d'Audiomeans© pour accompagner la création de ce contenu écrit.Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Rejoignez la communauté iWeek et soutenez-nous sur patreon.com/iweek !Voici l'épisode 246 d'iWeek (la semaine Apple).iPhone 17 Pro, iPhone Air, AirPods Pro 3, iOS 26 : nos premières impressions.Enregistré en streaming, mardi 16 septembre 2025 à 18h15 sur X, LinkedIn et YouTube.Un épisode chapitré : profitez-en !Présentation : Benjamin Vincent avec la participation de Gilles Dounès (ex-rédacteur en chef de MacPlus et co-auteur de “iPod backstage“ chez Dunod) et d'Elie Abitbol (ex-président des Apple Premium Resellers en France).Au sommaire de cet épisode 246 : les nouveaux iPhone Air, iPhone 17, iPhone 17 Pro et iPhone 17 Pro Max arrivent ce vendredi. Quant à iOS 26 et à tous les autres OS en version 26, ils sont officiellement disponibles au téléchargement en version finale depuis ce lundi soir. Une semaine après la keynote du 9 septembre, voici nos premières impressions sur le millésime 2025-2026 !Merci à tous nos soutiens Patreon ! Rejoignez-les et aidez-nous à démarrer au mieux cette 6è saison en allant sur patreon.com/iweek. Le bonus exclusif sera de retour, la semaine prochaine !Rendez-vous mardi 23 septembre 2025 à partir de 18h30 (nouvel horaire) pour suivre, en streaming, l'enregistrement du prochain épisode d'iWeek (247) sur X, YouTube et LinkedIn Live.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Thème: la fatigue de l'engagement (et aussi: être punk!) Enregistré devant public le 16 août 2025 au café-bar L'Abstracto de Rouyn-Noranda Au programme Ge, tu, elles : Chier en pleine conscience Rayon X : Qu'on se lève! De la ben belle visite : Marie-Ève Roy et Guillaume Beauregard de Vulgaires Machins Trancher : Qu'est-ce qui est le plus punk? Le plus jeune commence : Ode à la basse Quand pensez-vous : La fatigue de l'engagement et la diversité des tactiques Performance live : Alex Pic offre une surprise à Vulgaires Machins Le moment anti-radio : Qui dit punk, dit tattoo Correspondance : De: Paul-Antoine À: Rouyn-Noranda Cochonneries : Un costco en région? Crédits Animation : Francis Murphy, Geneviève Béland et Paul-Antoine Martel Réalisation : Francis Murphy Narration : Yolette Lévy Image sonore : Bernard Boulanger et Le Carabine Technique : Valentin Foch, Benoit St-Pierre et François Lachappelle Régie et logistique : Stéphanie Poitras Extraits musicaux entendus Léo, Alex Pic C'est une belle journée je crois © 2024 117 Records Valse frustrée, Lou-Adriane Cassidy Triste animal © 2025 Lou-Adriane Cassidy (sous licence exclusive Bravo musique) Qu'on se lève, Jonathan Painchaud Qu'on se lève © 2007 Jonathan Painchaud Asile, Vulgaires Machins Disruption © 2022 Indica Records Golden Bay, Marie-Ève Roy Bleu Nelson © 2016 Marie-Ève Roy Pogné fichu coincé foutu, Réal V. Benoit MC Gilles : les grands classiques © 2010 Réal V. Benoit Je rêve à l'envers (feat. Marie-Ève Roy), Bad Bad Bird Si brutal © 2025 Bad Bad Bird Compter les corps, Vulgaires Machins Compter les corps © 2006 Vulgaires Machins De pluie et de cendres, Guillaume Beauregard D'étoiles, de pluie et de cendres © 2014 Guillaume Beauregard Toujours les vacances, Les Trois Accords & Cœur de pirate Toujours les vacances – Single © 2025 Les Trois Accords / Cœur de pirate Another One Bites the Dust, Queen Greatest Hits © 1981 Queen La ballade des égoïstes, Vulgaires Machins Vingt-quatre quarante © 1998 Vulgaires Machins The Frog Song, Robert Charlebois 50 ans – 50 chansons © 2013 Robert Charlebois Juste une p'tite nuite, Les Colocs Les Colocs © 1993 Les Colocs Détruire, Marmottes Applaties Épisode sanglant © 1999 Marmottes Applaties Oxygène, Diane Dufresne Les grands succès © 1982 Diane Dufresne Bamboula, Les Trois Accords J'aime ta grand-mère © 2012 Les Trois Accords Pourquoi, Marie-Pierre Arthur Marie-Pierre Arthur © 2009 Simone Records Le privé, Michel Rivard Un trou dans les nuages © 1987 Michel Rivard L'homme 7:00 Up, Les Respectables $=Bonheur © 1999 Les Respectables
Katia, Emmanuel et Guillaume discutent Java, Kotlin, Quarkus, Hibernate, Spring Boot 4, intelligence artificielle (modèles Nano Banana, VO3, frameworks agentiques, embedding). On discute les vulnerabilités OWASP pour les LLMs, les personalités de codage des différents modèles, Podman vs Docker, comment moderniser des projets legacy. Mais surtout on a passé du temps sur les présentations de Luc Julia et les différents contre points qui ont fait le buzz sur les réseaux. Enregistré le 12 septembre 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-330.mp3 ou en vidéo sur YouTube. News Langages Dans cette vidéo, José détaille les nouveautés de Java entre Java 21 et 25 https://inside.java/2025/08/31/roadto25-java-language/ Aperçu des nouveautés du JDK 25 : Introduction des nouvelles fonctionnalités du langage Java et des changements à venir [00:02]. Programmation orientée données et Pattern Matching [00:43] : Évolution du “pattern matching” pour la déconstruction des “records” [01:22]. Utilisation des “sealed types” dans les expressions switch pour améliorer la lisibilité et la robustesse du code [01:47]. Introduction des “unnamed patterns” (_) pour indiquer qu'une variable n'est pas utilisée [04:47]. Support des types primitifs dans instanceof et switch (en preview) [14:02]. Conception d'applications Java [00:52] : Simplification de la méthode main [21:31]. Exécution directe des fichiers .java sans compilation explicite [22:46]. Amélioration des mécanismes d'importation [23:41]. Utilisation de la syntaxe Markdown dans la Javadoc [27:46]. Immuabilité et valeurs nulles [01:08] : Problème d'observation de champs final à null pendant la construction d'un objet [28:44]. JEP 513 pour contrôler l'appel à super() et restreindre l'usage de this dans les constructeurs [33:29]. JDK 25 sort le 16 septembre https://openjdk.org/projects/jdk/25/ Scoped Values (JEP 505) - alternative plus efficace aux ThreadLocal pour partager des données immutables entre threads Structured Concurrency (JEP 506) - traiter des groupes de tâches concurrentes comme une seule unité de travail, simplifiant la gestion des threads Compact Object Headers (JEP 519) - Fonctionnalité finale qui réduit de 50% la taille des en-têtes d'objets (de 128 à 64 bits), économisant jusqu'à 22% de mémoire heap Flexible Constructor Bodies (JEP 513) - Relaxation des restrictions sur les constructeurs, permettant du code avant l'appel super() ou this() Module Import Declarations (JEP 511) - Import simplifié permettant d'importer tous les éléments publics d'un module en une seule déclaration Compact Source Files (JEP 512) - Simplification des programmes Java basiques avec des méthodes main d'instance sans classe wrapper obligatoire Primitive Types in Patterns (JEP 455) - Troisième preview étendant le pattern matching et instanceof aux types primitifs dans switch et instanceof Generational Shenandoah (JEP 521) - Le garbage collector Shenandoah passe en mode générationnel pour de meilleures performances JFR Method Timing & Tracing (JEP 520) - Nouvel outillage de profilage pour mesurer le temps d'exécution et tracer les appels de méthodes Key Derivation API (JEP 510) - API finale pour les fonctions de dérivation de clés cryptographiques, remplaçant les implémentations tierces Améliorations du traitement des annotations dans Kotlin 2.2 https://blog.jetbrains.com/idea/2025/09/improved-annotation-handling-in-kotlin-2-2-less-boilerplate-fewer-surprises/ Avant Kotlin 2.2, les annotations sur les paramètres de constructeur n'étaient appliquées qu'au paramètre, pas à la propriété ou au champ Cela causait des bugs subtils avec Spring et JPA où la validation ne fonctionnait qu'à la création d'objet, pas lors des mises à jour La solution précédente nécessitait d'utiliser explicitement @field: pour chaque annotation, créant du code verbeux Kotlin 2.2 introduit un nouveau comportement par défaut qui applique les annotations aux paramètres ET aux propriétés/champs automatiquement Le code devient plus propre sans avoir besoin de syntaxe @field: répétitive Pour l'activer, ajouter -Xannotation-default-target=param-property dans les options du compilateur Gradle IntelliJ IDEA propose un quick-fix pour activer ce comportement à l'échelle du projet Cette amélioration rend l'intégration Kotlin plus fluide avec les frameworks majeurs comme Spring et JPA Le comportement peut être configuré pour garder l'ancien mode ou activer un mode transitoire avec avertissements Cette mise à jour fait partie d'une initiative plus large pour améliorer l'expérience Kotlin + Spring Librairies Sortie de Quarkus 3.26 avec mises à jour d'Hibernate et autres fonctionnalités - https://quarkus.io/blog/quarkus-3-26-released/ mettez à jour vers la 3.26.x car il y a eu une regression vert.x Jalon important vers la version LTS 3.27 prévue fin septembre, basée sur cette version Mise à jour vers Hibernate ORM 7.1, Hibernate Search 8.1 et Hibernate Reactive 3.1 Support des unités de persistance nommées et sources de données dans Hibernate Reactive Démarrage hors ligne et configuration de dialecte pour Hibernate ORM même si la base n'est pas accessible Refonte de la console HQL dans Dev UI avec fonctionnalité Hibernate Assistant intégrée Exposition des capacités Dev UI comme fonctions MCP pour pilotage via outils IA Rafraîchissement automatique des tokens OIDC en cas de réponse 401 des clients REST Extension JFR pour capturer les données runtime (nom app, version, extensions actives) Bump de Gradle vers la version 9.0 par défaut, suppression du support des classes config legacy Guide de démarrage avec Quarkus et A2A Java SDK 0.3.0 (pour faire discuter des agents IA avec la dernière version du protocole A2A) https://quarkus.io/blog/quarkus-a2a-java-0-3-0-alpha-release/ Sortie de l'A2A Java SDK 0.3.0.Alpha1, aligné avec la spécification A2A v0.3.0. Protocole A2A : standard ouvert (Linux Foundation), permet la communication inter-agents IA polyglottes. Version 0.3.0 plus stable, introduit le support gRPC. Mises à jour générales : changements significatifs, expérience utilisateur améliorée (côté client et serveur). Agents serveur A2A : Support gRPC ajouté (en plus de JSON-RPC). HTTP+JSON/REST à venir. Implémentations basées sur Quarkus (alternatives Jakarta existent). Dépendances spécifiques pour chaque transport (ex: a2a-java-sdk-reference-jsonrpc, a2a-java-sdk-reference-grpc). AgentCard : décrit les capacités de l'agent. Doit spécifier le point d'accès primaire et tous les transports supportés (additionalInterfaces). Clients A2A : Dépendance principale : a2a-java-sdk-client. Support gRPC ajouté (en plus de JSON-RPC). HTTP+JSON/REST à venir. Dépendance spécifique pour gRPC : a2a-java-sdk-client-transport-grpc. Création de client : via ClientBuilder. Sélectionne automatiquement le transport selon l'AgentCard et la configuration client. Permet de spécifier les transports supportés par le client (withTransport). Comment générer et éditer des images en Java avec Nano Banana, le “photoshop killer” de Google https://glaforge.dev/posts/2025/09/09/calling-nano-banana-from-java/ Objectif : Intégrer le modèle Nano Banana (Gemini 2.5 Flash Image preview) dans des applications Java. SDK utilisé : GenAI Java SDK de Google. Compatibilité : Supporté par ADK for Java ; pas encore par LangChain4j (limitation de multimodalité de sortie). Capacités de Nano Banana : Créer de nouvelles images. Modifier des images existantes. Assembler plusieurs images. Mise en œuvre Java : Quelle dépendance utiliser Comment s'authentifier Comment configurer le modèle Nature du modèle : Nano Banana est un modèle de chat qui peut retourner du texte et une image (pas simplement juste un modèle générateur d'image) Exemples d'utilisation : Création : Via un simple prompt textuel. Modification : En passant l'image existante (tableau de bytes) et les instructions de modification (prompt). Assemblage : En passant plusieurs images (en bytes) et les instructions d'intégration (prompt). Message clé : Toutes ces fonctionnalités sont accessibles en Java, sans nécessiter Python. Générer des vidéos IA avec le modèle Veo 3, mais en Java ! https://glaforge.dev/posts/2025/09/10/generating-videos-in-java-with-veo3/ Génération de vidéos en Java avec Veo 3 (via le GenAI Java SDK de Google). Veo 3: Annoncé comme GA, prix réduits, support du format 9:16, résolution jusqu'à 1080p. Création de vidéos : À partir d'une invite textuelle (prompt). À partir d'une image existante. Deux versions différentes du modèle : veo-3.0-generate-001 (qualité supérieure, plus coûteux, plus lent). veo-3.0-fast-generate-001 (qualité inférieure, moins coûteux, mais plus rapide). Rod Johnson sur ecrire des aplication agentic en Java plus facilement qu'en python avec Embabel https://medium.com/@springrod/you-can-build-better-ai-agents-in-java-than-python-868eaf008493 Rod the papa de Spring réécrit un exemple CrewAI (Python) qui génère un livre en utilisant Embabel (Java) pour démontrer la supériorité de Java L'application utilise plusieurs agents AI spécialisés : un chercheur, un planificateur de livre et des rédacteurs de chapitres Le processus suit trois étapes : recherche du sujet, création du plan, rédaction parallèle des chapitres puis assemblage CrewAI souffre de plusieurs problèmes : configuration lourde, manque de type safety, utilisation de clés magiques dans les prompts La version Embabel nécessite moins de code Java que l'original Python et moins de fichiers de configuration YAML Embabel apporte la type safety complète, éliminant les erreurs de frappe dans les prompts et améliorant l'outillage IDE La gestion de la concurrence est mieux contrôlée en Java pour éviter les limites de débit des APIs LLM L'intégration avec Spring permet une configuration externe simple des modèles LLM et hyperparamètres Le planificateur Embabel détermine automatiquement l'ordre d'exécution des actions basé sur leurs types requis L'argument principal : l'écosystème JVM offre un meilleur modèle de programmation et accès à la logique métier existante que Python Il y a pas mal de nouveaux framework agentic en Java, notamment le dernier LAngchain4j Agentic Spring lance un serie de blog posts sur les nouveautés de Spring Boot 4 https://spring.io/blog/2025/09/02/road_to_ga_introduction baseline JDK 17 mais rebase sur Jakarta 11 Kotlin 2, Jackson 3 et JUnit 6 Fonctionnalités de résilience principales de Spring : @ConcurrencyLimit, @Retryable, RetryTemplate Versioning d'API dans Spring Améliorations du client de service HTTP L'état des clients HTTP dans Spring Introduction du support Jackson 3 dans Spring Consommateur partagé - les queues Kafka dans Spring Kafka Modularisation de Spring Boot Autorisation progressive dans Spring Security Spring gRPC - un nouveau module Spring Boot Applications null-safe avec Spring Boot 4 OpenTelemetry avec Spring Boot Repos Ahead of Time (Partie 2) Web Faire de la recherche sémantique directement dans le navigateur en local, avec EmbeddingGemma et Transformers.js https://glaforge.dev/posts/2025/09/08/in-browser-semantic-search-with-embeddinggemma/ EmbeddingGemma: Nouveau modèle d'embedding (308M paramètres) de Google DeepMind. Objectif: Permettre la recherche sémantique directement dans le navigateur. Avantages clés de l'IA côté client: Confidentialité: Aucune donnée envoyée à un serveur. Coûts réduits: Pas besoin de serveurs coûteux (GPU), hébergement statique. Faible latence: Traitement instantané sans allers-retours réseau. Fonctionnement hors ligne: Possible après le chargement initial du modèle. Technologie principale: Modèle: EmbeddingGemma (petit, performant, multilingue, support MRL pour réduire la taille des vecteurs). Moteur d'inférence: Transformers.js de HuggingFace (exécute les modèles AI en JavaScript dans le navigateur). Déploiement: Site statique avec Vite/React/Tailwind CSS, déployé sur Firebase Hosting via GitHub Actions. Gestion du modèle: Fichiers du modèle trop lourds pour Git; téléchargés depuis HuggingFace Hub pendant le CI/CD. Fonctionnement de l'app: Charge le modèle, génère des embeddings pour requêtes/documents, calcule la similarité sémantique. Conclusion: Démonstration d'une recherche sémantique privée, économique et sans serveur, soulignant le potentiel de l'IA embarquée dans le navigateur. Data et Intelligence Artificielle Docker lance Cagent, une sorte de framework multi-agent IA utilisant des LLMs externes, des modèles de Docker Model Runner, avec le Docker MCP Tookit. Il propose un format YAML pour décrire les agents d'un système multi-agents. https://github.com/docker/cagent des agents “prompt driven” (pas de code) et une structure pour decrire comment ils sont deployés pas clair comment ils sont appelés a part dans la ligne de commande de cagent fait par david gageot L'owasp décrit l'independance excessive des LLM comme une vulnerabilité https://genai.owasp.org/llmrisk2023-24/llm08-excessive-agency/ L'agence excessive désigne la vulnérabilité qui permet aux systèmes LLM d'effectuer des actions dommageables via des sorties inattendues ou ambiguës. Elle résulte de trois causes principales : fonctionnalités excessives, permissions excessives ou autonomie excessive des agents LLM. Les fonctionnalités excessives incluent l'accès à des plugins qui offrent plus de capacités que nécessaire, comme un plugin de lecture qui peut aussi modifier ou supprimer. Les permissions excessives se manifestent quand un plugin accède aux systèmes avec des droits trop élevés, par exemple un accès en lecture qui inclut aussi l'écriture. L'autonomie excessive survient quand le système effectue des actions critiques sans validation humaine préalable. Un scénario d'attaque typique : un assistant personnel avec accès email peut être manipulé par injection de prompt pour envoyer du spam via la boîte de l'utilisateur. La prévention implique de limiter strictement les plugins aux fonctions minimales nécessaires pour l'opération prévue. Il faut éviter les fonctions ouvertes comme “exécuter une commande shell” au profit d'outils plus granulaires et spécifiques. L'application du principe de moindre privilège est cruciale : chaque plugin doit avoir uniquement les permissions minimales requises. Le contrôle humain dans la boucle reste essentiel pour valider les actions à fort impact avant leur exécution. Lancement du MCP registry, une sorte de méta-annuaire officiel pour référencer les serveurs MCP https://www.marktechpost.com/2025/09/09/mcp-team-launches-the-preview-version-of-the-mcp-registry-a-federated-discovery-layer-for-enterprise-ai/ MCP Registry : Couche de découverte fédérée pour l'IA d'entreprise. Fonctionne comme le DNS pour le contexte de l'IA, permettant la découverte de serveurs MCP publics ou privés. Modèle fédéré : Évite les risques de sécurité et de conformité d'un registre monolithique. Permet des sous-registres privés tout en conservant une source de vérité “upstream”. Avantages entreprises : Découverte interne sécurisée. Gouvernance centralisée des serveurs externes. Réduction de la prolifération des contextes. Support pour les agents IA hybrides (données privées/publiques). Projet open source, actuellement en version preview. Blog post officiel : https://blog.modelcontextprotocol.io/posts/2025-09-08-mcp-registry-preview/ Exploration des internals du transaction log SQL Server https://debezium.io/blog/2025/09/08/sqlserver-tx-log/ C'est un article pour les rugeux qui veulent savoir comment SQLServer marche à l'interieur Debezium utilise actuellement les change tables de SQL Server CDC en polling périodique L'article explore la possibilité de parser directement le transaction log pour améliorer les performances Le transaction log est divisé en Virtual Log Files (VLFs) utilisés de manière circulaire Chaque VLF contient des blocs (512B à 60KB) qui contiennent les records de transactions Chaque record a un Log Sequence Number (LSN) unique pour l'identifier précisément Les données sont stockées dans des pages de 8KB avec header de 96 bytes et offset array Les tables sont organisées en partitions et allocation units pour gérer l'espace disque L'utilitaire DBCC permet d'explorer la structure interne des pages et leur contenu Cette compréhension pose les bases pour parser programmatiquement le transaction log dans un prochain article Outillage Les personalités des codeurs des différents LLMs https://www.sonarsource.com/blog/the-coding-personalities-of-leading-llms-gpt-5-update/ GPT-5 minimal ne détrône pas Claude Sonnet 4 comme leader en performance fonctionnelle malgré ses 75% de réussite GPT-5 génère un code extrêmement verbeux avec 490 000 lignes contre 370 000 pour Claude Sonnet 4 sur les mêmes tâches La complexité cyclomatique et cognitive du code GPT-5 est dramatiquement plus élevée que tous les autres modèles GPT-5 introduit 3,90 problèmes par tâche réussie contre seulement 2,11 pour Claude Sonnet 4 Point fort de GPT-5 : sécurité exceptionnelle avec seulement 0,12 vulnérabilité par 1000 lignes de code Faiblesse majeure : densité très élevée de “code smells” (25,28 par 1000 lignes) nuisant à la maintenabilité GPT-5 produit 12% de problèmes liés à la complexité cognitive, le taux le plus élevé de tous les modèles Tendance aux erreurs logiques fondamentales avec 24% de bugs de type “Control-flow mistake” Réapparition de vulnérabilités classiques comme les failles d'injection et de traversée de chemin Nécessité d'une gouvernance renforcée avec analyse statique obligatoire pour gérer la complexité du code généré Pourquoi j'ai abandonné Docker pour Podman https://codesmash.dev/why-i-ditched-docker-for-podman-and-you-should-too Problème Docker : Le daemon dockerd persistant s'exécute avec des privilèges root, posant des risques de sécurité (nombreuses CVEs citées) et consommant des ressources inutilement. Solution Podman : Sans Daemon : Pas de processus d'arrière-plan persistant. Les conteneurs s'exécutent comme des processus enfants de la commande Podman, sous les privilèges de l'utilisateur. Sécurité Renforcée : Réduction de la surface d'attaque. Une évasion de conteneur compromet un utilisateur non privilégié sur l'hôte, pas le système entier. Mode rootless. Fiabilité Accrue : Pas de point de défaillance unique ; le crash d'un conteneur n'affecte pas les autres. Moins de Ressources : Pas de daemon constamment actif, donc moins de mémoire et de CPU. Fonctionnalités Clés de Podman : Intégration Systemd : Génération automatique de fichiers d'unité systemd pour gérer les conteneurs comme des services Linux standards. Alignement Kubernetes : Support natif des pods et capacité à générer des fichiers Kubernetes YAML directement (podman generate kube), facilitant le développement local pour K8s. Philosophie Unix : Se concentre sur l'exécution des conteneurs, délègue les tâches spécialisées à des outils dédiés (ex: Buildah pour la construction d'images, Skopeo pour leur gestion). Migration Facile : CLI compatible Docker : podman utilise les mêmes commandes que docker (alias docker=podman fonctionne). Les Dockerfiles existants sont directement utilisables. Améliorations incluses : Sécurité par défaut (ports privilégiés en mode rootless), meilleure gestion des permissions de volume, API Docker compatible optionnelle. Option de convertir Docker Compose en Kubernetes YAML. Bénéfices en Production : Sécurité améliorée, utilisation plus propre des ressources. Podman représente une évolution plus sécurisée et mieux alignée avec les pratiques modernes de gestion Linux et de déploiement de conteneurs. Guide Pratique (Exemple FastAPI) : Le Dockerfile ne change pas. podman build et podman run remplacent directement les commandes Docker. Déploiement en production via Systemd. Gestion d'applications multi-services avec les “pods” Podman. Compatibilité Docker Compose via podman-compose ou kompose. Détection améliorée des APIs vulnérables dans les IDEs JetBrains et Qodana - https://blog.jetbrains.com/idea/2025/09/enhanced-vulnerable-api-detection-in-jetbrains-ides-and-qodana/ JetBrains s'associe avec Mend.io pour renforcer la sécurité du code dans leurs outils Le plugin Package Checker bénéficie de nouvelles données enrichies sur les APIs vulnérables Analyse des graphes d'appels pour couvrir plus de méthodes publiques des bibliothèques open-source Support de Java, Kotlin, C#, JavaScript, TypeScript et Python pour la détection de vulnérabilités Activation des inspections via Paramètres > Editor > Inspections en recherchant “Vulnerable API” Surlignage automatique des méthodes vulnérables avec détails des failles au survol Action contextuelle pour naviguer directement vers la déclaration de dépendance problématique Mise à jour automatique vers une version non affectée via Alt+Enter sur la dépendance Fenêtre dédiée “Vulnerable Dependencies” pour voir l'état global des vulnérabilités du projet Méthodologies Le retour de du sondage de Stack Overflow sur l'usage de l'IA dans le code https://medium.com/@amareshadak/stack-overflow-just-exposed-the-ugly-truth-about-ai-coding-tools-b4f7b5992191 84% des développeurs utilisent l'IA quotidiennement, mais 46% ne font pas confiance aux résultats. Seulement 3,1% font “hautement confiance” au code généré. 66% sont frustrés par les solutions IA “presque correctes”. 45% disent que déboguer le code IA prend plus de temps que l'écrire soi-même. Les développeurs seniors (10+ ans) font moins confiance à l'IA (2,6%) que les débutants (6,1%), créant un écart de connaissances dangereux. Les pays occidentaux montrent moins de confiance - Allemagne (22%), UK (23%), USA (28%) - que l'Inde (56%). Les créateurs d'outils IA leur font moins confiance. 77% des développeurs professionnels rejettent la programmation en langage naturel, seuls 12% l'utilisent réellement. Quand l'IA échoue, 75% se tournent vers les humains. 35% des visites Stack Overflow concernent maintenant des problèmes liés à l'IA. 69% rapportent des gains de productivité personnels, mais seulement 17% voient une amélioration de la collaboration d'équipe. Coûts cachés : temps de vérification, explication du code IA aux équipes, refactorisation et charge cognitive constante. Les plateformes humaines dominent encore : Stack Overflow (84%), GitHub (67%), YouTube (61%) pour résoudre les problèmes IA. L'avenir suggère un “développement augmenté” où l'IA devient un outil parmi d'autres, nécessitant transparence et gestion de l'incertitude. Mentorat open source et défis communautaires par les gens de Microcks https://microcks.io/blog/beyond-code-open-source-mentorship/ Microcks souffre du syndrome des “utilisateurs silencieux” qui bénéficient du projet sans contribuer Malgré des milliers de téléchargements et une adoption croissante, l'engagement communautaire reste faible Ce manque d'interaction crée des défis de durabilité et limite l'innovation du projet Les mainteneurs développent dans le vide sans feedback des vrais utilisateurs Contribuer ne nécessite pas de coder : documentation, partage d'expérience, signalement de bugs suffisent Parler du project qu'on aime autour de soi est aussi super utile Microcks a aussi des questions specifiques qu'ils ont posé dans le blog, donc si vous l'utilisez, aller voir Le succès de l'open source dépend de la transformation des utilisateurs en véritables partenaires communautaires c'est un point assez commun je trouve, le ratio parlant / silencieux est tres petit et cela encourage les quelques grandes gueules La modernisation du systemes legacy, c'est pas que de la tech https://blog.scottlogic.com/2025/08/27/holistic-approach-successful-legacy-modernisation.html Un artcile qui prend du recul sur la modernisation de systemes legacy Les projets de modernisation legacy nécessitent une vision holistique au-delà du simple focus technologique Les drivers business diffèrent des projets greenfield : réduction des coûts et mitigation des risques plutôt que génération de revenus L'état actuel est plus complexe à cartographier avec de nombreuses dépendances et risques de rupture Collaboration essentielle entre Architectes, Analystes Business et Designers UX dès la phase de découverte Approche tridimensionnelle obligatoire : Personnes, Processus et Technologie (comme un jeu d'échecs 3D) Le leadership doit créer l'espace nécessaire pour la découverte et la planification plutôt que presser l'équipe Communication en termes business plutôt que techniques vers tous les niveaux de l'organisation Planification préalable essentielle contrairement aux idées reçues sur l'agilité Séquencement optimal souvent non-évident et nécessitant une analyse approfondie des interdépendances Phases projet alignées sur les résultats business permettent l'agilité au sein de chaque phase Sécurité Cyber Attaque su Musée Histoire Naturelle https://www.franceinfo.fr/internet/securite-sur-internet/cyberattaques/le-museum-nati[…]e-d-une-cyberattaque-severe-une-plainte-deposee_7430356.html Compromission massive de packages npm populaires par un malware crypto https://www.aikido.dev/blog/npm-debug-and-chalk-packages-compromised 18 packages npm très populaires compromis le 8 septembre 2025, incluant chalk, debug, ansi-styles avec plus de 2 milliards de téléchargements hebdomadaires combinés duckdb s'est rajouté à la liste Code malveillant injecté qui intercepte silencieusement l'activité crypto et web3 dans les navigateurs des utilisateurs Le malware manipule les interactions de wallet et redirige les paiements vers des comptes contrôlés par l'attaquant sans signes évidents Injection dans les fonctions critiques comme fetch, XMLHttpRequest et APIs de wallets (window.ethereum, Solana) pour intercepter le trafic Détection et remplacement automatique des adresses crypto sur multiple blockchains (Ethereum, Bitcoin, Solana, Tron, Litecoin, Bitcoin Cash) Les transactions sont modifiées en arrière-plan même si l'interface utilisateur semble correcte et légitime Utilise des adresses “sosies” via correspondance de chaînes pour rendre les échanges moins évidents à détecter Le mainteneur compromis par email de phishing provenant du faux domaine “mailto:support@npmjs.help|support@npmjs.help” enregistré 3 jours avant l'attaque sur une demande de mise a jour de son autheotnfication a deux facteurs après un an Aikido a alerté le mainteneur via Bluesky qui a confirmé la compromission et commencé le nettoyage des packages Attaque sophistiquée opérant à plusieurs niveaux: contenu web, appels API et manipulation des signatures de transactions Les anti-cheats de jeux vidéo : une faille de sécurité majeure ? - https://tferdinand.net/jeux-video-et-si-votre-anti-cheat-etait-la-plus-grosse-faille/ Les anti-cheats modernes s'installent au Ring 0 (noyau système) avec privilèges maximaux Ils obtiennent le même niveau d'accès que les antivirus professionnels mais sans audit ni certification Certains exploitent Secure Boot pour se charger avant le système d'exploitation Risque de supply chain : le groupe APT41 a déjà compromis des jeux comme League of Legends Un attaquant infiltré pourrait désactiver les solutions de sécurité et rester invisible Menace de stabilité : une erreur peut empêcher le démarrage du système (référence CrowdStrike) Conflits possibles entre différents anti-cheats qui se bloquent mutuellement Surveillance en temps réel des données d'utilisation sous prétexte anti-triche Dérive dangereuse selon l'auteur : des entreprises de jeux accèdent au niveau EDR Alternatives limitées : cloud gaming ou sandboxing avec impact sur performances donc faites gaffe aux jeux que vos gamins installent ! Loi, société et organisation Luc Julia au Sénat - Monsieur Phi réagi et publie la vidéo Luc Julia au Sénat : autopsie d'un grand N'IMPORTE QUOI https://www.youtube.com/watch?v=e5kDHL-nnh4 En format podcast de 20 minutes, sorti au même moment et à propos de sa conf à Devoxx https://www.youtube.com/watch?v=Q0gvaIZz1dM Le lab IA - Jérôme Fortias - Et si Luc Julia avait raison https://www.youtube.com/watch?v=KScI5PkCIaE Luc Julia au Senat https://www.youtube.com/watch?v=UjBZaKcTeIY Luc Julia se défend https://www.youtube.com/watch?v=DZmxa7jJ8sI Intelligence artificielle : catastrophe imminente ? - Luc Julia vs Maxime Fournes https://www.youtube.com/watch?v=sCNqGt7yIjo Tech and Co Monsieur Phi vs Luc Julia (put a click) https://www.youtube.com/watch?v=xKeFsOceT44 La tronche en biais https://www.youtube.com/live/zFwLAOgY0Wc Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online 22-24 septembre 2025 : Kernel Recipes - Paris (France) 22-27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23-24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25-26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025-1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6-7 octobre 2025 : Swift Connection 2025 - Paris (France) 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7-8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8-10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9-10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16-17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17-19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 5-6 novembre 2025 : Tech Show Paris - Paris (France) 5-6 novembre 2025 : Red Hat Summit: Connect Paris 2025 - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19-21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9-11 décembre 2025 : APIdays Paris - Paris (France) 9-11 décembre 2025 : Green IO Paris - Paris (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) 4 septembre 2026 : JUG SUmmer Camp 2026 - La Rochelle (France) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
durée : 00:30:33 - Les Nuits de France Culture - par : Albane Penaranda - À l'occasion du premier concert consacré en France à la musique d'Arvo Pärt, Daniel Caux avait consacré une émission en deux parties au compositeur estonien. Le second volet propose d'entendre la dernière partie de l'enregistrement de ce concert qui se terminait par "Tabula Rasa". - réalisation : Virginie Mourthé - invités : Arvo Pärt Compositeur estonien (Paide, 1935-); Gavin Bryars Compositeur
Enregistrée en public dans une ambiance conviviale depuis le centre culturel de Chiroux à Liège, et en partenariat avec le Festival International du rire de Liège, l'émission reçoit ce dimanche Nicolas Lacroix. L'humoriste, connu pour son énergie débordante et son sens de l'autodérision, se prêtera au jeu des questions décalées et des séquences cultes qui font le succès des Enfants de chœur. Merci pour votre écoute Les Enfants de Choeurs, c'est également en direct tous les matins de la semaine vers 8h15 sur www.rtbf.be/vivacité Retrouvez tous les épisodes des Enfants de Choeur sur notre plateforme Auvio.be https://auvio.rtbf.be/emission/les-enfants-de-ch-ur-19357 Et si vous avez apprécié ce podcast, n'hésitez pas à nous donner des étoiles ou des commentaires, cela nous aide à le faire connaître plus largement. Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Un grand merci à Vincent Geloso, économiste senior à l'Institut économique de Montréal et professeur à George Mason University, pour sa participation. Il est venu clarifier les principes de la pensée libérale (à ne pas confondre avec le Parti libéral). Durant près de trois heures, il a démontré comment l'interventionnisme de l'état aggrave souvent les problèmes qu'il cherche à résoudre. Son analyse a offert plusieurs pistes concrètes pour stimuler la prospérité économique du Québec. Aussi celle de comment réaliser l'indépendance du Québec !Enregistré le 13 août 2025.Pour vous procurer le livre de Vincent Geloso : Autour du Libéralisme en 80 idées, cliquez ici :https://a.co/d/hMH8u5gPour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
✨ Dans cet épisode inédit, Caroline Ferriol vous invite au cœur d'une consultation Fée Dodo.On y rencontre Nathalie, une jeune maman épuisée, et son petit Eden, 5 mois, qui refuse catégoriquement de s'endormir dans son lit. Les siestes se font uniquement en poussette ou dans les bras, les pleurs sont systématiques dès qu'on le pose, et la transition allaitement/biberon est compliquée.Une consultation pleine de tendresse, pour aider cette famille à retrouver un quotidien plus serein. On parle de portage, d'allaitement, de pleurs, de transitions… et surtout de solutions concrètes pour accompagner Eden vers l'endormissement autonome, dans son lit.
Infections respiratoires : 4641 cas enregistrés en une semaine by TOPFM MAURITIUS
Le public ayant toujours de bonnes questions, voici les échanges que nous avons après l'interview avec la salle, pour approfondir la question de l'amour inter-culturel.Cet épisode s'inscrit dans une série imaginée avec les Alliances Françaises d'Amérique latine, autour du thème : la rencontre interculturelle. Comment naît l'amour quand on ne parle pas la même langue et qu'on vient de cultures et de pays différents ?Enregistré en public à l'Alliance Française de Barranquilla le 10 juillet dernier, cet épisode fait partie de ma tournée latino-américaine. Pendant six mois, je voyage en famille avec Crush dans mon sac à dos, enregistrant en live des histoires d'amour interculturelles au Mexique, au Guatemala, au Salvador, au Costa Rica et en Colombie. Sur scène, des couples franco-latinos-américains racontent leur rencontre, entre chocs culturels et quiproquos linguistiques.Ce projet est soutenu par l'Institut Français, sous tutelle du Ministère de l'Europe et des Affaires étrangères et du Ministère de la Culture, qui soutient à travers le monde la promotion de la langue française, la circulation des œuvres, des artistes et des idées et favorise ainsi une meilleure compréhension des enjeux culturels.À l'origine de cette tournée : l'Alliance Française de Medellín, en Colombie, moteur engagé du dialogue culturel entre la France et l'Amérique latine.Crush est le podcast qui explore la magie des premiers jours des histoires d'amour, la rencontre amoureuse, pour t'aider à comprendre et vivre mieux tes émotions et relations amoureuses. Il y a mille et une façons d'aimer, et je compte bien toutes les montrer.
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)J'ai reçu avec plaisir Benjamin Tremblay, analyste en géopolitique chez 7 Jours sur Terre. Il nous éclaire sur les politiques tarifaires de Donald Trump, l'imposition du dollar américain à l'échelle mondiale, la chute des médias et ses effets sur la culture québécoise. On aborde aussi le programme D.O.G.E., les guerres du futur et ainsi qu'une réflexion lucide sur les dysfonctionnements du modèle fédéral canadien . Un échange dense et éclairant. Bonne écoute !Enregistré le 7 août 2025.Pour suivre la chaîne de @7jourssurTerre cliquez iciPour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Dans ce 28ième épisode de Farouches, on reçoit Karine Côté-Andreetti, autrice du livre Ports d'attache, maman, conférencière et journaliste.Enregistrée le 14 juillet 2025, on jase entre autres de maternité et d'éducation sans-écran, de la différence entre un réseau et une communauté, on parle de l'importance de prendre soin et de la réparation dans nos relations et on se demande si c'est aux femmes et aux personnes nées femmes de régler l'épidémie de solitude masculine ?Dans la prolongation Patreon - https://www.patreon.com/Farouches - on répond aux questions “Qu'est-ce qu'on fait des gens qui ne pensent pas comme nous ? Et à quoi ça sert des privilèges dans les conflits ?”Merci à notre commanditaire Belle et Rebelle ( https://belleetrebelle.ca - code promo : FAROUCHES15 ) !!Bonne écoute les Farouches !*** Blue Sky - https://bsky.app/profile/farouches.bsky.socialInstagram - https://www.instagram.com/farouches_podcast/TikTok - https://www.tiktok.com/@farouches.podcastFacebook - https://www.facebook.com/groups/1379923395975267/Youtube - https://www.youtube.com/@Farouchespodcast***Animatrices: Coralie LaPerrière ( https://www.instagram.com/anar_coco/ ) etEmna Achour (https://www.instagram.com/emnaachour/ )Invitée : Karine Côté-Andreetti ( https://www.instagram.com/karineca/ )*** Montage : Octave Savoie-Lortie (https://www.instagram.com/octave.savoielortie/ )Arrangement musical : Véronique Bilodeau (https://www.instagram.com/veroniquebilodeau/)
Rejoignez la communauté iWeek et soutenez-nous sur patreon.com/iweek !Voici l'épisode 244 d'iWeek (la semaine Apple).Keynote iPhone 17 : toutes les rumeurs avant le 9 septembre.Enregistré en streaming, mardi 2 septembre 2025 à 18h30 sur X et YouTube.Un épisode chapitré : profitez-en !Présentation : Benjamin Vincent avec la participation de Gilles Dounès (ex-rédacteur en chef de MacPlus et co-auteur de “iPod backstage“ chez Dunod), Elie Abitbol (ex-président des Apple Premium Resellers en France) et François Le Truédic (formateur et enseignant).Au sommaire de cet épisode 244 : les toutes dernières rumeurs avant la keynote Apple du 9 septembre 2025 sur la gamme iPhone 17 et notamment le nouvel iPad 17 Air et les nouveaux iPhone 17 Pro et Pro Max ; les probables AirPods Pro 3 ; peut-être le nouvel Apple TV 4K ; les potentiels AirTag 2 ; et enfin les nouvelles Apple Watch : Apple Watch Series 11, Apple Watch SE et Apple Watch Ultra 3 !Trois infos de la semaine au sommaire du bonus hebdo exclusif réservé à nos soutiens Patreon, notamment l'arrivée de CarPlay Ultra sur une voiture Hyundai à “seulement“ 35.000 $ : ça change des Aston Martin ! Merci à tous nos soutiens Patreon, rejoignez-les et aidez-nous à démarrer au mieux cette 6è saison en allant sur patreon.com/iweek.Rendez-vous mardi 9 septembre 2025 à partir de 18h30 (nouvel horaire) pour suivre, avec nous, la keynote Apple en direct sur X, YouTube et LinkedIn Live.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Du Limousin à Barranquilla, il n'y a qu'un pas… celui d'une danse qui a tout changé lors du célèbre carnaval colombien à Barranquilla. Gwendoline vient de la campagne française, Jean des rues vibrantes de la côte caraïbe… Dans le tumulte de la fête, leurs regards s'accrochent puis leurs corps se rapprochent. Ce qui semblait léger devient vite une évidence. Comment leur complicité s'est-elle développée au-delà de leurs différences culturelles ?Cet épisode s'inscrit dans une série imaginée avec les Alliances Françaises d'Amérique latine, autour du thème : la rencontre interculturelle. Comment naît l'amour quand on ne parle pas la même langue et qu'on vient de cultures et de pays différents ?Enregistré en public à l'Alliance Française de Barranquilla le 10 juillet dernier, cet épisode fait partie de ma tournée latino-américaine. Pendant six mois, je voyage en famille avec Crush dans mon sac à dos, enregistrant en live des histoires d'amour interculturelles au Mexique, au Guatemala, au Salvador, au Costa Rica et en Colombie. Sur scène, des couples franco-latinos-américains racontent leur rencontre, entre chocs culturels et quiproquos linguistiques.Ce projet est soutenu par l'Institut Français, sous tutelle du Ministère de l'Europe et des Affaires étrangères et du Ministère de la Culture, qui soutient à travers le monde la promotion de la langue française, la circulation des œuvres, des artistes et des idées et favorise ainsi une meilleure compréhension des enjeux culturels.À l'origine de cette tournée : l'Alliance Française de Medellín, en Colombie, moteur engagé du dialogue culturel entre la France et l'Amérique latine.Crush est le podcast qui explore la magie des premiers jours des histoires d'amour, la rencontre amoureuse, pour t'aider à comprendre et vivre mieux tes émotions et relations amoureuses. Il y a mille et une façons d'aimer, et je compte bien toutes les montrer.
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Un ex-criminel avec un contrat d'un million sur sa tête, 12 ans dans le crime, et 4 peines de prison à son actif. C-44 n'a rien d'un invité ordinaire. Après avoir fait sensation sur plusieurs balados en racontant son parcours, il revient cette fois dans un épisode complémentaire qui va encore plus loin. Il y dévoile les coulisses du gang de l'Ouest (l'un des réseaux les plus influents dans l'importation de stupéfiants au Canada), tout en mettant en lumière l'histoire méconnue de certains des plus grands criminels du Québec. Le tout, enrichi d'une plongée dans la psychologie des criminels et d'une réflexion sur les enjeux socio-politiques du crime organisé. Un épisode saisissant, entre révélations chocs et analyse en profondeur.Enregistré le 31 juillet 2025.Pour vous procurez le livre A1, l'invisible :https://a.co/d/5T39pcTPour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Julien Bernatchez nous livre avec sincérité son parcours bouleversant : vivre avec une cirrhose du foie, affronter la perspective de la mort, survivre à une greffe et réapprendre à vivre avec gratitude. Entre confidences touchantes et humour noir, il revient sur son combat contre l'alcoolisme et la seconde chance qui a transformé sa vie, au studio du Whats Up Podcast.Enregistré le 23 juillet 2025.Pour suivre Julien sur les réseaux sociaux :https://www.instagram.com/julienbernatchezhttps://www.facebook.com/julien.bernatchez.3Pour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Montréal s'effondre sous le poids de ses propres crises : logement hors de prix, congestion routière, sentiment d'insécurité généralisé, explosion de l'itinérance, insalubrité à ciel ouvert… la métropole semble perdre pied. Dans ce contexte inquiétant, j'ai eu le plaisir de recevoir Gilbert Thibodeau, candidat à la mairie pour les prochaines élections municipales. Avec lucidité mais aussi espoir, il dresse un portrait réaliste de la situation et partage ses solutions concrètes pour redonner un second souffle à la plus grande ville francophone d'Amérique.Enregistré le 17 juin 2025.Pour suivre Gilbert et sa campagne : https://www.actionmontreal.ca/candidats/gilbert-thibodeau/Pour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
La Grande Barrière de corail subit le plus grand blanchissement de son histoire, a alerté le gouvernement dans un rapport publié ce mercredi. Les scientifiques ont rapporté le blanchissement "le plus étendu" provoqué par des températures océaniques étouffantes en 2024 qui ont engendré "des niveaux de stress thermique sans précédent" depuis les premiers relevés, il y a près de 40 ans. La "cause numéro un" de ce blanchissement "est le changement climatique", assure l'institut australien des sciences marines.
Jeu de Rôle ou Jeu de Société? ♟️ Action Bonus (enregistré au FLIM) by
Le public ayant toujours de bonnes questions, voici les échanges que nous avons avec la salle après l'interview, pour approfondir la question de l'amour inter-culturel.Cet épisode s'inscrit dans une série imaginée avec les Alliances Françaises d'Amérique latine, autour du thème : la rencontre interculturelle. Comment naît l'amour quand on ne parle pas la même langue et qu'on vient de cultures et de pays différents ?Enregistré en public à l'Alliance Française de San José le 20 mai dernier, cet épisode fait partie de ma tournée latino-américaine. Pendant six mois, je voyage en famille avec Crush dans mon sac à dos, enregistrant en live des histoires d'amour interculturelles au Mexique, au Guatemala, au Salvador, au Costa Rica et en Colombie. Sur scène, des couples franco-latinos-américains racontent leur rencontre, entre chocs culturels et quiproquos linguistiques.Ce projet est soutenu par l'Institut Français, sous tutelle du Ministère de l'Europe et des Affaires étrangères et du Ministère de la Culture, qui soutient à travers le monde la promotion de la langue française, la circulation des œuvres, des artistes et des idées et favorise ainsi une meilleure compréhension des enjeux culturels.À l'origine de cette tournée : l'Alliance Française de Medellín, en Colombie, moteur engagé du dialogue culturel entre la France et l'Amérique latine.Crush est le podcast qui explore la magie des premiers jours des histoires d'amour, la rencontre amoureuse, pour t'aider à comprendre et vivre mieux tes émotions et relations amoureuses. Il y a mille et une façons d'aimer, et je compte bien toutes les montrer.
https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Des Canadiens enfermés dans leur condition socioéconomique, une première génération plus pauvre que celle de leurs parents, un accès à la propriété devenu presque impossible — voilà le sombre portrait dressé par le rapport Horizon 40. Ce document gouvernemental trace les contours d'un avenir de plus en plus précaire pour la population, si aucune mesure n'est prise. Merci à mon ami Gabriel Fortin (JOS Finance) d'être venu vulgariser ces enjeux complexes et nous aider à mieux comprendre les conséquences de ce rapport.Enregistré le 19 juin 2025.Pour suivre Jos Finance : https://www.youtube.com/@JosFinancePour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Tout juste installée au Costa Rica pour enseigner le français à l'Alliance Française de San José, Amandine croise le regard d'Andres, un de ses élèves élèves costariciens, curieux et blagueur. Ils ne se comprennent pas très bien, voire pas du tout, mais cela ne les empêchent pas de se rapprocher, au contraire ! Entre différences culturelles, goût de l'effort et quiproquos familiaux, ils inventent leur propre langage. La preuve que l'amour peut naître malgré les barrières linguistiques… ou peut-être grâce à elles ?Cet épisode s'inscrit dans une série imaginée avec les Alliances Françaises d'Amérique latine, autour du thème : la rencontre interculturelle. Comment naît l'amour quand on ne parle pas la même langue et qu'on vient de cultures et de pays différents ?Enregistré en public à l'Alliance Française de San José le 20 mai dernier, cet épisode fait partie de ma tournée latino-américaine. Pendant six mois, je voyage en famille avec Crush dans mon sac à dos, enregistrant en live des histoires d'amour interculturelles au Mexique, au Guatemala, au Salvador, au Costa Rica et en Colombie. Sur scène, des couples franco-latinos-américains racontent leur rencontre, entre chocs culturels et quiproquos linguistiques.Ce projet est soutenu par l'Institut Français, sous tutelle du Ministère de l'Europe et des Affaires étrangères et du Ministère de la Culture, qui soutient à travers le monde la promotion de la langue française, la circulation des œuvres, des artistes et des idées et favorise ainsi une meilleure compréhension des enjeux culturels.À l'origine de cette tournée : l'Alliance Française de Medellín, en Colombie, moteur engagé du dialogue culturel entre la France et l'Amérique latine.Crush est le podcast qui explore la magie des premiers jours des histoires d'amour, la rencontre amoureuse, pour t'aider à comprendre et vivre mieux tes émotions et relations amoureuses. Il y a mille et une façons d'aimer, et je compte bien toutes les montrer.
Après un bilan des quatre années du podcast, des sujets inhabituels sont abordés dans ce 50ème épisode avec Arnokovic. Il était le tout premier invité en juillet 2021, classé 10ème. Il parle de l'évolution de FlashInvaders et de sa vision du jeu, de sa lassitude, de ses motivations à disparaître du classement, de la triche et des téléphones voyageurs, du bilan carbone et des paradoxes de l'artiste, ou encore de son retour à son ancienne passion…Enregistré le 1er juillet 2025.Crédits : Already Flashed, le podcast sur FlashInvaders et les mosaïques Space Invaders, animé par Sébastien Mougey - smy. Musique M4T3O OutroQuest, bruitages de l'application FlashInvaders, bruitages du jeu Galaga Namco 1981.
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Vétéran des Forces armées canadiennes, il a servi en Bosnie et en Afghanistan avant de troquer l'uniforme pour la plume. Désormais journaliste indépendant et militant anti-guerre, il dénonce sans détour la fabrication des guerres par l'Occident. Dans un témoignage brut et percutant, il revient sur son parcours de soldat désillusionné et livre une analyse géopolitique incisive qui dérange l'establishment.Enregistré le 11 juin 2025.Pour suivre Martin sur FB :https://www.facebook.com/mforguesjourno/Pour voir le court-métrage de Martin :https://plumedanslaplaie.vhx.tv/products/un-the-avec-l-ennemi-1Pour lire les chronique de Martin sur Pivot :https://pivot.quebec/auteur/martin-forgues/Pour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Rejoignez la communauté iWeek et soutenez-nous sur patreon.com/iweek !Voici l'épisode 242 d'iWeek (la semaine Apple), le dernier de la saison 6 !Spéciale iCloud+ : tous les services, ceux qu'on utilise (ou pas).Enregistré mardi 29 juillet 2025 à 18h30, enregistrement accessible en direct sur X, YouTube, et LinkedIn Live. Un épisode châpitré : profitez-en !Présentation : Benjamin Vincent avec la participation de Gilles Dounès (ex-rédacteur en chef de MacPlus et co-auteur de “iPod backstage“ chez Dunod), Elie Abitbol (ex-président des Apple Premium Resellers en France) et Fabrice Neuman (consultant auprès des petites entreprises et contributeur à "Comment ça marche“).Au sommaire de cet épisode 242 : les versions beta publiques des futurs OS sont disponibles. Il ne s'agit pas des versions définitives qui n'arriveront qu'en septembre / octobre mais de versions encore en cours de développement mais suffisamment stables pour qu'Apple les propose aux non développeurs. A installer de préférence sur un autre appareil que votre iPhone, Mac, iPad ou Apple Watch principale : on n'est jamais trop prudent.Cette semaine, nous vous proposons un grand dossier consacré à iCloud+ en deux parties : un retour sur l'historique qui commence en 2000 avec iTools... jusqu'à 2025 ; le détail des services disponibles aujourd'hui à propos desquels nous disons, chacun, ceux que nous utilisons ou pas et pourquoi.Enfin, pas de bonus hebdo exclusif, cette semaine. Rendez-vous à la rentrée ! Merci à tous nos soutiens Patreon, rejoignez-les et aidez-nous à préparer au mieux la 6è saison en allant sur patreon.com/iweek.Rendez-vous mardi 26 août 2025 à partir de 18h30 (nouvel horaire) pour le coup d'envoi de la saison 6 dont l'enregistrement sera à suivre en direct sur X, YouTube et LinkedIn Live.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Quel plaisir d'avoir reçu le professeur Christian Saint-Germain, philosophe à l'UQAM, pour un entretien décapant qui ne laissera personne indifférent. Au menu : le manque de pluralité dans les médias, les chambres d'écho universitaires, la culture de l'annulation, la couverture médiatique biaisée de Donald Trump, l'expansion incontrôlée de l'État, la lâcheté académique face au cas du Professeur Patrick Provost. Un podcast qui dérange, qui secoue, qui égratigne les dogmes et bouscule les idéologues. Accrochez-vous — ça brasse !Enregistré le 10 juin 2025.Pour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Rejoignez la communauté iWeek et soutenez-nous sur patreon.com/iweek !Voici l'épisode 241 d'iWeek (la semaine Apple) !iPhone 17, 18 et 19 : le nouveau calendrier et le détail des gammes avec les iPhone 17 Air et iPhone 18 Fold.Enregistré mardi 22 juillet 2025 à 18h30, enregistrement accessible en direct sur X, YouTube, et LinkedIn Live. Un épisode châpitré : profitez-en !Présentation : Benjamin Vincent avec la participation de Gilles Dounès (ex-rédacteur en chef de MacPlus et co-auteur de “iPod backstage“ chez Dunod), François le Truédic (formateur et enseignant) et Fabrice Neuman (consultant auprès des petites entreprises et contributeur à "Comment ça marche“).Au sommaire de cet épisode 241 : cette semaine, dans iWeek, on vous détaille les gammes et le nouveau calendrier de l'iPhone jusqu'en 2027, à savoir les gammes iPhone 17, iPhone 18 et iPhone 19 avec deux nouveaux venus : l'iPhone 17 Air, autour du 9 septembre prochain, et l'iPhone 18 Fold, vraisemblablement en septembre 2026. Ces évolutions de gamme vont aussi coïncider avec un changement de rythme et le passage d'une à deux annonces par an : la première pour les iPhone premium ; la seconde, pour les deux modèles entrée de gamme.L'événement de la semaine tient dans un document diffusé par Apple, de 27 pages, intitulé “Apple Intelligence Foundation Language Models - Tech Report 2025“ dans lequel Apple détaille la manière dont elle entraîne ses modèles d'intelligence artificielle. Pas d'Open Source mais une approche éthique et respectueuse des oeuvres protégées... à croire Apple.Notre "retour sur", cette semaine, porte sur le passage à la production de masse des iPhone de la future nouvelle gamme 17 avec une montée en puissance de la production en Inde, au détriment de la Chine, pour atténuer l'impact des nouveaux droits de douane imposés par l'administration Trump.Un mot, également, pour signaler l'arrivée des beta développeurs 4 des futurs OS (dont iOS 26) en attendant les beta publiques, imminentes (sauf pour vision OS).Enfin, le bonus hebdo exclusif réservé à nos soutiens sur patreon.com/iweek : Apple porte (enfin) plainte contre l'Américain Jon Prosser, à l'origine de fuites, depuis des années, sur les projets d'Apple. La dernière en date, à propos de ce qu'on appelait encore iOS 19, met en évidence qu'il est vraiment prêt à tout pour un scoop.À mardi prochain, 29 juillet 2025, pour l'épisode 242, le dernier de la saison, dont l'enregistrement sera à suivre en direct sur X, YouTube et LinkedIn Live à partir de 18h30.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Clap de fin pour notre série à Lanzarote ! Enregistré directement à l'aéroport, cet épisode conclut une semaine riche en émotions, en progrès et en découvertes sous-marines.Après un début de séjour marqué par des douleurs aux oreilles et le choix de ne pas passer le niveau 2, tout s'est aligné : une pression en moins, des conditions idéales, et surtout une écoute attentive de la part de l'équipe d'Aquasport Diving Lanzarote. Résultat ? Une série de plongées exceptionnelles, et une certification inattendue mais bienvenue : le Advanced Open Water SSI… et même une spécialité plongée profonde - Deep - jusqu'à 40 mètres !Dans ce dernier épisode, on partage :une plongée sur épave (notre première) impressionnante, comme un saut dans le temps, pleine de vie marine et d'ambiances uniques ;une plongée de nuit (notre première aussi), riche en sensations nouvelles, comportements animaliers et une belle surprise : la bioluminescence ;les progrès techniques réalisés, notamment sur l'équilibrage des oreilles, avec la béance tubaire volontaire (BTV), bien plus adaptée que la Valsalva dans le cas précis de Lucie.On évoque aussi la richesse de la faune de Lanzarote — mérous, poissons-trompettes, raies, bonites, sardines, et même les espèces rare qu'on aurait rêvé de croiser : anges de mer, raies mobula ou requins-marteaux.Mais ce qu'on retiendra surtout, c'est l'ambiance incroyable du club, la bienveillance de toute l'équipe (merci à Géraldine, Éric, Émile, Antoine, Noreen et les autres !), et la joie de partager ces moments sous l'eau… et en famille.Une série qui se termine en beauté, avec une seule question en tête : on revient quand à Lanzarote ?
Dans son nouveau podcast trimestriel sur le rap anglophone, l'Abcdr du Son vogue entre Londres et Los Angeles pour parler du retour de Little Simz et de la révélation Lefty Gunplay.À retrouver dans ce podcast :00:00:00 Générique00:01:40 Partie 1 : Little Simz, flower power00:19:20 Le coup de coeur de David : Glockaveli de Key Glock00:23:05 Le coup de coeur de Raphaël : Orange Tape de Ro$ama00:28:15 Partie 2 : Lefty Gunplay, tonnerre de l'Ouest 00:49:20 Le coup de coeur de Hugo : Golliwog de billy woods00:54:00 Partie 3 : Question des auditeurs01:08:25 ConclusionRésumé :Après une parenthèse electro le temps d'un EP en 2024, la rappeuse anglaise Little Simz revenait avec Lotus le mois dernier. Un sixième album entre introspection, confidences, et vulnérabilité, riche en tentatives et confessions. Pour un résultat à la hauteur de ses ambitions ?Si “tv off” de Kendrick Lamar résonne encore aujourd'hui, c'est aussi grâce à Lefty Gunplay. Présent sur GNX, le rappeur latino-américain basé en Californie a pris la lumière à une plus grande échelle. En juin dernier, il sortait son cinquième disque Can't Get Right. Un album qui fait perdurer le son West Coast, voire le renouvelle ?Crédits :Un podcast animé par Makia Mina avec la participation de Raphaël Da Cruz, Hugo, et David.Enregistré le 01er juillet 2025 chez MélusineMoyens techniques : L'Abcdr du SonEnregistrement et réalisation : Zo.Visuel : Sébastien Le Gall Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Merci à notre commanditaire ProCafetière : https://tinyurl.com/procafetiere-jerrPour obtenir le Café Whats Up :https://procafetiere.ca/collections/cafe-vrac/products/espresso-whats-up-cafe-vracUtilise le code JERR20 pour 20% de rabais sur le sac Whats Up ;)Des dépenses faramineuses dans les infrastructures de la ville (1 millions pour un feux de circulation) , Amazon qui claque la porte du Québec, de nouvelles controverses pour la FTQ et Rambo Gauthier renvoyer : j'ai eu, une fois de plus, le plaisir de recevoir mon ami Ken Pereira. Fidèle à sa réputation, il expose avec lucidité ce que plusieurs préfèrent garder dans l'ombre.Enregistré le 4 juin mai 2025.Pour devenir membre et supporter le Whats Up Podcast : https://www.patreon.com/whatsuppodcast Merci les patreon !!Pour suivre Jerr sur Instagram : https://www.instagram.com/jerr_allain/Pour suivre Jerr sur facebook : https://www.facebook.com/JerrAllainofficielContact : jerr.production@gmail.comPour vous abonner à mon Infolettre : http://eepurl.com/hvpnhj
Dans cet épisode, Emmanuel et Antonio discutent de divers sujets liés au développement: Applets (et oui), app iOS développées sous Linux, le protocole A2A, l'accessibilité, les assistants de code AI en ligne de commande (vous n'y échapperez pas)… Mais aussi des approches méthodologiques et architecturales comme l'architecture hexagonale, les tech radars, l'expert généraliste et bien d'autres choses encore. Enregistré le 11 juillet 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-328.mp3 ou en vidéo sur YouTube. News Langages Les Applets Java c'est terminé pour de bon… enfin, bientot: https://openjdk.org/jeps/504 Les navigateurs web ne supportent plus les applets. L'API Applet et l'outil appletviewer ont été dépréciés dans JDK 9 (2017). L'outil appletviewer a été supprimé dans JDK 11 (2018). Depuis, impossible d'exécuter des applets avec le JDK. L'API Applet a été marquée pour suppression dans JDK 17 (2021). Le Security Manager, essentiel pour exécuter des applets de façon sécurisée, a été désactivé définitivement dans JDK 24 (2025). Librairies Quarkus 3.24 avec la notion d'extensions qui peuvent fournir des capacités à des assistants https://quarkus.io/blog/quarkus-3-24-released/ les assistants typiquement IA, ont accès a des capacités des extensions Par exemple générer un client à partir d'openAPI Offrir un accès à la,base de données en dev via le schéma. L'intégration d'Hibernate 7 dans Quarkus https://quarkus.io/blog/hibernate7-on-quarkus/ Jakarta data api restriction nouvelle Injection du SchemaManager Sortie de Micronaut 4.9 https://micronaut.io/2025/06/30/micronaut-framework-4-9-0-released/ Core : Mise à jour vers Netty 4.2.2 (attention, peut affecter les perfs). Nouveau mode expérimental “Event loop Carrier” pour exécuter des virtual threads sur l'event loop Netty. Nouvelle annotation @ClassImport pour traiter des classes déjà compilées. Arrivée des @Mixin (Java uniquement) pour modifier les métadonnées d'annotations Micronaut sans altérer les classes originales. HTTP/3 : Changement de dépendance pour le support expérimental. Graceful Shutdown : Nouvelle API pour un arrêt en douceur des applications. Cache Control : API fluente pour construire facilement l'en-tête HTTP Cache-Control. KSP 2 : Support de KSP 2 (à partir de 2.0.2) et testé avec Kotlin 2. Jakarta Data : Implémentation de la spécification Jakarta Data 1.0. gRPC : Support du JSON pour envoyer des messages sérialisés via un POST HTTP. ProjectGen : Nouveau module expérimental pour générer des projets JVM (Gradle ou Maven) via une API. Un super article sur experimenter avec les event loops reactives dans les virtualthreads https://micronaut.io/2025/06/30/transitioning-to-virtual-threads-using-the-micronaut-loom-carrier/ Malheureusement cela demander le hacker le JDK C'est un article de micronaut mais le travail a ete collaboratif avec les equipes de Red Hat OpenJDK, Red Hat perf et de Quarkus et Vert.x Pour les curieux c'est un bon article Ubuntu offre un outil de creation de container pour Spring notamment https://canonical.com/blog/spring-boot-containers-made-easy creer des images OCI pour les applications Spring Boot basées sur Ubuntu base images bien sur utilise jlink pour reduire la taille pas sur de voir le gros avantage vs d'autres solutions plus portables d'ailleurs Canonical entre dans la danse des builds d'openjdk Le SDK Java de A2A contribué par Red Hat est sorti https://quarkus.io/blog/a2a-project-launches-java-sdk/ A2A est un protocole initié par Google et donne à la fondation Linux Il permet à des agents de se décrire et d'interagir entre eux Agent cards, skills, tâche, contexte A2A complémente MCP Red hat a implémenté le SDK Java avec le conseil des équipes Google En quelques annotations et classes on a un agent card, un client A2A et un serveur avec l'échange de messages via le protocole A2A Comment configurer mockito sans warning après java 21 https://rieckpil.de/how-to-configure-mockito-agent-for-java-21-without-warning/ les agents chargés dynamiquement sont déconseillés et seront interdis bientôt Un des usages est mockito via bytebuddy L'avantage est que la,configuration était transparente Mais bon sécurité oblige c'est fini. Donc l'article décrit comment configurer maven gradle pour mettre l'agent au démarrage des tests Et aussi comment configurer cela dans IntelliJ idea. Moins simple malheureusement Web Des raisons “égoïstes” de rendre les UIs plus accessibles https://nolanlawson.com/2025/06/16/selfish-reasons-for-building-accessible-uis/ Raisons égoïstes : Des avantages personnels pour les développeurs de créer des interfaces utilisateurs (UI) accessibles, au-delà des arguments moraux. Débogage facilité : Une interface accessible, avec une structure sémantique claire, est plus facile à déboguer qu'un code désordonné (la « soupe de div »). Noms standardisés : L'accessibilité fournit un vocabulaire standard (par exemple, les directives WAI-ARIA) pour nommer les composants d'interface, ce qui aide à la clarté et à la structuration du code. Tests simplifiés : Il est plus simple d'écrire des tests automatisés pour des éléments d'interface accessibles, car ils peuvent être ciblés de manière plus fiable et sémantique. Après 20 ans de stagnation, la spécification du format d'image PNG évolue enfin ! https://www.programmax.net/articles/png-is-back/ Objectif : Maintenir la pertinence et la compétitivité du format. Recommandation : Soutenu par des institutions comme la Bibliothèque du Congrès américain. Nouveautés Clés :Prise en charge du HDR (High Dynamic Range) pour une plus grande gamme de couleurs. Reconnaissance officielle des PNG animés (APNG). Support des métadonnées Exif (copyright, géolocalisation, etc.). Support Actuel : Déjà intégré dans Chrome, Safari, Firefox, iOS, macOS et Photoshop. Futur :Prochaine édition : focus sur l'interopérabilité entre HDR et SDR. Édition suivante : améliorations de la compression. Avec le projet open source Xtool, on peut maintenant construire des applications iOS sur Linux ou Windows, sans avoir besoin d'avoir obligatoirement un Mac https://xtool.sh/tutorials/xtool/ Un tutoriel très bien fait explique comment faire : Création d'un nouveau projet via la commande xtool new. Génération d'un package Swift avec des fichiers clés comme Package.swift et xtool.yml. Build et exécution de l'app sur un appareil iOS avec xtool dev. Connexion de l'appareil en USB, gestion du jumelage et du Mode Développeur. xtool gère automatiquement les certificats, profils de provisionnement et la signature de l'app. Modification du code de l'interface utilisateur (ex: ContentView.swift). Reconstruction et réinstallation rapide de l'app mise à jour avec xtool dev. xtool est basé sur VSCode sur la partie IDE Data et Intelligence Artificielle Nouvelle edition du best seller mondial “Understanding LangChain4j” : https://www.linkedin.com/posts/agoncal_langchain4j-java-ai-activity-7342825482830200833-rtw8/ Mise a jour des APIs (de LC4j 0.35 a 1.1.0) Nouveaux Chapitres sur MCP / Easy RAG / JSon Response Nouveaux modeles (GitHub Model, DeepSeek, Foundry Local) Mise a jour des modeles existants (GPT-4.1, Claude 3.7…) Google donne A2A a la Foundation Linux https://developers.googleblog.com/en/google-cloud-donates-a2a-to-linux-foundation/ Annonce du projet Agent2Agent (A2A) : Lors du sommet Open Source Summit North America, la Linux Foundation a annoncé la création du projet Agent2Agent, en partenariat avec Google, AWS, Microsoft, Cisco, Salesforce, SAP et ServiceNow. Objectif du protocole A2A : Ce protocole vise à établir une norme ouverte pour permettre aux agents d'intelligence artificielle (IA) de communiquer, collaborer et coordonner des tâches complexes entre eux, indépendamment de leur fournisseur. Transfert de Google à la communauté open source : Google a transféré la spécification du protocole A2A, les SDK associés et les outils de développement à la Linux Foundation pour garantir une gouvernance neutre et communautaire. Soutien de l'industrie : Plus de 100 entreprises soutiennent déjà le protocole. AWS et Cisco sont les derniers à l'avoir validé. Chaque entreprise partenaire a souligné l'importance de l'interopérabilité et de la collaboration ouverte pour l'avenir de l'IA. Objectifs de la fondation A2A : Établir une norme universelle pour l'interopérabilité des agents IA. Favoriser un écosystème mondial de développeurs et d'innovateurs. Garantir une gouvernance neutre et ouverte. Accélérer l'innovation sécurisée et collaborative. parler de la spec et surement dire qu'on aura l'occasion d'y revenir Gemini CLI :https://blog.google/technology/developers/introducing-gemini-cli-open-source-ai-agent/ Agent IA dans le terminal : Gemini CLI permet d'utiliser l'IA Gemini directement depuis le terminal. Gratuit avec compte Google : Accès à Gemini 2.5 Pro avec des limites généreuses. Fonctionnalités puissantes : Génère du code, exécute des commandes, automatise des tâches. Open source : Personnalisable et extensible par la communauté. Complément de Code Assist : Fonctionne aussi avec les IDE comme VS Code. Au lieu de blocker les IAs sur vos sites vous pouvez peut-être les guider avec les fichiers LLMs.txt https://llmstxt.org/ Exemples du projet angular: llms.txt un simple index avec des liens : https://angular.dev/llms.txt lllms-full.txt une version bien plus détaillée : https://angular.dev/llms-full.txt Outillage Les commits dans Git sont immuables, mais saviez vous que vous pouviez rajouter / mettre à jour des “notes” sur les commits ? https://tylercipriani.com/blog/2022/11/19/git-notes-gits-coolest-most-unloved-feature/ Fonctionnalité méconnue : git notes est une fonctionnalité puissante mais peu utilisée de Git. Ajout de métadonnées : Permet d'attacher des informations à des commits existants sans en modifier le hash. Cas d'usage : Idéal pour ajouter des données issues de systèmes automatisés (builds, tickets, etc.). Revue de code distribuée : Des outils comme git-appraise ont été construits sur git notes pour permettre une revue de code entièrement distribuée, indépendante des forges (GitHub, GitLab). Peu populaire : Son interface complexe et le manque de support des plateformes de forge ont limité son adoption (GitHub n'affiche même pas/plus les notes). Indépendance des forges : git notes offre une voie vers une plus grande indépendance vis-à-vis des plateformes centralisées, en distribuant l'historique du projet avec le code lui-même. Un aperçu dur Spring Boot debugger dans IntelliJ idea ultimate https://blog.jetbrains.com/idea/2025/06/demystifying-spring-boot-with-spring-debugger/ montre cet outil qui donne du contexte spécifique à Spring comme les beans non activés, ceux mockés, la valeur des configs, l'état des transactions Il permet de visualiser tous les beans Spring directement dans la vue projet, avec les beans non instanciés grisés et les beans mockés marqués en orange pour les tests Il résout le problème de résolution des propriétés en affichant la valeur effective en temps réel dans les fichiers properties et yaml, avec la source exacte des valeurs surchargées Il affiche des indicateurs visuels pour les méthodes exécutées dans des transactions actives, avec les détails complets de la transaction et une hiérarchie visuelle pour les transactions imbriquées Il détecte automatiquement toutes les connexions DataSource actives et les intègre avec la fenêtre d'outils Database d'IntelliJ IDEA pour l'inspection Il permet l'auto-complétion et l'invocation de tous les beans chargés dans l'évaluateur d'expression, fonctionnant comme un REPL pour le contexte Spring Il fonctionne sans agent runtime supplémentaire en utilisant des breakpoints non-suspendus dans les bibliothèques Spring Boot pour analyser les données localement Une liste communautaire sur les assistants IA pour le code, lancée par Lize Raes https://aitoolcomparator.com/ tableau comparatif qui permet de voir les différentes fonctionnalités supportées par ces outils Architecture Un article sur l'architecture hexagonale en Java https://foojay.io/today/clean-and-modular-java-a-hexagonal-architecture-approach/ article introductif mais avec exemple sur l'architecture hexagonale entre le domaine, l'application et l‘infrastructure Le domain est sans dépendance L‘appli spécifique à l'application mais sans dépendance technique explique le flow L'infrastructure aura les dépendances à vos frameworks spring, Quarkus Micronaut, Kafka etc Je suis naturellement pas fan de l'architecture hexagonale en terme de volume de code vs le gain surtout en microservices mais c'est toujours intéressant de se challenger et de regarder le bénéfice coût. Gardez un œil sur les technologies avec les tech radar https://www.sfeir.dev/cloud/tech-radar-gardez-un-oeil-sur-le-paysage-technologique/ Le Tech Radar est crucial pour la veille technologique continue et la prise de décision éclairée. Il catégorise les technologies en Adopt, Trial, Assess, Hold, selon leur maturité et pertinence. Il est recommandé de créer son propre Tech Radar pour l'adapter aux besoins spécifiques, en s'inspirant des Radars publics. Utilisez des outils de découverte (Alternativeto), de tendance (Google Trends), de gestion d'obsolescence (End-of-life.date) et d'apprentissage (roadmap.sh). Restez informé via les blogs, podcasts, newsletters (TLDR), et les réseaux sociaux/communautés (X, Slack). L'objectif est de rester compétitif et de faire des choix technologiques stratégiques. Attention à ne pas sous-estimer son coût de maintenance Méthodologies Le concept d'expert generaliste https://martinfowler.com/articles/expert-generalist.html L'industrie pousse vers une spécialisation étroite, mais les collègues les plus efficaces excellent dans plusieurs domaines à la fois Un développeur Python expérimenté peut rapidement devenir productif dans une équipe Java grâce aux concepts fondamentaux partagés L'expertise réelle comporte deux aspects : la profondeur dans un domaine et la capacité d'apprendre rapidement Les Expert Generalists développent une maîtrise durable au niveau des principes fondamentaux plutôt que des outils spécifiques La curiosité est essentielle : ils explorent les nouvelles technologies et s'assurent de comprendre les réponses au lieu de copier-coller du code La collaboration est vitale car ils savent qu'ils ne peuvent pas tout maîtriser et travaillent efficacement avec des spécialistes L'humilité les pousse à d'abord comprendre pourquoi les choses fonctionnent d'une certaine manière avant de les remettre en question Le focus client canalise leur curiosité vers ce qui aide réellement les utilisateurs à exceller dans leur travail L'industrie doit traiter “Expert Generalist” comme une compétence de première classe à nommer, évaluer et former ca me rappelle le technical staff Un article sur les métriques métier et leurs valeurs https://blog.ippon.fr/2025/07/02/monitoring-metier-comment-va-vraiment-ton-service-2/ un article de rappel sur la valeur du monitoring métier et ses valeurs Le monitoring technique traditionnel (CPU, serveurs, API) ne garantit pas que le service fonctionne correctement pour l'utilisateur final. Le monitoring métier complète le monitoring technique en se concentrant sur l'expérience réelle des utilisateurs plutôt que sur les composants isolés. Il surveille des parcours critiques concrets comme “un client peut-il finaliser sa commande ?” au lieu d'indicateurs abstraits. Les métriques métier sont directement actionnables : taux de succès, délais moyens et volumes d'erreurs permettent de prioriser les actions. C'est un outil de pilotage stratégique qui améliore la réactivité, la priorisation et le dialogue entre équipes techniques et métier. La mise en place suit 5 étapes : dashboard technique fiable, identification des parcours critiques, traduction en indicateurs, centralisation et suivi dans la durée. Une Definition of Done doit formaliser des critères objectifs avant d'instrumenter tout parcours métier. Les indicateurs mesurables incluent les points de passage réussis/échoués, les temps entre actions et le respect des règles métier. Les dashboards doivent être intégrés dans les rituels quotidiens avec un système d'alertes temps réel compréhensibles. Le dispositif doit évoluer continuellement avec les transformations produit en questionnant chaque incident pour améliorer la détection. La difficulté c'est effectivement l'évolution métier par exemple peu de commandes la nuit etc ça fait partie de la boîte à outils SRE Sécurité Toujours à la recherche du S de Sécurité dans les MCP https://www.darkreading.com/cloud-security/hundreds-mcp-servers-ai-models-abuse-rce analyse des serveurs mcp ouverts et accessibles beaucoup ne font pas de sanity check des parametres si vous les utilisez dans votre appel genAI vous vous exposer ils ne sont pas mauvais fondamentalement mais n'ont pas encore de standardisation de securite si usage local prefferer stdio ou restreindre SSE à 127.0.0.1 Loi, société et organisation Nicolas Martignole, le même qui a créé le logo des Cast Codeurs, s'interroge sur les voies possibles des développeurs face à l'impact de l'IA sur notre métier https://touilleur-express.fr/2025/06/23/ni-manager-ni-contributeur-individuel/ Évolution des carrières de développeur : L'IA transforme les parcours traditionnels (manager ou expert technique). Chef d'Orchestre d'IA : Ancien manager qui pilote des IA, définit les architectures et valide le code généré. Artisan Augmenté : Développeur utilisant l'IA comme un outil pour coder plus vite et résoudre des problèmes complexes. Philosophe du Code : Un nouveau rôle centré sur le “pourquoi” du code, la conceptualisation de systèmes et l'éthique de l'IA. Charge cognitive de validation : Nouvelle charge mentale créée par la nécessité de vérifier le travail des IA. Réflexion sur l'impact : L'article invite à choisir son impact : orchestrer, créer ou guider. Entraîner les IAs sur des livres protégés (copyright) est acceptable (fair use) mais les stocker ne l'est pas https://www.reuters.com/legal/litigation/anthropic-wins-key-ruling-ai-authors-copyright-lawsuit-2025-06-24/ Victoire pour Anthropic (jusqu'au prochain procès): L'entreprise a obtenu gain de cause dans un procès très suivi concernant l'entraînement de son IA, Claude, avec des œuvres protégées par le droit d'auteur. “Fair Use” en force : Le juge a estimé que l'utilisation des livres pour entraîner l'IA relevait du “fair use” (usage équitable) car il s'agit d'une transformation du contenu, pas d'une simple reproduction. Nuance importante : Cependant, le stockage de ces œuvres dans une “bibliothèque centrale” sans autorisation a été jugé illégal, ce qui souligne la complexité de la gestion des données pour les modèles d'IA. Luc Julia, son audition au sénat https://videos.senat.fr/video.5486945_685259f55eac4.ia–audition-de-luc-julia-concepteur-de-siri On aime ou pas on aide pas Luc Julia et sa vision de l'IA . C'est un eversion encore plus longue mais dans le même thème que sa keynote à Devoxx France 2025 ( https://www.youtube.com/watch?v=JdxjGZBtp_k ) Nature et limites de l'IA : Luc Julia a insisté sur le fait que l'intelligence artificielle est une “évolution” plutôt qu'une “révolution”. Il a rappelé qu'elle repose sur des mathématiques et n'est pas “magique”. Il a également alerté sur le manque de fiabilité des informations fournies par les IA génératives comme ChatGPT, soulignant qu'« on ne peut pas leur faire confiance » car elles peuvent se tromper et que leur pertinence diminue avec le temps. Régulation de l'IA : Il a plaidé pour une régulation “intelligente et éclairée”, qui devrait se faire a posteriori afin de ne pas freiner l'innovation. Selon lui, cette régulation doit être basée sur les faits et non sur une analyse des risques a priori. Place de la France : Luc Julia a affirmé que la France possédait des chercheurs de très haut niveau et faisait partie des meilleurs mondiaux dans le domaine de l'IA. Il a cependant soulevé le problème du financement de la recherche et de l'innovation en France. IA et Société : L'audition a traité des impacts de l'IA sur la vie privée, le monde du travail et l'éducation. Luc Julia a souligné l'importance de développer l'esprit critique, notamment chez les jeunes, pour apprendre à vérifier les informations générées par les IA. Applications concrètes et futures : Le cas de la voiture autonome a été discuté, Luc Julia expliquant les différents niveaux d'autonomie et les défis restants. Il a également affirmé que l'intelligence artificielle générale (AGI), une IA qui dépasserait l'homme dans tous les domaines, est “impossible” avec les technologies actuelles. Rubrique débutant Les weakreferences et le finalize https://dzone.com/articles/advanced-java-garbage-collection-concepts un petit rappel utile sur les pièges de la méthode finalize qui peut ne jamais être invoquée Les risques de bug si finalize ne fini jamais Finalize rend le travail du garbage collector beaucoup plus complexe et inefficace Weak references sont utiles mais leur libération n'est pas contrôlable. Donc à ne pas abuser. Il y a aussi les soft et phantom references mais les usages ne sont assez subtils et complexe en fonction du GC. Le sériel va traiter les weak avant les soft, parallel non Le g1 ça dépend de la région Z1 ça dépend car le traitement est asynchrone Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 14-19 juillet 2025 : DebConf25 - Brest (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online 22-24 septembre 2025 : Kernel Recipes - Paris (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 25-26 septembre 2025 : Paris Web 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6-7 octobre 2025 : Swift Connection 2025 - Paris (France) 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9-10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16-17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 5-6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9-11 décembre 2025 : APIdays Paris - Paris (France) 9-11 décembre 2025 : Green IO Paris - Paris (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
Avec Nathalie Odzierejko, Mister V et Terracid. Enregistré le 20 juin 2025 à la Salle Pleyel.Présenté par Florent Bernard et Adrien Ménielle. On en parle de choses dans cet épisode : de skin care, d'être un élève rebelle, des looks de quand on était jeunes, d'aller dans l'espace, de challenges du web du passé, de se venger d'un ex, de branler des saumons et la venue de quelqu'un qu'on attendait depuis le premier épisode du Floodcast.Bises,Flo. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Morgane Cadignan, Benjamin Tranié et Mister MV.Enregistré le 21 juin 2025 à la Salle Pleyel. Présenté par Florent Bernard et Adrien Ménielle. On en parle de choses dans cet épisode : de problème dans le train, d'opération médicale douloureuse, de chansons paillardes, d'Omar Sy et son chien, de bretons, de livres de records et du restaurant de Francky Vincent.C'EST LE RETOUR DU MERCH : https://traphic.fr/collections/floodcast !Bises,Flo. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.