POPULARITY
Categories
THANK YOU LEE CHAEMIN FOR BEING HERE TODAY….The pod sisters are here to chat up “Bon Appétit, Your Majesty” - or, as we will always choose to call it - KNIFE KNIFE. (we cannot call this show bon appétit ur majesty it's so cringey we cannot)….tvN and Netflix are AT IT AGAIN this fall and we're all EATING IT UP PUN INTENDED. The girls chat through the plot in the first two eps, all the cooking scenes, Yoona's adorableness, and the fact that Lee Chaemin was added in as the ML like a week before the first reading. …..So far, this drama is easy on the plot and easy on the eyes (MWAHAHAHHA). Maddie and Elle are obsessed. Christina is def never gonna watch ep 3. How are y'all liking it so far?…..“Bon Appétit, Your Majesty” is a 12-episode tvN KDrama airing on Netflix this fall.…If you're new to YA GIRL, we're so glad you're here!! I truly hope you enjoy listening to this podcast! …..Also, check out our sister-pod - THE KDROP: A KPop Podcast - if that's your thing. https://www.instagram.com/the.kdrop_kpop_pod/ ….. Before you do anything else, FOLLOW YA GIRL ON INSTAGRAM! For real, please come and say hey to us over the socials! @yagirl_kdrama pod (https://www.instagram.com/yagirl_kdramapod?igsh=OGQ5ZDc2ODk2ZA%3D%3D&utm_source=qr)….And Christina just started an exclusive BTS instagram, so give that a follow! https://www.instagram.com/bts_express_the.kdrop?utm_source=ig_web_button_share_sheet&igsh=ZDNlZDc0MzIxNw== … Finally, jump on YA GIRL's Discord!! It's where all the friends of YA GIRL gather and talk about hot Korean men. You really don't wanna miss it. https://discord.gg/rFmEgTJpJ8
Routine vaginal examinations (VEs) are a standard component of intrapartum care, traditionally performed at regular intervals to monitor cervical dilation, effacement, and fetal station, which are indicators of labor progression. Yet, the American College of Obstetricians and Gynecologists states that there is insufficient evidence to recommend a specific frequency for cervical examinations during labor, and examinations should be performed as clinically indicated. Now, a recently published RCT form AJOG MFM is adding additional credence to that. Can we space out clinical exams in otherwise “low-risk” laboring women to 8 hours? Listen in for details. 1. AJOG MFM: (08/18/25) Routine Vaginal Examination Scheduled At 8 vs 4 Hours In Multiparous Women In Early Spontaneous Labour: A Randomised Controlled Trial https://www.sciencedirect.com/science/article/abs/pii/S25899333250016122. Nashreen CM, Hamdan M, Hong J, et al.Routine Vaginal Examination to Assess Labor Progress at 8 Compared to 4 h After Early Amniotomy Following Foley Balloon Ripening in the Labor Induction of Nulliparas: A Randomized Trial. Acta Obstetricia Et Gynecologica Scandinavica. 2024;103(12):2475-2484. doi:10.1111/aogs.14975.3. First and Second Stage Labor Management: ACOG Clinical Practice Guideline No. 8. Obstetrics and Gynecology. 2024;143(1):144-162. doi:10.1097/AOG.0000000000005447.4. Moncrieff G, Gyte GM, Dahlen HG, et al. Routine Vaginal Examinations Compared to Other Methods for Assessing Progress of Labour to Improve Outcomes for Women and Babies at Term. The Cochrane Database of Systematic Reviews. 2022;3:CD010088. doi:10.1002/14651858.CD010088.pub3.5. Gluck, O., et al. (2020). The correlation between the number of vaginal examinations during active labor and febrile morbidity, a retrospective cohort study. [BMC Pregnancy and Childbirth]6. Pan, WL., Chen, LL. & Gau, ML. Accuracy of non-invasive methods for assessing the progress of labor in the first stage: a systematic review and meta-analysis. BMC Pregnancy Childbirth 22, 608 (2022). https://doi.org/10.1186/s12884-022-04938-y
00:00-15:00: ML and Joe bring on Brent Axe to preview the Syracuse football season. Thanks to CH Insurance. In your corner.
In this episode of History 102, 'WhatIfAltHist' creator Rudyard Lynch and co-host Austin Padgett explore why gunpowder democratized Europe but enabled Asian autocracy, examining Hawaii, Ottoman, Ming, and Mughal empires to understand how identical technologies create divergent civilizational outcomes. -- SPONSOR: ZCASH | SHOPIFY | NETSUITE | ORACLE The right technology reshapes politics and culture toward freedom and prosperity. Zcash—the "machinery of freedom"—delivers unstoppable private money through encryption. When your wealth is unseen, it's unseizable. Download Zashi wallet and follow @genzcash to learn more: https://x.com/genzcash Shopify is the world's leading e-commerce platform, offering a market-leading checkout system Shoppay and exclusive AI apps. Nobody does selling better than Shopify. Get a $1 per month trial at https://shopify.com/momentofzen. More than 42,000 businesses have already upgraded to NetSuite by Oracle, the #1 cloud financial system bringing accounting, financial management, inventory, HR, into ONE proven platform. If you're looking for an ERP platform, get a one-of-a-kind flexible financing program on NetSuite: https://netsuite.com/102 - Download your free CFO's guide to AI and machine learning. Oracle Cloud Infrastructure (OCI): Oracle's next-generation cloud platform delivers blazing-fast AI and ML performance with 50% less for compute and 80% less for outbound networking compared to other cloud providers. OCI powers industry leaders like Vodafone and Thomson Reuters with secure infrastructure and application development capabilities. New U.S. customers can get their cloud bill cut in half by switching to OCI before March 31, 2024 at https://oracle.com/cognitive. -- FOLLOW ON X: @whatifalthist (Rudyard) @LudwigNverMises (Austin) @TurpentineMedia -- TIMESTAMPS: (00:00) Introduction & Framework(13:00) Case Study #1: Hawaii(17:33) Sponsors: ZCash | Shopify(22:39) Case Study #2: Spanish & Turkish Empires(40:50) Sponsors: Netsuite | Oracle(45:52) Case Study #3: China - Ming & Qing Dynasties(1:07:00) Japan: Brief Military Supremacy(1:07:00) Japan: Brief Military Supremacy(1:11:00) Ottoman Empire: Slave Soldiers & Decline(1:32:06) African Gunpowder Empires(1:38:00) Safavid Persia(1:42:00) Mughal Empire(1:53:00) European Colonialism & Modern Implications Learn more about your ad choices. Visit megaphone.fm/adchoices
Na koncertných pódiách či pri rôznych slávnostných príležitostiach - pôsobia v uniformách impozantne, pričom v poslucháčoch dokáže ich hudba, vyvolať obrovskú škálu emócií - hrdosť, radosť, dojatie, ba i smútok, dokonca pri poslednej rozlúčke - precítiť aj plynutie času ... Hovorím o „Hudbe ministerstva vnútra Slovenskej republiky“. Janka Bleyová sa o hudobníkoch - policajtoch, rozhodla zistiť viac. Vybrala sa preto do Devínskej Novej Vsi, do časti pod názvom Mláka, v ktorej majú sídlo.
Software Engineering Radio - The Podcast for Professional Software Developers
Artie Shevchenko, author of Code Health Guardian, speaks with host Jeff Doolittle about the crucial role of human programmers in the AI era, emphasizing that humans must excel at managing code complexity. Shevchenko discusses these concepts and key takeaways from his book, including the three problems caused by complexity: change amplification, cognitive load, and the most severe, unknown unknowns. He suggests that maintaining code health should be viewed pragmatically as a productivity question, requiring an ownership mentality and product focus to balance short-term delivery with long-term maintainability. The episode also covers vital processes such as using design documents for upfront analysis and code reviews, highlighting four goals: high code quality, knowledge sharing, delivery speed, and -- most important for team productivity -- psychological safety. This episode is sponsored by Monday Dev
Chris Ballard says emphatically that he still believes in Richardson, but does not understand lack of curiosity about Daniel Jones! Woods, Brents, Womack claimed by AFC teams! IU now -23 1/2 against ODU. ML -3000! Here is the link for the only autobiography ever published without a word of praise for its author: https://www.amazon.com/Oops-Art-Learning-Mistakes-Adventures/dp/173420740X Contest rules: https://kentsterling.com/2025/07/03/rule-for-kent-sterling-conest/
Join Jon Myer as he sits down with Arthur Hitomi, CEO and Co-founder of Numecent, to explore how application containerization is revolutionizing software deployment and solving critical legacy application challenges.With Windows 10 end-of-life looming and organizations struggling with legacy systems that can't be upgraded, Arthur shares how Numecent's CloudPaging technology is helping companies modernize without rewriting applications. From financial institutions running critical legacy software to defense contractors managing airport infrastructure, discover how containerization eliminates compatibility issues while maintaining security and compliance.What You'll Learn:How application containerization differs from traditional virtualizationReal solutions for Windows XP/98 legacy applications still in productionWhy "migrate once, run anywhere" is now possible with containersHow AI and ML optimize application delivery and packagingSuccess stories from financial services and defense sectorsCloudPaging vs traditional Citrix/VDI approachesPerfect for: IT Leaders, System Administrators, DevOps Engineers, and anyone dealing with legacy application modernization challenges.Guest: Arthur Hitomi, CEO & Co-founder at NumecentHost: Jon MyerKey TakeawaysContainerization vs Virtualization - Application containers are lighter than VMs, isolating apps with minimal OS overhead while solving compatibility conflictsLegacy Application Lifeline - Organizations can modernize Windows XP/98 apps to run on current systems without expensive rewrites or security risksZero Migration Philosophy - With proper containerization, companies never need to migrate applications again as OS versions changeAI-Powered Optimization - Machine learning profiles application usage to deliver only needed components, reducing deployment size and improving performanceIndustry Success Stories - Financial services and defense sectors seeing major wins, including LAX airport infrastructure and recent XP-to-AVD migrationsSecurity Through Isolation - Containers provide better security by compartmentalizing applications and enabling independent updates for vulnerability managementTimeline00:00 Welcome & Introduction00:46 What is Application Containerization?01:30 How App Containerization Differs from Traditional Virtualization03:54 Solving Windows OS Version Conflicts06:10 Deploying Complex Legacy Windows Applications06:42 Windows ME Nostalgia & Legacy System Reality08:36 Numecent Company Background & Services12:48 CloudPaging & CloudPager Products Overview13:21 Industries Benefiting Most from This Technology15:36 Addressing Cloud Migration & Windows 10 End-of-Life20:32 Closing & Thank You
V šesti letech ho o řadu let starší „kamarád“ odvedl do sklepa a zneužil. S traumatem a určitou křivdou, protože se nedočkal ani opory od svých nejbližších, že potýkal řadu let. Před dvěma měsíci vydal novinář, dokumentarista a aktivista Lukáš Houdek knihu Mlčení, která obsahuje velmi otevřené rozhovory s pedofily a jejich blízkými. Nejde ale o žádnou honbu na čarodějnice. Naopak. Houdek se snaží čtenářům přiblížit, jak těžké je se narodit právě s touto sexuální orientací.
ML is STILL recovering from high school, so why is he going to his 40th class reunion this weekend? Marc […]
This Week in Machine Learning & Artificial Intelligence (AI) Podcast
Today, we're joined by Prince Canuma, an ML engineer and open-source developer focused on optimizing AI inference on Apple Silicon devices. Prince shares his journey to becoming one of the most prolific contributors to Apple's MLX ecosystem, having published over 1,000 models and libraries that make open, multimodal AI accessible and performant on Apple devices. We explore his workflow for adapting new models in MLX, the trade-offs between the GPU and Neural Engine, and how optimization methods like pruning and quantization enhance performance. We also cover his work on "Fusion," a weight-space method for combining model behaviors without retraining, and his popular packages—MLX-Audio, MLX-Embeddings, and MLX-VLM—which streamline the use of MLX across different modalities. Finally, Prince introduces Marvis, a real-time speech-to-speech voice agent, and shares his vision for the future of AI, emphasizing the move towards "media models" that can handle multiple modalities, and more. The complete show notes for this episode can be found at https://twimlai.com/go/744.
Freight fraud is one of the biggest threats facing independent brokers today, and many agents are left without a playbook for how to respond. In this episode of Everything is Logistics, Blythe talks with Mark Funk and Shiv Narayan of SPI Logistics about building an action plan to protect agents, their customers, and their carriers. From red flags to response strategies, this conversation lays out the steps every agent should know.Key takeaways: Why freight fraud is escalating and what makes agents vulnerable. The most common fraud tactics used against brokers and carriers. How SPI equips agents with tools and processes to fight back. The role of culture, training, and communication in prevention. What agents should do immediately when they suspect fraud.LINKS:SPI Logistics Freight Agent WebsiteSPI Freight Agent ProgramMark's LinkedInShiv's LinkedInWATCH THE FULL VIDEO HEREFeedback? Ideas for a future episode? Shoot us a text here to let us know. -----------------------------------------THANK YOU TO OUR SPONSORS! Are you experienced in freight sales or already an independent freight agent? Listen to our Freight Agent Trenches interviews powered by SPI Logistics to hear from the company's agents on how they took the entrepreneurial leap. Shipium is the ML-powered shipping platform built by the executives that created Amazon's supply chain technology. They help 3PL & retail leaders like Stord, Ryder, and Saks Off 5th to reduce shipping costs by an average of 12% while improving on-time delivery. CargoRex is the logistics industry's go-to search platform—connecting you with the right tools, services, events, and creators to explore, discover, and evolve. Digital Dispatch manages and maximizes your #1 sales tool with a website that establishes trust and builds rock-solid relationships with your leads and customers.
Arch is under fire, two weeks and counting. We'll break down the mess, and share a quick fix. Plus, the killer new apps we've just added to our homelabs.Sponsored By:Managed Nebula: Meet Managed Nebula from Defined Networking. A decentralized VPN built on the open-source Nebula platform that we love. 1Password Extended Access Management: 1Password Extended Access Management is a device trust solution for companies with Okta, and they ensure that if a device isn't trusted and secure, it can't log into your cloud apps. Unraid: A powerful, easy operating system for servers and storage. Maximize your hardware with unmatched flexibility. Support LINUX UnpluggedLinks:
"History 102" with WhatifAltHist's Rudyard Lynch and Erik Torenberg: Read the notes at at podcastnotes.org. Don't forget to subscribe for free to our newsletter, the top 10 ideas of the week, every Monday --------- In this episode of History 102, 'WhatIfAltHist' creator Rudyard Lynch and co-host Austin Padgett do a deep-dive into the Mongol Empire's rise, conquests, and civilizational impact, examining how Genghis Khan's brutal campaigns reshaped Eurasian politics and accelerated Western Europe's ascendancy. -- SPONSOR: ZCASH | SHOPIFY | NETSUITE | ORACLE The right technology reshapes politics and culture toward freedom and prosperity. Zcash—the "machinery of freedom"—delivers unstoppable private money through encryption. When your wealth is unseen, it's unseizable. Download Zashi wallet and follow @genzcash to learn more: https://x.com/genzcash Shopify is the world's leading e-commerce platform, offering a market-leading checkout system Shoppay and exclusive AI apps. Nobody does selling better than Shopify. Get a $1 per month trial at https://shopify.com/momentofzen More than 42,000 businesses have already upgraded to NetSuite by Oracle, the #1 cloud financial system bringing accounting, financial management, inventory, HR, into ONE proven platform. If you're looking for an ERP platform, get a one-of-a-kind flexible financing program on NetSuite: https://netsuite.com/102 - Download your free CFO's guide to AI and machine learning. Oracle Cloud Infrastructure (OCI): Oracle's next-generation cloud platform delivers blazing-fast AI and ML performance with 50% less for compute and 80% less for outbound networking compared to other cloud providers. OCI powers industry leaders like Vodafone and Thomson Reuters with secure infrastructure and application development capabilities. New U.S. customers can get their cloud bill cut in half by switching to OCI before March 31, 2024 at https://oracle.com/cognitive -- FOLLOW ON X: @whatifalthist (Rudyard) @LudwigNverMises (Austin) @TurpentineMedia -- TIMESTAMPS: (00:00) Intro (03:04) Polygamous Imperial Cycles and Genghis Khan's Genetic Legacy (05:43) Sponsors: ZCash | Shopify (09:27) Genghis Khan as Totalitarian Figure and Step Empire Dynamics (15:25) Academic Debates About the Mongols - Left vs Military Historians (28:40) Major Mongol Military Campaigns - Badger's Mouth and Khwarezmid (33:27) Sponsors: NetSuite | Oracle Cloud Infrastructure (46:14) Genghis Khan's Rise - Childhood, Unification of Mongols (56:59) Conquest of Northern China - 30 Million Dead (1:11:28) Destruction of Central Asia and the Islamic World (1:20:16) Conquest and Transformation of Russia (1:28:59) Mongol Empire Splits - Four Khanates and Kublai Khan (1:43:21) Pax Mongolica and Failed Invasions of Japan/Java (1:52:30) Fall of the Mongol Empire - Black Death and Ming Dynasty (2:06:52) Long-Term Impact - Europe's Rise Over Asia (2:11:42) Mongol Role in Spreading Black Death and Closing Learn more about your ad choices. Visit megaphone.fm/adchoices
Dr. Shauna Overgaard is the Senior Director of AI Strategy & Frameworks at Mayo Clinic, where she focuses on applying AI and data science to healthcare. She also founded Clarity - Applied Intelligence and served as an Assistant Professor of Health Informatics and Information Management. She is active in several organizations like the Coalition for Health AI (CHAI) and the American Medical Informatics Association (AMIA), and is helping shape the future of AI in healthcare. With over 50 citations to her name, Dr. Overgaard has significantly contributed to AI model documentation, clinical decision support systems, and the ethical implementation of AI in healthcare. Our conversation took place in Fall 2024, and we're starting to see how a lot of these predictions played out!00:00 - Intro04:05 - From rural Canada to a Senior Director at Mayo Clinic06:30 - Innovation culture at Mayo09:22 - It takes 17 years for AI to get to the clinic?! 15:58 - Giving patients ownership over their data21:24 - Can paying patients for their data make ML models more equitable?28:55 - Is bias inescapable with AI?32:19 - Can we make AI more transparent without giving away intellectual property?35:15 - Worries about AI replacing healthcare workers36:52 - Silent Trials: beta-testing AI39:25 - So uh, how's Rochester?42:00 - What gives your life meaning?44:52 - Advice for navigating uncertain times and the AI revolutionDr. Overgaard: linkedin.com/in/shaunaovergaard/Host: Nathan KellerTwitter: @NathanKellerX Linkedin: linkedin.com/in/nathankeller1Producer: Saurin Kantesaria & Garima PuriLinkedIn: Saurin KantesariaLinkedin: linkedin.com/in/garimapuri/
In this episode of History 102, 'WhatIfAltHist' creator Rudyard Lynch and co-host Austin Padgett analyze 2,000 years of Imperial China's civilizational patterns, examining how Confucian bureaucracy, geographic divisions, and cyclical dynastic struggles shaped one of history's most enduring empires. -- SPONSOR: ZCASH | SHOPIFY | NETSUITE | ORACLE The right technology reshapes politics and culture toward freedom and prosperity. Zcash—the "machinery of freedom"—delivers unstoppable private money through encryption. When your wealth is unseen, it's unseizable. Download Zashi wallet and follow @genzcash to learn more: https://x.com/genzcash Shopify is the world's leading e-commerce platform, offering a market-leading checkout system Shoppay and exclusive AI apps. Nobody does selling better than Shopify. Get a $1 per month trial at https://shopify.com/momentofzen. More than 42,000 businesses have already upgraded to NetSuite by Oracle, the #1 cloud financial system bringing accounting, financial management, inventory, HR, into ONE proven platform. If you're looking for an ERP platform, get a one-of-a-kind flexible financing program on NetSuite: https://netsuite.com/102 - Download your free CFO's guide to AI and machine learning. Oracle Cloud Infrastructure (OCI): Oracle's next-generation cloud platform delivers blazing-fast AI and ML performance with 50% less for compute and 80% less for outbound networking compared to other cloud providers. OCI powers industry leaders like Vodafone and Thomson Reuters with secure infrastructure and application development capabilities. New U.S. customers can get their cloud bill cut in half by switching to OCI before March 31, 2024 at https://oracle.com/cognitive. -- FOLLOW ON X: @whatifalthist (Rudyard) @LudwigNverMises (Austin) @TurpentineMedia -- TIMESTAMPS: (00:00) Introduction (01:45) Imperial China Overview & Macro History (07:00) China's Fall of Rome Period (12:01) Geographic Regions of China (17:24) Sponsors: ZCash | Shopify (23:00) Qin Dynasty Unification (46:20) Qin Dynasty Fall & Han Dynasty Rise (54:00) Han Dynasty Economics & Expansion (1:25:00) Three Ruling Classes: Bureaucracy, Eunuchs, Nobility (1:36:33) Sponsors: Netsuite | Oracle (1:39:00) War of Three Kingdoms & Dark Ages (1:47:00) Tang Dynasty Golden Age (1:55:00) Neo-Confucian Renaissance & Song Dynasty (1:58:00) Mongol Conquest (2:00:00) Ming Dynasty Isolationism (2:08:00) Manchu Conquest & Qing Dynasty (2:12:04) Modern China's Challenges (2:19:24) Wrap Learn more about your ad choices. Visit megaphone.fm/adchoices
Hear how data is rewriting the rules—and driving the future of innovation. Dr. Vanja breaks down his approach to enterprise AI, and the key strategies for success. He shares what it means to be a “data-forward organization” and why data must sit at the heart of how a company operates. Discover why integration speed is the new competitive edge Key Moments:Data as a Core Enterprise Asset (6:04): Dr. Vanja defines what it means to be a “data-forward organization,” emphasizing that data shouldn't be an afterthought—it must sit at the heart of how a company operates, makes decisions, and serves customers.Relational Foundation Models for Predictive AI (16:26): Dr. Vanja explains how Kumo uses transformer architectures on raw relational data to eliminate 95% of traditional ML tasks like feature engineering—bringing pre-trained, multi-purpose prediction models into the structured data world.Integration Speed as a Competitive Edge (27:03): It's no longer just about who builds the fastest—but who integrates the fastest. Dr. Vanja shares how companies that can quickly adopt and scale best-in-class third-party tools will define the next generation of winners.The Case for Rebuilding at 10x Advantage (29:02): Dr. Vanja urges leaders to rethink old systems if a new approach offers a 10x cost or performance improvement. Sticking with outdated architectures out of fear or inertia risks falling behind during pivotal transitions.Key Quotes:“The key asset is the data that you have… You need to build the whole enterprise around this data. It's not an afterthought — it's at the center of the organization and how it functions.” - Dr. Vanja“Companies that integrate the fastest — not just build the fastest — will win.” - Dr. Vanja“If you really value your data, you need to stay in the cloud… If the cost is your only driver, then do what you want — but you'll miss out on the majority of new technologies.” - Dr. VanjaMentions:Build AI Models for Relational DataThe New Cloud Era of Data Platform Hosted AppsKumo unveils world's first Relational Foundation Model (RFM) for instant predictions on enterprise dataGuest Bio: Dr. Vanja Josifovski is the Co-Founder and CEO of Kumo. Prior to Kumo, Vanja was the CTO at Airbnb & Pinterest. Here, Vanja led an organization that included horizontal groups such as Homes Engineering and Homes Data Science, as well as GM groups such as Marketplace, Relevance and Personalization, and Regulatory Frameworks. Before Airbnb, Vanja was the CTO & VP Eng at Pinterest, responsible for the overall technical vision and strategy of the company and communicating that to leadership and the teams; hiring and development of technical talent. As the head of Engineering, he managed some core engineering teams. Vanja has also served as an advisor and investor for multiple startups and was the founder for Kosei, which was acquired by Pinterest. Hear more from Cindi Howson here. Sponsored by ThoughtSpot.
ESPN's Dan Wetzel opines on the NCAA and Michigan Wolverines, while Marc defends the Big House and ML and Shawn […]
Talk Python To Me - Python conversations for passionate developers
Python's data stack is getting a serious GPU turbo boost. In this episode, Ben Zaitlen from NVIDIA joins us to unpack RAPIDS, the open source toolkit that lets pandas, scikit-learn, Spark, Polars, and even NetworkX execute on GPUs. We trace the project's origin and why NVIDIA built it in the open, then dig into the pieces that matter in practice: cuDF for DataFrames, cuML for ML, cuGraph for graphs, cuXfilter for dashboards, and friends like cuSpatial and cuSignal. We talk real speedups, how the pandas accelerator works without a rewrite, and what becomes possible when jobs that used to take hours finish in minutes. You'll hear strategies for datasets bigger than GPU memory, scaling out with Dask or Ray, Spark acceleration, and the growing role of vector search with cuVS for AI workloads. If you know the CPU tools, this is your on-ramp to the same APIs at GPU speed. Episode sponsors Posit Talk Python Courses Links from the show RAPIDS: github.com/rapidsai Example notebooks showing drop-in accelerators: github.com Benjamin Zaitlen - LinkedIn: linkedin.com RAPIDS Deployment Guide (Stable): docs.rapids.ai RAPIDS cuDF API Docs (Stable): docs.rapids.ai Asianometry YouTube Video: youtube.com cuDF pandas Accelerator (Stable): docs.rapids.ai Watch this episode on YouTube: youtube.com Episode #516 deep-dive: talkpython.fm/516 Episode transcripts: talkpython.fm Developer Rap Theme Song: Served in a Flask: talkpython.fm/flasksong --- Stay in touch with us --- Subscribe to Talk Python on YouTube: youtube.com Talk Python on Bluesky: @talkpython.fm at bsky.app Talk Python on Mastodon: talkpython Michael on Bluesky: @mkennedy.codes at bsky.app Michael on Mastodon: mkennedy
Mergers and acquisitions are reshaping the logistics tech landscape. In this episode of Freight Friends, Blythe and Grace Sharkey unpack what recent deals mean for the industry, how SEO strategies are shifting under AI pressure, and what freight markets could look like in the coming months. They also explore the ripple effects for carriers, shippers, and the tech companies caught in the middle. Key takeaways: Tech consolidation is reshaping how freight companies compete and collaborate. SEO strategies in logistics are changing fast with AI and shifting consumer behavior. Carriers and shippers are feeling the pressure of an uncertain second half of 2025. Market moves today will set the tone for 2026 freight demand and technology adoption.LINKS:Grace's LinktreeFreightGames.io"Flexport Tycoon"LinkedIn post on Instagram SEOCloudflare fighting against the LLM botsWATCH THE FULL EPISODE HEREFeedback? Ideas for a future episode? Shoot us a text here to let us know. -----------------------------------------THANK YOU TO OUR SPONSORS! Are you experienced in freight sales or already an independent freight agent? Listen to our Freight Agent Trenches interviews powered by SPI Logistics to hear from the company's agents on how they took the entrepreneurial leap. Shipium is the ML-powered shipping platform built by the executives that created Amazon's supply chain technology. They help 3PL & retail leaders like Stord, Ryder, and Saks Off 5th to reduce shipping costs by an average of 12% while improving on-time delivery. CargoRex is the logistics industry's go-to search platform—connecting you with the right tools, services, events, and creators to explore, discover, and evolve. Digital Dispatch manages and maximizes your #1 sales tool with a website that establishes trust and builds rock-solid relationships with your leads and customers.
Send us a textIf our visual scoring is still based on gut feeling, how do we scale precision? In this week's DigiPath Digest, I explored four new AI-focused papers that could reshape how we diagnose prostate, bladder, gastroesophageal, and endocrine cancers.From automated IHC scoring to predicting urethral recurrence post-cystectomy, these studies highlight the growing value—and responsibility—of integrating AI into our pathology workflows.And yes, I also reveal where to get my histology-inspired earrings
Hear how PagerDuty and Zoom built successful AI products using Amazon Q-Index to solve real customer problems like incident response and meeting intelligence, while sharing practical lessons from their early adoption journey.Topics Include:David Gordon introduces AWS Q-Business partnerships with PagerDuty and ZoomMeet Everaldo Aguiar: PagerDuty's Applied AI leader with academia and enterprise backgroundPaul Magnaghi from Zoom brings AI platform scaling experience from SeattleQ-Business launched over a year ago as managed generative AI servicePlatform enables agentic experiences: content discovery, analysis, and process automationBuilt on AWS Bedrock with enterprise guardrails and data source integrationPartners wanted backend capabilities but preferred their own UI and modelsQ-Index provides vector database functionality for ISV partner integrationsEveraldo explains PagerDuty's evolution from traditional ML to generative AI solutionsHistorical challenges: alert fatigue, noise reduction using machine learning approachesNew gen AI opportunities: incident context, relevant data surfacing, automated postmortemsEngineering teams faced learning curve with agents and high-latency user experiencesPaul discusses Zoom's existing AI: virtual backgrounds and voice isolation technologyAI Companion strategy focused on simplicity during complex generative AI adoptionProblem identified: valuable meeting conversations disappear after Zoom calls endCustomer feedback revealed need for enterprise data integration beyond basic summariesGoal: combine unstructured conversations with structured enterprise data seamlesslyPagerDuty Advanced provides agentic AI for on-call engineers during incidentsQ-Index integration accesses internal documentation: Confluence pages, runbooks, proceduresDemo shows Slack integration pulling relevant incident response documentation automaticallyAccess control lists ensure users see only data they're authorized to accessZoom's AI companion panel enables real-time meeting questions and summariesExample use cases: decision tracking, incident analysis, action item identificationAdvice for starting: standardize practices and create internal development templatesSingle data access point reduces legal and security evaluation overheadCenter of excellence approach helps teams move quickly across product divisionsCut through generative AI buzzwords to focus on real user valueFederated AWS Bedrock architecture provides model choice and flexibility meeting customersCustomer trust alignment between Zoom conversations and AWS data handlingGetting started: PagerDuty Advance available now, Zoom AI free with paid add-onsParticipants:Everaldo Aguiar – Senior Engineering Manager, Applied AI, PagerDutyPaul Magnaghi – Head of AI & ISV Go To Market, ZoomDavid Gordon - Global Business Development, Amazon Q for Business. Amazon Web ServicesFurther Links:PagerDuty Website, LinkedIn & AWS MarketplaceZoom Website, LinkedIn & AWS MarketplaceSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon.com/isv/
In this episode of History 102, 'WhatIfAltHist' creator Rudyard Lynch and co-host Austin Padgett do a deep-dive analysis of Japanese history exploring cultural patterns, honor systems, political development, and societal evolution from ancient origins through modern stagnation. -- SPONSOR: ZCASH | SHOPIFY | NETSUITE | ORACLE The right technology reshapes politics and culture toward freedom and prosperity. Zcash—the "machinery of freedom"—delivers unstoppable private money through encryption. When your wealth is unseen, it's unseizable. Download Zashi wallet and follow @genzcash to learn more: https://x.com/genzcash Shopify is the world's leading e-commerce platform, offering a market-leading checkout system Shoppay and exclusive AI apps. Nobody does selling better than Shopify. Get a $1 per month trial at https://shopify.com/momentofzen. More than 42,000 businesses have already upgraded to NetSuite by Oracle, the #1 cloud financial system bringing accounting, financial management, inventory, HR, into ONE proven platform. If you're looking for an ERP platform, get a one-of-a-kind flexible financing program on NetSuite: https://netsuite.com/102 - Download your free CFO's guide to AI and machine learning. Oracle Cloud Infrastructure (OCI): Oracle's next-generation cloud platform delivers blazing-fast AI and ML performance with 50% less for compute and 80% less for outbound networking compared to other cloud providers. OCI powers industry leaders like Vodafone and Thomson Reuters with secure infrastructure and application development capabilities. New U.S. customers can get their cloud bill cut in half by switching to OCI before March 31, 2024 at https://oracle.com/cognitive. -- FOLLOW ON X: @whatifalthist (Rudyard) @LudwigNverMises (Austin) @TurpentineMedia -- TIMESTAMPS: (00:00) Intro (01:35) Why Somalia Will Never Become Denmark (08:27) Japanese DNA Testing Reveals Uncomfortable Truths (09:18) The Ainu People Japan Wants You to Forget (15:07) The Guess the Asian App Controversy (16:09) Sponsors: Zcash | Shopify (29:51) Honor Cultures: Why Africans and Celts Fight Differently (37:13) AI Bots Are Stalking Me (46:33) Why I Never Take Notes (But Had To For This) (1:05:47) My Dad's Mercury Poisoning from Tuna Fish (1:06:33) China Should Sacrifice Lives for Archaeology (1:41:42) Sponsors: NetSuite | Oracle (2:18:19) Matthew Perry vs Admiral Perry (2:34:49) Throwing Up in Nanjing on My 18th Birthday (2:45:03) Stop Making Me Feel Guilty for Hiroshima (2:45:53) Wrap Learn more about your ad choices. Visit megaphone.fm/adchoices
Send us a textAI in Pathology: ML-Ops and the Future of DiagnosticsWhat if the most advanced AI models we're building today are doomed to die in the machine learning graveyard?
00:00-10:00: ML goes into the archive. Here is his interview with the late Yankees public address announcer Bob Sheppard. They talk Bob's career, saying bye to the old Yankee Stadium, his great career, announcing Mickey Mantle's name, his special table in the stadium's cafeteria and more.
In this episode of Elixir Wizards, host Sundi Myint chats with SmartLogic engineers and fellow Wizards Dan Ivovich and Charles Suggs about the practical tooling that surrounds Elixir in a consultancy setting. We dig into how standardized dev environments, sensible scaffolding, and clear observability help teams ship quickly across many client projects without turning every app into a snowflake. Join us for a grounded tour of what's working for us today (and what we've retired), plus how we evaluate new tech (including AI) through a pragmatic, Elixir-first lens. Key topics discussed in this episode: Standardizing across projects: why consistent environments matter in consultancy work Nix (and flakes) for reproducible dev setups and faster onboarding Igniter to scaffold common patterns (auth, config, workflows) without boilerplate drift Deployment approaches: OTP releases, runtime config, and Ansible playbooks Frontend pipeline evolution: from Brunch/Webpack to esbuild + Tailwind Observability in practice: Prometheus metrics and Grafana dashboards Handling time-series and sensor data When Explorer can be the database Picking the right tool: Elixir where it shines, integrations where it counts Using AI with intention: code exploration, prototypes, and guardrails for IP/security Keeping quality high across multiple codebases: tests, telemetry, and sensible conventions Reducing context-switching costs with shared patterns and playbooks Links mentioned: http://smartlogic.io https://nix.dev/ https://github.com/ash-project/igniter Elixir Wizards S13E01 Igniter with Zach Daniel https://youtu.be/WM9iQlQSFg https://github.com/elixir-explorer/explorer Elixir Wizards S14E09 Explorer with Chris Grainger https://youtu.be/OqJDsCF0El0 Elixir Wizards S14E08 Nix with Norbert (Nobbz) Melzer https://youtu.be/yymUcgy4OAk https://jqlang.org/ https://github.com/BurntSushi/ripgrep https://github.com/resources/articles/devops/ci-cd https://prometheus.io/ https://capistranorb.com/ https://ansible.com/ https://hexdocs.pm/phoenix/releases.html https://brunch.io/ https://webpack.js.org/loaders/css-loader/ https://tailwindcss.com/ https://sass-lang.com/dart-sass/ https://grafana.com/ https://pragprog.com/titles/passweather/build-a-weather-station-with-elixir-and-nerves/ https://www.datadoghq.com/ https://sqlite.org/ Elixir Wizards S14E06 SDUI at Cars.com with Zack Kayser https://youtu.be/nloRcgngTk https://github.com/features/copilot https://openai.com/codex/ https://www.anthropic.com/claude-code YouTube Video: Vibe Coding TEDCO's RFP https://youtu.be/i1ncgXZJHZs Blog: https://smartlogic.io/blog/how-i-used-ai-to-vibe-code-a-website-called-for-in-tedco-rfp/ Blog: https://smartlogic.io/blog/from-vibe-to-viable-turning-ai-built-prototypes-into-market-ready-mvps/ https://www.thriftbooks.com/w/eragon-by-christopher-paolini/246801 https://tidewave.ai/ !! We Want to Hear Your Thoughts *!!* Have questions, comments, or topics you'd like us to discuss in our season recap episode? Share your thoughts with us here: https://forms.gle/Vm7mcYRFDgsqqpDC9
In our Patreon-exclusive aftershow, Yan and Nat continue the conversation with Gambian comics critic ML Kejera. Right before this audio preview, ML and our hosts were talking about how difficult it was to find "official" copies of today's readings (Arzach and Blueberry by Mœbius) — which turns into a conversation about piracy, preservation, and the ails of the comics industry. If you want to hear more, head over to Patreon and become a Friend of Comic Sans today! Learn more about your ad choices. Visit megaphone.fm/adchoices
In this episode of History 102, 'WhatIfAltHist' creator Rudyard Lynch and co-host Austin Padgett do a deep-dive into the Mongol Empire's rise, conquests, and civilizational impact, examining how Genghis Khan's brutal campaigns reshaped Eurasian politics and accelerated Western Europe's ascendancy. -- SPONSOR: ZCASH | SHOPIFY | NETSUITE | ORACLE The right technology reshapes politics and culture toward freedom and prosperity. Zcash—the "machinery of freedom"—delivers unstoppable private money through encryption. When your wealth is unseen, it's unseizable. Download Zashi wallet and follow @genzcash to learn more: https://x.com/genzcash Shopify is the world's leading e-commerce platform, offering a market-leading checkout system Shoppay and exclusive AI apps. Nobody does selling better than Shopify. Get a $1 per month trial at https://shopify.com/momentofzen More than 42,000 businesses have already upgraded to NetSuite by Oracle, the #1 cloud financial system bringing accounting, financial management, inventory, HR, into ONE proven platform. If you're looking for an ERP platform, get a one-of-a-kind flexible financing program on NetSuite: https://netsuite.com/102 - Download your free CFO's guide to AI and machine learning. Oracle Cloud Infrastructure (OCI): Oracle's next-generation cloud platform delivers blazing-fast AI and ML performance with 50% less for compute and 80% less for outbound networking compared to other cloud providers. OCI powers industry leaders like Vodafone and Thomson Reuters with secure infrastructure and application development capabilities. New U.S. customers can get their cloud bill cut in half by switching to OCI before March 31, 2024 at https://oracle.com/cognitive -- FOLLOW ON X: @whatifalthist (Rudyard) @LudwigNverMises (Austin) @TurpentineMedia -- TIMESTAMPS: (00:00) Intro (03:04) Polygamous Imperial Cycles and Genghis Khan's Genetic Legacy (05:43) Sponsors: ZCash | Shopify (09:27) Genghis Khan as Totalitarian Figure and Step Empire Dynamics (15:25) Academic Debates About the Mongols - Left vs Military Historians (28:40) Major Mongol Military Campaigns - Badger's Mouth and Khwarezmid (33:27) Sponsors: NetSuite | Oracle Cloud Infrastructure (46:14) Genghis Khan's Rise - Childhood, Unification of Mongols (56:59) Conquest of Northern China - 30 Million Dead (1:11:28) Destruction of Central Asia and the Islamic World (1:20:16) Conquest and Transformation of Russia (1:28:59) Mongol Empire Splits - Four Khanates and Kublai Khan (1:43:21) Pax Mongolica and Failed Invasions of Japan/Java (1:52:30) Fall of the Mongol Empire - Black Death and Ming Dynasty (2:06:52) Long-Term Impact - Europe's Rise Over Asia (2:11:42) Mongol Role in Spreading Black Death and Closing Learn more about your ad choices. Visit megaphone.fm/adchoices
Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
00:00-15:00: ML says the Bills running backs have it all and are primed for a big year again in 2025.
Erika, Marc and ML put the “fun” in funeral, as the show gets off to an oddly macabre start, before […]
This solo episode of Everything is Logistics pulls back the curtain on CargoRex's new Associations directory—why we built it, who it serves, and how to use it to find the right freight, logistics, and supply chain associations for your goals.You'll hear the product decisions behind the category (taxonomy, search, and selection criteria), the problems it solves for busy operators, and a simple workflow to turn a membership into a pipeline. Plus, how you can suggest an association, claim your listing, and what's coming next in the CargoRex roadmap.Key takeaways:The problem: association info is scattered, outdated, and hard to compare.The build: a clean index of freight/logistics associations with filters that match how pros evaluate membership.The win: faster discovery, better fit, clearer ROI on dues and time.How to use it: shortlist, compare perks, plan engagement, measure results.What's next: more categories, better search, and member playbooks.“Membership only works if you work it. CargoRex helps you pick smarter and act faster.”Try it: Head to CargoRex and open the Associations category to search, compare, and submit missing orgs.LINKS:CargoRex WebsiteCargoRex AssociationsBest Trade Associations for Logistics Professionals: Boost Your Network, Knowledge & CredibilityWATCH THE FULL EPISODE HEREFeedback? Ideas for a future episode? Shoot us a text here to let us know. -----------------------------------------THANK YOU TO OUR SPONSORS! Are you experienced in freight sales or already an independent freight agent? Listen to our Freight Agent Trenches interviews powered by SPI Logistics to hear from the company's agents on how they took the entrepreneurial leap. Shipium is the ML-powered shipping platform built by the executives that created Amazon's supply chain technology. They help 3PL & retail leaders like Stord, Ryder, and Saks Off 5th to reduce shipping costs by an average of 12% while improving on-time delivery. CargoRex is the logistics industry's go-to search platform—connecting you with the right tools, services, events, and creators to explore, discover, and evolve. Digital Dispatch manages and maximizes your #1 sales tool with a website that establishes trust and builds rock-solid relationships with your leads and customers.
Origins - A podcast about Limited Partners, created by Notation Capital
Sunil Dhaliwal founded Amplify in 2012, and was joined by his longtime friend and colleague Mike Dauber in 2014. Beginning as one of the first solo GP, early-stage, sector-focused funds, Amplify has now grown to a team of 9 partners investing in the next generation of applications tools and platforms for developers, data teams, and ML engineers focused on AI, cloud infrastructure, and data security. Mike and Sunil sit down with Beezer Clarkson, Partner at Sapphire Partners, to discuss their strategy of building for outliers, shaping founders into leaders, and making it easy for their GPs to back non-consensus companies. They also unpack their recent $900 million raise and their first dedicated biotech fund, Amplify Bio.Learn more about Sapphire Partners: sapphireventures.com/sapphire-partnersLearn more about OpenLP: openlp.vcLearn more about Asylum Ventures: asylum.vcLearn more about Amplify: amplifypartners.comFor a monthly roundup of the latest venture insights, including the newest Origins episodes, subscribe to the OpenLP newsletter – delivered straight to your inbox: subscribe.openlp.vcCHAPTERS:0:00 Welcome to Origins2:17 The Origins of Amplify5:21 Eliminating the Need for “Mr. Business”10:25 Building Amplify for Outliers25:08 Being Technical VCs in the Age of AI28:47 Amplify Bio36:19 Has Venture Actually Changed At All?
High Performance Computing is here for the masses!Enterprises are bleeding budget in the public cloud, shackled to legacy on-prem systems, and wrestling with HPC workflows so complex they require armies of admins just to keep them running. In this episode, I talk to Matthew Shaxted, Founder & CEO of Parallel Works, about how their ACTIVATE platform is breaking that lock-in, unifying HPC, AI, and hybrid cloud computing into one seamless control plane.Think democratized supercomputing — where scientists, researchers, engineers, and AI teams get instant, intuitive access to powerful compute resources without becoming system admins. ACTIVATE abstracts away the messy plumbing of schedulers, chipsets, and hybrid environments, enabling workloads to run seamlessly across on-prem, multi-cloud, and GPU clusters. From high-security IL5/CUI/ITAR deployments to real-time cost control and AI-driven physics model replacement, Parallel Works is lowering the complexity barrier and unlocking HPC for the AI era.Parallel Works was founded in 2014 in Chicago, IllinoisTechnology & Topics Mentioned:HPC, AI Orchestration, Hybrid Cloud, OpenStack, Kubernetes, GPU Clusters, Multi-GPU Nodes, IL5 Security, CUI/ITAR Compliance, Workflow Automation, Cost Governance, Scientific Computing, Predictive Modelling, Scheduler Abstraction, HPCwire Top Cloud Platform, Cloud Repatriation, NOAA, Biomedical Research, Space Weather Modelling, ML-based Physics ReplacementGreat Things with Great Tech Podcast: https://gtwgt.comGTwGT Playlist on YouTube: https://www.youtube.com/@GTwGTPodcastListen on Spotify: https://open.spotify.com/show/5Y1Fgl4DgGpFd5Z4dHulVXListen on Apple Podcasts: https://podcasts.apple.com/us/podcast/great-things-with-great-tech-podcast/id1519439787EPISODE LINKSParallel Works Website: https://www.parallelworks.comParallel Works on LinkedIn: https://www.linkedin.com/company/parallel-worksMatthew Shaxted on LinkedIn: https://www.linkedin.com/in/matthewshaxtedGTwGT LINKSSupport the Channel: https://ko-fi.com/gtwgtBe on #GTwGT: Contact via Twitter/X @GTwGTPodcast or visit https://www.gtwgt.comSubscribe to YouTube: https://www.youtube.com/@GTwGTPodcast?sub_confirmation=1Great Things with Great Tech Podcast Website: https://gtwgt.comSOCIAL LINKSFollow GTwGT on Social Media:Twitter/X: https://twitter.com/GTwGTPodcastInstagram: https://www.instagram.com/GTwGTPodcastTikTok: https://www.tiktok.com/@GTwGTPodcast
In this episode of History 102, 'WhatIfAltHist' creator Rudyard Lynch and co-host Austin Padgett go into a deep philosophical exploration of mystical traditions throughout history, examining Plato, Aristotle, Eastern and Western mysticism, and how ancient spiritual knowledge shaped modern civilization and consciousness. --
Scott Seidenberg and Steve Fezzik talk all things NFL this week.
As the sweltering purple sun rises over the old ruins, the comics in Yan and Nat's hands shrivel away and crumble to dust. With no food, no water, and nothing to read for today's episode, the end seems nigh for our brave adventurers, until… look! With a mighty cry, comic critic ML Kejera soars in on a biometallic pterodactyl holding aloft a glowing tome — "Arzach" by Mœbius! --- The conversation with ML continues in the Comic Sans Aftershow, our Patreon-exclusive podcast where Yan and Nat chat in depth with guests on their work and creative practice. Become a Friend of Comic Sans today! 00:00 - Welcome to the show, ML! 06:41 - Unhinged Keje-rant: To Dream, Perchance to Draw 29:31 - Discussion of Arzach #1 33:20 - Discussion of Arzach #3 36:23 - Discussion of Arzach #2 42:54 - Discussion of Arzach #4 52:26 - Sharing of Dream Journals 55:32 - ML's Final Questions In this episode, Yan and Nat read the four issues of Arzach by Mœbius. Transcript and bibliography coming soon. --- ML Kejera is a Gambian writer and comics critic currently based in Illinois. His fiction has been shortlisted for the Commonwealth Short Story Prize and awarded a Miles Morland Writing Scholarship. He used to review comics for the AV Club, and both wrote and edited for the Eisner-winning journal of comics criticism, PanelxPanel. ML has work published or forthcoming in The Nation, LA Review of Books Quarterly, The Comics Journal, Wasafiri, and the Cafe Irreal. Follow ML on Bluesky and Instagram, or email him at mlaminkejera [at] gmail [dot] com. If you enjoyed the show, you can support us on Patreon, leave us a review, or follow us @comicsanspod on Instagram, Bluesky, and Tiktok. Comic Sans is an Andas Productions podcast hosted by Myle Yan Tay and Nathaniel Mah, produced by Scott Lee Chua and Roshan Singh Sambhi. Edited by Maddy Searle (audio) and Kit Ling Leong (video). Transcribed by Danielle Anne Espinosa. Cover art and motion graphics animation by Knikni Studio (Maryana Rudakova). Learn more about your ad choices. Visit megaphone.fm/adchoices
In this episode of Experiencing Data, I introduce part 1 of my new MIRRR UX framework for designing trustworthy agentic AI applications—you know, the kind that might actually get used and have the opportunity to create the desired business value everyone seeks! One of the biggest challenges with both traditional analytics, ML, and now, LLM-driven AI agents, is getting end users and stakeholders to trust and utilize these data products—especially if we're asking humans in the loop to make changes to their behavior or ways of working. In this episode, I challenge the idea that software UIs will vanish with the rise of AI-based automation. In fact, the MIRRR framework is based on the idea that AI agents should be “in the human loop,” and a control surface (user interface) may in many situations be essential to ensure any automated workers engender trust with their human overlords. By properly considering the control and oversight that end users and stakeholders need, you can enable the business value and UX outcomes that your paying customers, stakeholders, and application users seek from agentic AI. Using use cases from insurance claims processing, in this episode, I introduce the first two of five control points in the MIRRR framework—Monitor and Interrupt. These control points represent core actions that define how AI agents often should operate and interact within human systems: Monitor – enabling appropriate transparency into AI agent behavior and performance Interrupt – designing both manual and automated pausing mechanisms to ensure human oversight remains possible when needed …and in a couple weeks, stay tuned for part 2 where I'll wrap up this first version of my MIRRR framework. Highlights / Skip to: 00:34 Introducing the MIRRR UX Framework for designing trustworthy agentic AI Applications. 01:27 The importance of trust in AI systems and how it is linked to user adoption 03:06 Cultural shifts, AI hype, and growing AI skepticism 04:13 Human centered design practices for agentic AI 06:48 I discuss how understanding your users' needs does not change with agentic AI, and that trust in agentic applications has direct ties to user adoption and value creation 11:32 Measuring success of agentic applications with UX outcomes 15:26 Introducing the first two of five MIRRR framework control points: 16:29 M is for Monitor; understanding the agent's “performance,” and the right level of transparency end users need, from individual tasks to aggregate views 20:29 I is for Interrupt; when and why users may need to stop the agent—and what happens next 28:02 Conclusion and next steps
Mark Zuckerberg and Meta are betting big on AI and trying to build a dream team. Can they buy their way into AI dominance? Quarterly results are in for most of the tech world, and we don't really care. Google has a bunch of new rules on age and language. That and so much more as we help you tech better! Watch on YouTube! - Notnerd.com and Notpicks.com INTRO (00:00) One month until new iPhones! - Nate's iPhone Beta Woes (03:05) Quarterly Results from big tech, who cares - Microsoft officially tops $4 trillion in market cap, joining Nvidia in exclusive club (08:25) Bitchat reality check (11:10) MAIN TOPIC: Can Meta buy AI Superintelligence? (12:30) Meta is shelling out big bucks to get ahead in AI. Here's who it's hiring Meta's AI Recruiting Campaign Finds a New Target Mark Zuckerberg says Superintelligence is imminent. What is it? DAVE'S PRO-TIP OF THE WEEK: Download Offline Maps (25:55) JUST THE HEADLINES: (33:35) U.S. Senators Introduce New Pirate Site Blocking Bill: Block BEARD YouTube loosens profanity rules for monetized videos Cheyenne to host massive AI data center using more electricity than all Wyoming homes combined Elon Musk says he's bringing back Vine's archive A luggage service's web bugs exposed the travel plans of every user Tim Cook has now been Apple's CEO for longer than Steve Jobs Radioactive wasp nests found near nuclear storage site in South Carolina TAKES: Google starts rolling out ML-powered age estimation in the US - YouTube banned for teens in Australia (36:20) Trump ends de minimis exemption for global low-cost goods - Nintendo Switch Pricing Update (42:30) iOS 26's new Messages feature has political fundraisers freaking out (46:40) Your public ChatGPT queries are getting indexed by Google and other search engines (47:55) BONUS ODD TAKE: Historical Tech Tree (49:50) PICKS OF THE WEEK: Dave: Mint Mobile (54:45) Nate: BOYA by M1 Lavalier Microphone for Smartphones Canon Nikon DSLR Cameras Camcorders Audio Recorder PC (01:01:00) Ramazon Purchase of the Week (01:06:55)
Marc and Shawn wait for ML to return from Fox 2, where he dropped in to opine on the Detroit […]
Before we can build a base on the Moon, we need something even more important than astronauts: a supply chain. In this episode of Everything is Logistics, we're exploring the "New Silk Road in Space" with Joe Pawelski, CTO and co-founder of CisLunar Industries. Joe breaks down how his company is developing the infrastructure to support in-space manufacturing, power systems, and debris recycling—all to make lunar logistics a reality. From turning orbital junk into usable fuel and metal to enabling sustainable lunar operations, this conversation connects the dots between space innovation and real-world logistics strategy. We cover: How the Space Foundry and Power Processing Units (PPUs) enable space-based supply chains What it takes to build and power a Moon base Why orbital recycling is more than space cleanup—it's a new source of fuel and materials The METAL framework and what it means for lunar logistics infrastructure What logistics pros on Earth can learn from solving supply chain challenges 240,000 miles away Whether you move freight by truck, ship, or spacecraft—this episode delivers.Listen in and imagine the future where cargo routes don't stop at the atmosphere.LINKS:Joe's LinkedInCisLunar Industries LinkedInCisLunar Industries WebsiteWATCH THE FULL EPISODE HEREFeedback? Ideas for a future episode? Shoot us a text here to let us know. -----------------------------------------THANK YOU TO OUR SPONSORS! Are you experienced in freight sales or already an independent freight agent? Listen to our Freight Agent Trenches interviews powered by SPI Logistics to hear from the company's agents on how they took the entrepreneurial leap. Shipium is the ML-powered shipping platform built by the executives that created Amazon's supply chain technology. They help 3PL & retail leaders like Stord, Ryder, and Saks Off 5th to reduce shipping costs by an average of 12% while improving on-time delivery. CargoRex is the logistics industry's go-to search platform—connecting you with the right tools, services, events, and creators to explore, discover, and evolve. Digital Dispatch manages and maximizes your #1 sales tool with a website that establishes trust and builds rock-solid relationships with your leads and customers.
00:00-10:00: ML chats baseball and life and broadcasting with Joe Castiglione, Jim Leyritz and Amber Sabathia from Cooperstown. Thanks to Rosie's Corner and CH Insurance.
Join Jim and Greg for the Friday edition of the 3 Martini Lunch as they react to President Trump's firm opposition to a Palestinian state, a deeply disappointing July jobs report, and more glaring incompetence from Los Angeles Mayor Karen Bass and former Vice President Kamala Harris.First, they applaud Trump for refusing to follow France, Great Britain, and Canada in announcing their support for a Palestinian state. Trump says would be rewarding Hamas for its atrocities against Israel and beyond. Jim and Greg also explain why calls for establishing a Palestinian state with Mahmoud Abbas and Palestinian Authority is a horrible idea.Next, they shake their heads at the July jobs report, which shows just 73,000 jobs added, a number far below expectations. Making matters worse, numbers from May and June were revised down by more than 250,000. Jim suggests tariffs may be hurting job creation, and both he and Greg warn against using tariff revenues to send us all checks.Finally, they roll their eyes as Los Angeles Mayor Karen Bass says the withdrawal of more National Guard personnel means they are in "retreat." Bass also cluelessly says he wants all military out of LA. Jim and Greg remind you that Bass was on Joe Biden's short list for vice president in 2020. Ultimately, that not went to Kamala Harris, who proved again on national television Thursday night, that she has no business being anywhere near the Oval Office.Please visit our great sponsors:No missed calls, no missed customers with OpenPhone. Get 20% off your first 6 months at https://Openphone.com/3ml Keep your skin looking and acting younger for longer. Get 15% off OneSkin with the code 3 ML at https://www.oneskin.co/
00:00-10:00: ML chats baseball with David Price, Juan Marichal and Doc Gooden.
Join Jim and Greg for the Thursday 3 Martini Lunch, as they welcome the news that former Vice President Kamala Harris will not run for governor of California in 2026. They also discuss New York City mayoral candidate Zohran Mamdani attempting to downplay his past calls to defund the police, and whether Defense Secretary Pete Hegseth might be eyeing a future political campaign.First, they're glad to see Kamala Harris choose not to enter next year's governor's race, especially since she reportedly had little interest in actually doing the job. They also discuss whether she's likely to pursue another presidential campaign in 2028 and what the California governor's race looks like without Harris in the field.Next, Jim and Greg focus on Mamdani's effort to distance himself from his long-held “defund the police” stance following this week's horrific mass shooting in Manhattan. They're also frustrated by polling that shows Mamdani likely to win the New York City mayoral race, regardless of how the rest of the field shakes out. Jim also slams a Politico article that dismisses criticism of Mamdani's Marxist ideology as “Mamdani Derangement Syndrome.”Finally, they consider reports that Sec. Hegseth might be thinking about leaving his cabinet position to run for political office in Tennessee. Jim and Greg both find this far-fetched, considering the huge goals Hegseth is pursuing for our military and because there's not much he could run for in Tennessee anytime soon.Please visit our great sponsors:No missed calls, no missed customers with OpenPhone. Get 20% off your first 6 months at https://Openphone.com/3ml Keep your skin looking and acting younger for longer. Get 15% off OneSkin with the code 3 ML at https://www.oneskin.co/
Join Jim and Greg for the Wednesday 3 Martini Lunch as they applaud Environmental Protection Agency Administrator, Lee Zeldin for wanting to rein the power of his agency, They're also happy to see decent economic growth in the second quarter, and they berate Pete Buttigieg for his pathetic response about the future of the Democratic Party. First, they praise Zeldin for urging the courts to restrict the Environmental Protection Agency's powers to what Congress has explicitly authorized. Jim notes that if Democrats want the EPA to expand its reach, they need to pass legislation, not rely on regulatory overreach. Greg applauds Zeldin for respecting the limits of government power and willingly ceding authority not grounded in law.Next, Jim and Greg are thrilled to see the resilience of the economy as the second quarter GDP rose by three percent. Although not a fan of tariffs, Jim is pleasantly surprised to see the economy doing well. Meanwhile, the positive growth means we are nowhere near a recession, forcing Democrats to find different talking points. Last, they slam Buttigieg for his substance-free response to The Breakfast Club's Charlamagne tha God, who asked whether the future of the Democratic party is someone more like New York City mayoral candidate Zohran Mamdani or someone like Buttigieg. Buttigieg's response included such rhetorical gems as "we're each going to be putting forward the version of the message that's truest to who we are" and what young Democrat politicians have in common is that "they are who they are." Jim and Greg have fun with Buttigieg's meaningless answers and consider what answers would have actually been interesting.Please visit our great sponsors:No missed calls, no missed customers with OpenPhone. Get 20% off your first 6 months at https://Openphone.com/3ml Keep your skin looking and acting younger for longer. Get 15% off OneSkin with the code 3 ML at https://www.oneskin.co/
Join Jim and Greg for the Tuesday 3 Martini Lunch. Today, they applaud President Trump for ratcheting up the pressure on Vladimir Putin and scold him for refusing to allow the president of Taiwan to visit the U.S. And they examine the arrest of the illegal alien serving as a police officer in Maine. First, after noting the passing of Chicago Cubs legend Ryne Sandberg, they cheer President Trump for giving Putin a firm 10–12 day deadline to end the war in Ukraine. Trump appears to be losing patience with Putin's broken promises and ongoing escalations. Jim and Greg also explore how Trump might respond if Putin ignores the warning, and they question America's continued dependence on adversaries like Russia and China for materials vital to national security.Next, they slam Trump's refusal to let Taiwanese President Lai Ching-te stop in New York City en route to Latin America. While the move may be tied to sensitive trade talks with Beijing, Jim argues the U.S. should never let China dictate who can enter our country. They also examine how this decision may embolden the Chinese government. Finally, they break down the arrest of an illegal immigrant in Maine who was not only trying to buy a gun but was already working as a local police officer. While officials claim to have used E-Verify to confirm his status, Jim notes the system can't verify whether applicants actually own the documents they present.Please visit our great sponsors:No missed calls, no missed customers with OpenPhone. Get 20% off your first 6 months at https://Openphone.com/3ml Keep your skin looking and acting younger for longer. Get 15% off OneSkin with the code 3 ML at https://www.oneskin.co/
Join Jim and Greg for Monday's 3 Martini Lunch as they dig into the steep drop in violent crime in Baltimore, President Trump's new trade deal with the European Union, and a bizarre lawsuit blaming the U.S. Navy's Blue Angels for terrorizing a cat in its final days.First, they examine the dramatic decrease in Baltimore's murder rate since voters ousted soft-on-crime prosecutor Marilyn Mosby in the 2022 Democratic primary. Her replacement, Ivan Bates, pledged a return to aggressive prosecutions, and the numbers show it's working. Under Mosby, there were 334 murders in 2022. Last year, the total dropped to 202, and the city has recorded just 68 homicides so far in 2024. Jim and Greg argue it's no mystery what's driving the improvement.Next, they dissect President Trump's trade agreement with the European Union, which includes lowered tariffs and major commitments from Europe to buy U.S. energy and weapons. Jim says this deal is a significant relief given what would have happened later this week without a deal. But he's still concerned that American consumers will end up paying more for a lot of things.Finally, they lambaste the crazy cat lady, who decided to sue the Blue Angels for disturbing the final days of her cat, as it died from heart disease. Jim is flabbergasted that anyone could blame the progression of heart disease on noise from planes. He's also greatly annoyed that the lady is referred to as that cat's "human mother" in news reports.Please visit our great sponsors:No missed calls, no missed customers with OpenPhone. Get 20% off your first 6 months at https://Openphone.com/3ml Keep your skin looking and acting younger for longer. Get 15% off OneSkin with the code 3 ML at https://www.oneskin.co/