Podcasts about a2a

  • 165PODCASTS
  • 732EPISODES
  • 32mAVG DURATION
  • 5WEEKLY NEW EPISODES
  • Sep 9, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about a2a

Latest podcast episodes about a2a

Everyday AI Podcast – An AI and ChatGPT Podcast
EP 606: Inside MIT's Viral AI Study. The reasons why 95% of AI pilots do not fail

Everyday AI Podcast – An AI and ChatGPT Podcast

Play Episode Listen Later Sep 9, 2025 36:06


MIT's ‘95% of AI pilots fail' headline is a litmus test: will people think critically, or just swallow clickbait?Unfortunately, the latter won.The MIT '95 % of AI pilots fail' study has taken over the internet, and it's one of the worst studies I've ever read. (And I've read thousands.) ↳ So, what's the truth?↳ Is AI a bubble that's about to pop? ↳ Why is this study rubbish? ↳ And how does it impact you? Don't miss out.Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Thoughts on this? Join the convo and connect with other AI leaders on LinkedIn.Upcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:MIT AI Study Claims 95% Failure RateBreakdown of MIT Study MethodologyImpact of Viral MIT AI Study HeadlinesFlaws in MIT Study ROI MeasurementComparison With Reputable AI ROI StudiesMIT Study's Biased Participant SelectionNanda Project Marketing in MIT ReportFive Major Red Flags in MIT AI ResearchBusiness Implications of Flawed AI Pilots DataHow Media Sensationalizes AI Study ResultsTimestamps:00:00 "MIT AI Study Critique"04:16 AI Investments Trigger Stock Market Decline06:37 "Host's Background Overview"10:58 Flawed AI Study Critique13:28 MIT Study Highlights AI Implementation Challenges18:58 AI Work Trends & ROI Insights20:17 "Crossing the Gen AI Divide"23:25 Flawed Study with Misleading Claims29:34 "Uncritical Reposting Spurs Fake Study"30:30 "Read Studies, Not Summaries"Keywords:MIT AI study, 95% AI pilot failure, enterprise AI pilots, generative AI ROI, AI pilot success rate, AI project failure, state of AI in business, gen AI divide, MIT Media Lab, AI investment, AI implementation challenges, AI return on investment, AI research methodology, AI study critique, AI marketing, Nanda project, AI vendor solutions, agentic web, MCP protocol, A2A protocol, Fortune article, AI media coverage, stock market impact, NVIDIA stock drop, Palantir, ARM stock, qualitative AI data, AI structured interviews, AI industry surveys, IDC AI research, Snowflake ESG report, McKinsey AI analysis, Microsoft Work Trend Index, Boston Consulting Group AI study, AI adoption rates, enterprise AI transformation, sample size in AI studies, research limitations, AI productivity impact, AI workflow automation, AI business decisions, AI bubble, AI reporting in media, AI pilot timeline, enterprise AI tools, AI agent capabilities, AI autonomy, custom AI solutions, AI study bias, marketing disguised as research, sensationalized AI studies.Send Everyday AI and Jordan a text message. (We can't reply back unless you leave contact info) Ready for ROI on GenAI? Go to youreverydayai.com/partner

Apples 2 Apples
It's a Touchback!

Apples 2 Apples

Play Episode Listen Later Sep 6, 2025 88:36


We have made it through the dog days and NFL Kickoff is here! The guys break down a murky fantasy outlook and try to predict what this season will have in store. Plot twist - they're probably wrong. Come join us for a packed A2a you don't want to miss.

AWS for Software Companies Podcast
Ep140: Architecting Agentic AI Systems - Technical Insights for ISVs with Anyscale, CrewAI and Encrypt AI

AWS for Software Companies Podcast

Play Episode Listen Later Sep 3, 2025 44:28


A panel discussion with AI industry leaders revealing how enterprises are scaling AI today, with predictions on coming breakthroughs for AI and the impact on Fortune 500 companies and beyond.Topics Include:Three technical leaders discuss production challenges: security, interoperability, and scaling agentic systemsPanelists represent Enkrypt (security), Anyscale (infrastructure), and CrewAI (agent orchestration platforms)Industry moving from flashy demos to dependable agents with real business outcomesBreakthrough examples include 70-page IRS form processing and multimodal workflow automationMultimodal data integration becoming crucial - incorporating video, audio, screenshots into decisionsLess than 10% of future applications expected to be text-onlyCompanies shifting from experimenting with individual models to deploying agent networksNeed for governance frameworks as enterprises scale to hundreds of agentsGrowing software stack complexity requires specialized infrastructure between applications and GPUsSecurity teams need centralized visibility across fragmented agent deployments across enterprisesExisting industry regulations apply to AI services - no special AI laws neededInteroperability standards debate: MCP gaining adoption while A2A seems premature solutionMCP shows higher API reliability than OpenAI tool calling for implementationsMultimodal systems more vulnerable to attacks but value proposition too high ignoreFortune 500 company automated price operations approval process using 630 brands data87% of enterprise customers deploy agents in private VPCs or on-premises infrastructureSpecialized AI systems needed to oversee other agents at machine speed scalesCost optimization through model specialization rather than always using most powerful modelsFuture learning may happen through context/prompting rather than traditional weight fine-tuningPredictions include AI meeting moderators and agents working autonomously for hoursParticipants:Robert Nishihara - Co-founder, AnyscaleJoão Moura - CEO, CrewAISahil Agarwal - Co-Founder & CEO, Enkrypt AIJillian D'Arcy - Sr. ISV Sales Leader, Amazon Web ServicesFurther Links:Anyscale – Website | LinkedIn | AWS MarketplaceCrewAI - Website | LinkedIn | AWS MarketplaceEnkrypt AI - Website | LinkedIn | AWS MarketplaceSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon.com/isv/

Where the White Coats Come Off
PA vs NP vs MD/DO: What's the Difference, the Medical Model, and How to Answer This at Your PA School Interview!

Where the White Coats Come Off

Play Episode Listen Later Sep 2, 2025 11:40


Confused about the difference between PAs, NPs, and MD/DOs? In this episode, we break down education, training, scope of practice, lifestyle, and salary. You'll also learn how to answer common PA school interview questions like, “Why PA vs NP vs MD/DO?” and “What is the medical model?”____________________________________________Application to Acceptance NOW ENROLLING!! (Coaching starts September 15 so you're ready to submit by Oct 1) Create your most competitive application in Application to Acceptance Course - where we walk you step-by-step in creating your strongest, most competitive PA school application! From picking the right schools who will love your stats (even with a low GPA), to crafting an exceptional personal statement and experience paragraphs, and so much more, A2A has helped countless pre-PAs get accepted to PA school! Whether you want to apply now or next cycle, this course will show you exactly how to put together your best CASPA application so you can land PA school interviews and get accepted to PA school! We walk you through every step here!Keep up the amazing work future PA!Katie & Beth

Clear the Shelf with Chris & Chris
How to Find $50K of Profitable Amazon to Amazon Flips Every Month

Clear the Shelf with Chris & Chris

Play Episode Listen Later Sep 2, 2025 104:55


Learn how Saul is able to find over $50,000 a month in profitable Amazon to Amazon Flips.♻️ Learn More About Amazon to Amazon Flips Here - https://www.oachallenge.com/az-az-flips-challenge/➕ Join OAC+ - The premier community for Amazon sellers looking to grow their business and become better business owners: https://www.oachallenge.com/plus

The Hoist
PARAQUAY | The Hoist with Sarah

The Hoist

Play Episode Listen Later Aug 28, 2025 17:46


Sarah was joined by Gus, Jett and Jade from Paraquay. The band is known for their charming tunes and a raucous attitude on stage, Paraquay has previously set the scene with their album Here For Your Pleasure in 2023, and are back at it again with their newly released sophomore album ‘Avalon to Avalon’ (A2A) and their single ‘Harder For Myself’. See omnystudio.com/listener for privacy information.

Everyday AI Podcast – An AI and ChatGPT Podcast
EP 597: Do 95% of AI Pilots Fail? Why You Should Ignore MIT's Viral New AI “Study”

Everyday AI Podcast – An AI and ChatGPT Podcast

Play Episode Listen Later Aug 26, 2025 36:06


You got duped.The MIT '95 % of AI pilots fail' study has taken over the internet, and it's one of the worst studies I've ever read. (And I've read thousands.) ↳ So, what's the truth?↳ Is AI a bubble that's about to pop? ↳ Why is this study rubbish? ↳ And how does it impact you? Join us and we'll dish it all.Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Thoughts on this? Join the convo and connect with other AI leaders on LinkedIn.Upcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:MIT AI Study Claims 95% Failure RateBreakdown of MIT Study MethodologyImpact of Viral MIT AI Study HeadlinesFlaws in MIT Study ROI MeasurementComparison With Reputable AI ROI StudiesMIT Study's Biased Participant SelectionNanda Project Marketing in MIT ReportFive Major Red Flags in MIT AI ResearchBusiness Implications of Flawed AI Pilots DataHow Media Sensationalizes AI Study ResultsTimestamps:00:00 "MIT AI Study Critique"04:16 AI Investments Trigger Stock Market Decline06:37 "Host's Background Overview"10:58 Flawed AI Study Critique13:28 MIT Study Highlights AI Implementation Challenges18:58 AI Work Trends & ROI Insights20:17 "Crossing the Gen AI Divide"23:25 Flawed Study with Misleading Claims29:34 "Uncritical Reposting Spurs Fake Study"30:30 "Read Studies, Not Summaries"Keywords:MIT AI study, 95% AI pilot failure, enterprise AI pilots, generative AI ROI, AI pilot success rate, AI project failure, state of AI in business, gen AI divide, MIT Media Lab, AI investment, AI implementation challenges, AI return on investment, AI research methodology, AI study critique, AI marketing, Nanda project, AI vendor solutions, agentic web, MCP protocol, A2A protocol, Fortune article, AI media coverage, stock market impact, NVIDIA stock drop, Palantir, ARM stock, qualitative AI data, AI structured interviews, AI industry surveys, IDC AI research, Snowflake ESG report, McKinsey AI analysis, Microsoft Work Trend Index, Boston Consulting Group AI study, AI adoption rates, enterprise AI transformation, sample size in AI studies, research limitations, AI productivity impact, AI workflow automation, AI business decisions, AI bubble, AI reporting in media, AI pilot timeline, enterprise AI tools, AI agent capabilities, AI autonomy, custom AI solutions, AI study bias, marketing disguised as research, sensationalized AI studies.Send Everyday AI and Jordan a text message. (We can't reply back unless you leave contact info) Ready for ROI on GenAI? Go to youreverydayai.com/partner

Supermanagers
How a Chief Engineering Officer Automates Customer Prep, Scheduling & Reports with AI | Ali Pourshahid of Solace

Supermanagers

Play Episode Listen Later Aug 26, 2025 41:15


In this episode of This New Way, Aydin sits down with Ali Pourshahid, Chief Engineering Officer at Solace, to explore how he's woven AI into his daily routines as a technology executive. Ali shares real demos of how he uses Solace's Agent Mesh and other AI tools to:Generate security-focused slide decks from Confluence in minutesSchedule a 12-person leadership offsite without lifting a fingerTransform messy Word reports into polished heat maps for government updatesAutomate customer support workflows across Jira, CRM, and internal systemsAli also breaks down how Solace is productizing their internal AI system, why agent-to-agent communication (A2A) is critical, and how to build a culture of experimentation with “AI champions” inside your company.This is a masterclass in how executives can stop just “keeping up” with AI—and instead lead the charge.Timestamps0:58 – What is Solace and Ali's role as Head of Engineering2:09 – Ali's daily “AI deep hour” and why he treats it like a workout3:19 – Prepping for a customer security call with AI + Confluence5:14 – Auto-generated sequence diagrams and value slides in minutes9:48 – Using Microsoft Copilot to instantly format professional slides13:35 – AI as an executive assistant: scheduling a 12-person workshop17:01 – Turning unstructured Word reports into project heat maps20:07 – Building an AI champions group and lightning talks at Solace25:05 – Solace Agent Mesh: event-driven architecture for agents29:01 – Live demo: Automating Jira support tickets with agent workflows33:33 – Scaling digital employees with orchestrator agents37:08 – Why evals are critical for testing and deploying AI agents39:05 – Ali's habit: always ask “How can I do this better with AI?”40:08 – What excites Ali most about AI in the next yearTools & Technologies Mentioned:Solace Agent Mesh – Multi-agent orchestration platform built by SolaceConfluence – Wiki where AI pulls technical details for slide prepClaude & ChatGPT – LLMs used for connecting to internal toolsMCP (Model Context Protocol) – Framework for securely connecting AI to enterprise dataMicrosoft Copilot – AI inside PowerPoint, Excel, and other Office toolsMermaid – Visualization tool for generating diagrams and heat mapsA2A Protocol (Agent-to-Agent) – Open standard for agent communication donated by GoogleSubscribe at⁠ thisnewway.com⁠ to get the step-by-step playbooks, tools, and workflows.

Paul's Security Weekly
Oktane Preview with Harish Peri, Invisible Prompt Attacks, and the weekly news! - Harish Peri - ESW #421

Paul's Security Weekly

Play Episode Listen Later Aug 25, 2025 109:28


Interview with Harish Peri from Okta Oktane Preview: building frameworks to secure our Agentic AI future Like it or not, Agentic AI and protocols like MCP and A2A are getting pushed as the glue to take business process automation to the next level. Giving agents the power and access they need to accomplish these lofty goals is going to be challenging, from a security perspective. How do put AI agents in the position to perform broad tasks autonomously without granting them all the privileges? How do we avoid making AI agents a gold mine for attackers - the first place they stop once they hack into our companies? These are some examples of the questions Okta aims to answer at this year's Oktane event, and we aim to kick off the conversations a little early - with this interview! Segment Resources: Check out securityweekly.com/oktane for all our live coverage during the event this year! More information about the event and how you can attend can be found here: https://www.okta.com/oktane/ AI at Work 2025: Securing the AI-powered workforce Topic - Indirect Prompt Injection Getting Out of Hand Reports of indirect prompt injection issues have been around for a while. Of particular note was Michael Bargury's Living off Microsoft Copilot presentation from Black Hat USA 2024. Simply sending an email to a Copilot user could make bad stuff happen. Now, at Black Hat 2025, we've got more: the ability to plunder any data resource connected to ChatGPT (they call these integrations "Connectors") from Tamir Ishay Sharbat at Zenity Labs. The research is titled AgentFlayer: ChatGPT Connectors 0click Attack. Looks like Google Jules is also vulnerable to what the Embrace the Red blog is calling invisible prompts. Sourcegraph's Amp Code is also vulnerable to the same attack, which encodes instructions to make them invisible. What's really going to ruffle feathers is the fact that all these companies know this stuff is possible, but don't seem to be able to figure out how to prevent it. Ideally, we'd want to be able to distinguish between intended instruction and instructions injected via attachments or some other means outside of the prompt box. I guess that's easier said than done? News Finally, in the enterprise security news, Drones are coming for you… to help? One of the most powerful botnets ever goes down Phishing training is still pointless Microsoft sets an alarm on its phone for 8 years from now to do post-quantum stuff vulns galore in commercial ZTNA apps GenAI projects are struggling to make it to production Adblockers could be made illegal - in Germany Windows is getting native Agentic support Automating bug discovery AND remediation? Public service announcement: time is running out for Windows 10 All that and more, on this episode of Enterprise Security Weekly. Visit https://www.securityweekly.com/esw for all the latest episodes! Show Notes: https://securityweekly.com/esw-421

Enterprise Security Weekly (Audio)
Oktane Preview with Harish Peri, Invisible Prompt Attacks, and the weekly news! - Harish Peri - ESW #421

Enterprise Security Weekly (Audio)

Play Episode Listen Later Aug 25, 2025 109:28


Interview with Harish Peri from Okta Oktane Preview: building frameworks to secure our Agentic AI future Like it or not, Agentic AI and protocols like MCP and A2A are getting pushed as the glue to take business process automation to the next level. Giving agents the power and access they need to accomplish these lofty goals is going to be challenging, from a security perspective. How do put AI agents in the position to perform broad tasks autonomously without granting them all the privileges? How do we avoid making AI agents a gold mine for attackers - the first place they stop once they hack into our companies? These are some examples of the questions Okta aims to answer at this year's Oktane event, and we aim to kick off the conversations a little early - with this interview! Segment Resources: Check out securityweekly.com/oktane for all our live coverage during the event this year! More information about the event and how you can attend can be found here: https://www.okta.com/oktane/ AI at Work 2025: Securing the AI-powered workforce Topic - Indirect Prompt Injection Getting Out of Hand Reports of indirect prompt injection issues have been around for a while. Of particular note was Michael Bargury's Living off Microsoft Copilot presentation from Black Hat USA 2024. Simply sending an email to a Copilot user could make bad stuff happen. Now, at Black Hat 2025, we've got more: the ability to plunder any data resource connected to ChatGPT (they call these integrations "Connectors") from Tamir Ishay Sharbat at Zenity Labs. The research is titled AgentFlayer: ChatGPT Connectors 0click Attack. Looks like Google Jules is also vulnerable to what the Embrace the Red blog is calling invisible prompts. Sourcegraph's Amp Code is also vulnerable to the same attack, which encodes instructions to make them invisible. What's really going to ruffle feathers is the fact that all these companies know this stuff is possible, but don't seem to be able to figure out how to prevent it. Ideally, we'd want to be able to distinguish between intended instruction and instructions injected via attachments or some other means outside of the prompt box. I guess that's easier said than done? News Finally, in the enterprise security news, Drones are coming for you… to help? One of the most powerful botnets ever goes down Phishing training is still pointless Microsoft sets an alarm on its phone for 8 years from now to do post-quantum stuff vulns galore in commercial ZTNA apps GenAI projects are struggling to make it to production Adblockers could be made illegal - in Germany Windows is getting native Agentic support Automating bug discovery AND remediation? Public service announcement: time is running out for Windows 10 All that and more, on this episode of Enterprise Security Weekly. Visit https://www.securityweekly.com/esw for all the latest episodes! Show Notes: https://securityweekly.com/esw-421

Paul's Security Weekly TV
Oktane Preview with Harish Peri, Invisible Prompt Attacks, and the weekly news! - Harish Peri - ESW #421

Paul's Security Weekly TV

Play Episode Listen Later Aug 25, 2025 109:28


Interview with Harish Peri from Okta Oktane Preview: building frameworks to secure our Agentic AI future Like it or not, Agentic AI and protocols like MCP and A2A are getting pushed as the glue to take business process automation to the next level. Giving agents the power and access they need to accomplish these lofty goals is going to be challenging, from a security perspective. How do put AI agents in the position to perform broad tasks autonomously without granting them all the privileges? How do we avoid making AI agents a gold mine for attackers - the first place they stop once they hack into our companies? These are some examples of the questions Okta aims to answer at this year's Oktane event, and we aim to kick off the conversations a little early - with this interview! Segment Resources: Check out securityweekly.com/oktane for all our live coverage during the event this year! More information about the event and how you can attend can be found here: https://www.okta.com/oktane/ AI at Work 2025: Securing the AI-powered workforce Topic - Indirect Prompt Injection Getting Out of Hand Reports of indirect prompt injection issues have been around for a while. Of particular note was Michael Bargury's Living off Microsoft Copilot presentation from Black Hat USA 2024. Simply sending an email to a Copilot user could make bad stuff happen. Now, at Black Hat 2025, we've got more: the ability to plunder any data resource connected to ChatGPT (they call these integrations "Connectors") from Tamir Ishay Sharbat at Zenity Labs. The research is titled AgentFlayer: ChatGPT Connectors 0click Attack. Looks like Google Jules is also vulnerable to what the Embrace the Red blog is calling invisible prompts. Sourcegraph's Amp Code is also vulnerable to the same attack, which encodes instructions to make them invisible. What's really going to ruffle feathers is the fact that all these companies know this stuff is possible, but don't seem to be able to figure out how to prevent it. Ideally, we'd want to be able to distinguish between intended instruction and instructions injected via attachments or some other means outside of the prompt box. I guess that's easier said than done? News Finally, in the enterprise security news, Drones are coming for you… to help? One of the most powerful botnets ever goes down Phishing training is still pointless Microsoft sets an alarm on its phone for 8 years from now to do post-quantum stuff vulns galore in commercial ZTNA apps GenAI projects are struggling to make it to production Adblockers could be made illegal - in Germany Windows is getting native Agentic support Automating bug discovery AND remediation? Public service announcement: time is running out for Windows 10 All that and more, on this episode of Enterprise Security Weekly. Show Notes: https://securityweekly.com/esw-421

Enterprise Security Weekly (Video)
Oktane Preview with Harish Peri, Invisible Prompt Attacks, and the weekly news! - Harish Peri - ESW #421

Enterprise Security Weekly (Video)

Play Episode Listen Later Aug 25, 2025 109:28


Interview with Harish Peri from Okta Oktane Preview: building frameworks to secure our Agentic AI future Like it or not, Agentic AI and protocols like MCP and A2A are getting pushed as the glue to take business process automation to the next level. Giving agents the power and access they need to accomplish these lofty goals is going to be challenging, from a security perspective. How do put AI agents in the position to perform broad tasks autonomously without granting them all the privileges? How do we avoid making AI agents a gold mine for attackers - the first place they stop once they hack into our companies? These are some examples of the questions Okta aims to answer at this year's Oktane event, and we aim to kick off the conversations a little early - with this interview! Segment Resources: Check out securityweekly.com/oktane for all our live coverage during the event this year! More information about the event and how you can attend can be found here: https://www.okta.com/oktane/ AI at Work 2025: Securing the AI-powered workforce Topic - Indirect Prompt Injection Getting Out of Hand Reports of indirect prompt injection issues have been around for a while. Of particular note was Michael Bargury's Living off Microsoft Copilot presentation from Black Hat USA 2024. Simply sending an email to a Copilot user could make bad stuff happen. Now, at Black Hat 2025, we've got more: the ability to plunder any data resource connected to ChatGPT (they call these integrations "Connectors") from Tamir Ishay Sharbat at Zenity Labs. The research is titled AgentFlayer: ChatGPT Connectors 0click Attack. Looks like Google Jules is also vulnerable to what the Embrace the Red blog is calling invisible prompts. Sourcegraph's Amp Code is also vulnerable to the same attack, which encodes instructions to make them invisible. What's really going to ruffle feathers is the fact that all these companies know this stuff is possible, but don't seem to be able to figure out how to prevent it. Ideally, we'd want to be able to distinguish between intended instruction and instructions injected via attachments or some other means outside of the prompt box. I guess that's easier said than done? News Finally, in the enterprise security news, Drones are coming for you… to help? One of the most powerful botnets ever goes down Phishing training is still pointless Microsoft sets an alarm on its phone for 8 years from now to do post-quantum stuff vulns galore in commercial ZTNA apps GenAI projects are struggling to make it to production Adblockers could be made illegal - in Germany Windows is getting native Agentic support Automating bug discovery AND remediation? Public service announcement: time is running out for Windows 10 All that and more, on this episode of Enterprise Security Weekly. Show Notes: https://securityweekly.com/esw-421

Where the White Coats Come Off
Haven't Submitted Yet?? Don't Panic - How to Submit Your PA School Application—Fast!

Where the White Coats Come Off

Play Episode Listen Later Aug 15, 2025 12:06


Haven't hit “submit” on your CASPA yet? In this episode, we walk you through exactly what to focus on right now so you can finish strong, avoid last-minute mistakes, and get your application in ASAP.

Apples 2 Apples
Deal or No Deal!

Apples 2 Apples

Play Episode Listen Later Aug 15, 2025 86:36


Well, the Twins are off the market. The Pohlads took on some extra money but didn't actually sell the team. The guys break down what that really means, other than probably more trades on the horizon. All that, some brief Vikings preseason chatter, and so much more on this week's A2a!

Les Cast Codeurs Podcast
LCC 329 - L'IA, ce super stagiaire qui nous fait travailler plus

Les Cast Codeurs Podcast

Play Episode Listen Later Aug 14, 2025 120:24


Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

time community ai power google uk internet guide france pr building spring data elon musk microsoft chatgpt attention mvp phase dans construction agent tests windows bay area ces patterns tout tea ia pas limitations faire distribution openai gemini extension runner nvidia passage rust blue sky api retour conf agile cela python gpt toujours sb nouveau ml unis linux java trois priorit github guillaume mieux activation int libert aur jest num savoir selon donner valid armin bom lam certains javascript exposition documentation apache opus mod llm donc nouvelles arnaud prise contr changement cpu maven nouveaux gpu m1 parfois travailler google cloud exp ast dns normandie certaines tester aff cinq vall construire counted sql principales lorsqu grok verified moser node git loi utiliser pdg sujet cloudflare sortie afin sig lancement anthropic fen deepmind accepter ssl gitlab axes spel optimisation enregistr mocha mongodb toutefois ci cd modules json capacit mistral configuration xai paris france permet aot orta cli github copilot mcp objet comportement utilisation repenser montrer capitole enregistrement prd fuite jit ecrire appels favoriser fixe firebase sse commande oauth crud jep vache oci bgp jetbrains swe bitwarden nuage github actions windsurf livrer propuls mistral ai faille xss a2a optimis mocker remplacement websockets stagiaire automatiser chris perry cvss devcon revues spring boot personnalisation tom l jdk lyon france podman vertex ai adk bordeaux france jfr profilage amazon bedrock diagramme script editor junit clis dockerfile javaone provence france testcontainers toulouse france strasbourg france github issues commonjs lille france codeurs micrometer sourcetree dijon france devoxx france
Where the White Coats Come Off
Retake or Waste of Time? When to Repeat Your PA School Prereqs (and When to Skip It)

Where the White Coats Come Off

Play Episode Listen Later Aug 12, 2025 14:59


Wondering if you need to retake your prerequisite courses for PA school? In this episode, we break down exactly when retaking a prerequisite course will help your PA school application—and when it's just not worth your time or money.___________________________________

Café debug seu podcast de tecnologia
#169 APIs, Arquitetura de Soluções e Protocolos MCP e A2A

Café debug seu podcast de tecnologia

Play Episode Listen Later Aug 11, 2025 52:58


Neste episódio, conversamos com Flávio Lopes sobre protocolos MCP e A2A, a evolução das APIs no cenário corporativo e como a Arquitetura de Soluções se adapta às demandas modernas de integração entre sistemas.

Apples 2 Apples
Fire Sale

Apples 2 Apples

Play Episode Listen Later Aug 8, 2025 95:42


The Twins had a fire sale, trading 40% of their roster. Was it fire good, or fire bad? Come find out what the guys think and you might be surprised. Plus, come find out what the JJ McCarthy drama is all about! All that and more on this week's A2a.

Thoughtstuff - Tom Morgan on Microsoft Teams, Skype for Business and Office 365 Development

Audio version of video on YouTube. Building AI Agents with the A2A .NET SDK 10 Things You Might Not Know You Could Do with Azure Communication Services Onboarding your AI peer programmer: Setting up GitHub Copilot coding agent for success Subscribe to all my videos at: https://thoughtstuff.co.uk/video Podcast: https://thoughtstuff.co.uk/itunes, https://thoughtstuff.co.uk/spotify or https://thoughtstuff.co.uk/podcast Blog: https://blog.thoughtstuff.co.uk

Resilient Cyber
Resilient Cyber w/ Christian Posta MCP, Agents & IAM in the age of LLMs

Resilient Cyber

Play Episode Listen Later Jul 26, 2025 30:44


In this episode, we sit down with Christian Posta, the Field CTO at Solo.io and an industry author and leader on topics such as Microservices, AI, and IAM.We will explore the rise of Agentic AI and its supporting protocols, such as MCP and A2A, and the broader challenges and considerations of Identity security in the age of LLMs.

Apples 2 Apples
Fashion Forward

Apples 2 Apples

Play Episode Listen Later Jul 25, 2025 63:37


The guys discuss so much, but also so little, on this week's A2a. Scott has some critical fashion decisions to make, a much higher priority than the deadline decisions coming for the Twins. Come find out what he's thinking on this week's A2a!

BetaTalk
Air to Air in Domestic Properties

BetaTalk

Play Episode Listen Later Jul 25, 2025 103:37


Send us a textExpanding Horizons: BetaTalk's New Newsletter and Website!We're thrilled to announce that BetaTalk is growing! In addition to our regular podcast episodes, we're launching a brand new newsletter and an associated website. This expansion will allow us to bring you even more in-depth content, industry news, and valuable insights into the world of heat pumps and sustainable building.Our newsletter, launching shortly, will be your go-to source for the latest industry developments, insightful opinion pieces from the third sector, and crucially, real-world heat pump case studies from experienced engineers in the Guild of Master Heat Engineers. This is an exciting step in our mission to inform and empower.As Chris Stark, former CEO of the Climate Change Committee, remarked about this new venture: "Nathan is one of the UK's clean heat leaders, so I always watch him closely. This collaborative media venture is an exciting next step. We need positive voices like Nathan's to help broaden knowledge around retrofit and heat pump installations."Don't miss out! Be among the first to receive our new newsletter and stay ahead of the curve:Sign up now for exclusive content and updates!Episode Notes:Welcome back to BetaTalk! In this fascinating episode, we delve deep into the world of air-to-air (A2A) heat pump systems for domestic properties. We were incredibly fortunate to be joined by two distinguished guests: Es Tresidder, a consultant specialising in Passivhaus design and low-carbon building design optimisation, and Michael Cosham, a seasoned HVAC engineer with 47 years of invaluable experience.Our conversation began by exploring air-to-air systems in general, including Michael's personal experience building an A2A system for his first home on Canvey Island. Es then shared insights into the A2A system installed in his own highly efficient home, providing a real-world perspective on their performance.We thoroughly discussed the numerous advantages of A2A systems in domestic properties, highlighting their efficiency and effectiveness. We also touched upon some perceived disadvantages, but as our conversation unfolded, it became clear that many of these concerns, such as fan speeds, comfort, noise, and even dry skin issues, may be simple to resolve with proper system setup and design. Indeed, with the right configuration, these issues may not even exist. For more on this, and avoiding potential pitfalls, Es has provided these insightful articles:About overheating in low-energy buildings: https://www.highlandpassive.com/do-low-energy-buildings-have-an-overheating-problem/Understanding thermal comfort: https://www.highlandpassive.com/why-do-i-feel-chilly/A key takeaway from this episode was the remarkably low cost of A2A heat pumps, making them an increasingly attractive and accessible option for homeowners looking to embrace sustainable heating solutions.Join us for a truly enlightening discussion that challenges preconceptions and sheds light on the true potential of air-to-air heat pump technology.Support the showLearn more about heat pump heating by followingNathan on Linkedin, Twitter and BlueSky

Identity At The Center
#363 - Sponsor Spotlight - Natoma

Identity At The Center

Play Episode Listen Later Jul 23, 2025 50:03


This episode is sponsored by Natoma. Visit https://www.natoma.id/ to learn more.Join Jeff from the IDAC Podcast as he dives into a deep conversation with Paresh Bhaya, the co-founder of Natoma. In this sponsored episode, Paresh shares his journey into the identity space, discusses how Natoma helps enterprises accelerate AI adoption without compromising security, and provides insights into the rising importance of MCP and A2A protocols. Learn about the challenges and opportunities at the intersection of AI and security, the importance of dynamic access controls, and the significance of ensuring proper authentication and authorization in the growing world of agentic AI. Paresh also delights us with his memorable hike up Mount Whitney. Don't miss out!00:00 Introduction and Sponsor Announcement00:34 Guest Introduction: Paresh Bhaya from Natoma01:14 Paresh's Journey into Identity04:04 Natoma's Mission and AI Security06:25 The Story Behind Natoma's Name09:29 Natoma's Unique Approach to AI Security18:32 Understanding MCP and A2A Protocols25:20 Community Development and Adoption25:56 Agent Interactions and Security Challenges27:19 Navigating Product Development29:17 Ensuring Secure Connections36:10 Deploying and Managing MCP Servers42:40 Shadow AI and Governance44:17 Personal Anecdotes and ConclusionConnect with Paresh: https://www.linkedin.com/in/paresh-bhaya/Learn more about Natoma: https://www.natoma.id/Connect with us on LinkedIn:Jim McDonald: https://www.linkedin.com/in/jimmcdonaldpmp/Jeff Steadman: https://www.linkedin.com/in/jeffsteadman/Visit the show on the web at idacpodcast.comKeywords:IDAC, Identity at the Center, Jeff Steadman, Jim McDonald, Natoma, Paresh Bhaya, Artificial Intelligence, AI, AI Security, Identity and Access Management, IAM, Enterprise Security, AI Adoption, Technology, Innovation, Cybersecurity, Machine Learning, AI Risks, Secure AI, #idac

Everyday AI Podcast – An AI and ChatGPT Podcast
EP 572: Agentic AI in the Browser: The next frontier of artificial intelligence?

Everyday AI Podcast – An AI and ChatGPT Podcast

Play Episode Listen Later Jul 22, 2025 33:13


LLMs are so yesteryear. The next wave? Agentic browsers. While we're all rushing to bring personalization, company files and more into front-end large language models, agentic browsers have been quietly staking their claim as the next big thing in AI. We explain why.Try Gemini 2.5 Flash! Sign up at  AIStudio.google.com to get started. Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Thoughts on this? Join the convo and connect with other AI leaders on LinkedIn.Upcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:Agentic AI Browsers vs. Chatbots OverviewFive Advantages of Agentic AI BrowsersPerplexity Comet Agentic Browser Case StudyOpenAI ChatGPT Agent and Virtual BrowserMicrosoft Edge Copilot Vision Agentic FeaturesGoogle Project Mariner and Gemini UpdatesStartup Agentic Browsers: Fellow, Opera Neon, DIALogged-In State and Workflow AutomationFuture Trends: Agentic Browser Momentum AnalysisTimestamps:05:10 Unlearning for AI-driven Work09:54 Agentic Browsers: Enhanced Context Utilization10:54 "AI Communication Simplified with MCP"15:28 "Hybrid AI's On-Device Speed"18:10 AI Browser Evolution22:40 Google Project Mariner Overview27:30 Streamlining Analytics with Agentic Browsers30:31 Agentic AI in Browsers32:08 Agentic AI's Rapid EvolutionKeywords:Agentic AI, agentic browsers, agentic AI browser, AI in the browser, agentic workflows, large language models, LLMs, front end chatbots, AI chatbot, Perplexity Comet, virtual browser, browser automation, AI-powered browsers, Google Gemini, ChatGPT agent, OpenAI virtual computer, model context protocol, MCP, agentic workflows, A2A protocol, hybrid AI architecture, Chromium-based browser, Microsoft Edge, Copilot Vision, Project Mariner, teach a task mode, Gemini assistant, logged in content, richer context, task automation, cross-site task automation, multi-step task automation, browser memory, shadow windows, Eco framework, natural language agentic workflows, JavaScript agentic workflows, Neon Opera browser, contextual AI, offline AI tasks, cloud browser, Manus AI, multi-agent architecture, browser cookies, contextual assistance, prompt engineering, personalized AI browser experience, task completion AI, web automation, business workflow automation, 2025 agentic browser predictions, virtual desktops.Send Everyday AI and Jordan a text message. (We can't reply back unless you leave contact info)

The VentureFuel Visionaries
Agentic AI For Retail – ALDO Group Vice President of Data & AI Fatih Nayebi

The VentureFuel Visionaries

Play Episode Listen Later Jul 16, 2025 36:50


Fatih Nayebi is the Vice President of Data & AI at ALDO Group where he leads AI initiatives that transform retail operations and customer experiences. He's also a Faculty Lecturer at McGill University and the author of Foundations of Agentic AI for Retail, the first book on autonomous AI systems in retail. He demystifies agentic ai, federated learning and the promise of A2A (agents to agents) and while these advances will still need humans in the loop. Come learn how AI is reshaping retail and the opportunities of scaling these technologies.

Les Cast Codeurs Podcast
LCC 328 - Expert généraliste cherche Virtual Thread

Les Cast Codeurs Podcast

Play Episode Listen Later Jul 16, 2025 90:13


Dans cet épisode, Emmanuel et Antonio discutent de divers sujets liés au développement: Applets (et oui), app iOS développées sous Linux, le protocole A2A, l'accessibilité, les assistants de code AI en ligne de commande (vous n'y échapperez pas)… Mais aussi des approches méthodologiques et architecturales comme l'architecture hexagonale, les tech radars, l'expert généraliste et bien d'autres choses encore. Enregistré le 11 juillet 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-328.mp3 ou en vidéo sur YouTube. News Langages Les Applets Java c'est terminé pour de bon… enfin, bientot: https://openjdk.org/jeps/504 Les navigateurs web ne supportent plus les applets. L'API Applet et l'outil appletviewer ont été dépréciés dans JDK 9 (2017). L'outil appletviewer a été supprimé dans JDK 11 (2018). Depuis, impossible d'exécuter des applets avec le JDK. L'API Applet a été marquée pour suppression dans JDK 17 (2021). Le Security Manager, essentiel pour exécuter des applets de façon sécurisée, a été désactivé définitivement dans JDK 24 (2025). Librairies Quarkus 3.24 avec la notion d'extensions qui peuvent fournir des capacités à des assistants https://quarkus.io/blog/quarkus-3-24-released/ les assistants typiquement IA, ont accès a des capacités des extensions Par exemple générer un client à partir d'openAPI Offrir un accès à la,base de données en dev via le schéma. L'intégration d'Hibernate 7 dans Quarkus https://quarkus.io/blog/hibernate7-on-quarkus/ Jakarta data api restriction nouvelle Injection du SchemaManager Sortie de Micronaut 4.9 https://micronaut.io/2025/06/30/micronaut-framework-4-9-0-released/ Core : Mise à jour vers Netty 4.2.2 (attention, peut affecter les perfs). Nouveau mode expérimental “Event loop Carrier” pour exécuter des virtual threads sur l'event loop Netty. Nouvelle annotation @ClassImport pour traiter des classes déjà compilées. Arrivée des @Mixin (Java uniquement) pour modifier les métadonnées d'annotations Micronaut sans altérer les classes originales. HTTP/3 : Changement de dépendance pour le support expérimental. Graceful Shutdown : Nouvelle API pour un arrêt en douceur des applications. Cache Control : API fluente pour construire facilement l'en-tête HTTP Cache-Control. KSP 2 : Support de KSP 2 (à partir de 2.0.2) et testé avec Kotlin 2. Jakarta Data : Implémentation de la spécification Jakarta Data 1.0. gRPC : Support du JSON pour envoyer des messages sérialisés via un POST HTTP. ProjectGen : Nouveau module expérimental pour générer des projets JVM (Gradle ou Maven) via une API. Un super article sur experimenter avec les event loops reactives dans les virtualthreads https://micronaut.io/2025/06/30/transitioning-to-virtual-threads-using-the-micronaut-loom-carrier/ Malheureusement cela demander le hacker le JDK C'est un article de micronaut mais le travail a ete collaboratif avec les equipes de Red Hat OpenJDK, Red Hat perf et de Quarkus et Vert.x Pour les curieux c'est un bon article Ubuntu offre un outil de creation de container pour Spring notamment https://canonical.com/blog/spring-boot-containers-made-easy creer des images OCI pour les applications Spring Boot basées sur Ubuntu base images bien sur utilise jlink pour reduire la taille pas sur de voir le gros avantage vs d'autres solutions plus portables d'ailleurs Canonical entre dans la danse des builds d'openjdk Le SDK Java de A2A contribué par Red Hat est sorti https://quarkus.io/blog/a2a-project-launches-java-sdk/ A2A est un protocole initié par Google et donne à la fondation Linux Il permet à des agents de se décrire et d'interagir entre eux Agent cards, skills, tâche, contexte A2A complémente MCP Red hat a implémenté le SDK Java avec le conseil des équipes Google En quelques annotations et classes on a un agent card, un client A2A et un serveur avec l'échange de messages via le protocole A2A Comment configurer mockito sans warning après java 21 https://rieckpil.de/how-to-configure-mockito-agent-for-java-21-without-warning/ les agents chargés dynamiquement sont déconseillés et seront interdis bientôt Un des usages est mockito via bytebuddy L'avantage est que la,configuration était transparente Mais bon sécurité oblige c'est fini. Donc l'article décrit comment configurer maven gradle pour mettre l'agent au démarrage des tests Et aussi comment configurer cela dans IntelliJ idea. Moins simple malheureusement Web Des raisons “égoïstes” de rendre les UIs plus accessibles https://nolanlawson.com/2025/06/16/selfish-reasons-for-building-accessible-uis/ Raisons égoïstes : Des avantages personnels pour les développeurs de créer des interfaces utilisateurs (UI) accessibles, au-delà des arguments moraux. Débogage facilité : Une interface accessible, avec une structure sémantique claire, est plus facile à déboguer qu'un code désordonné (la « soupe de div »). Noms standardisés : L'accessibilité fournit un vocabulaire standard (par exemple, les directives WAI-ARIA) pour nommer les composants d'interface, ce qui aide à la clarté et à la structuration du code. Tests simplifiés : Il est plus simple d'écrire des tests automatisés pour des éléments d'interface accessibles, car ils peuvent être ciblés de manière plus fiable et sémantique. Après 20 ans de stagnation, la spécification du format d'image PNG évolue enfin ! https://www.programmax.net/articles/png-is-back/ Objectif : Maintenir la pertinence et la compétitivité du format. Recommandation : Soutenu par des institutions comme la Bibliothèque du Congrès américain. Nouveautés Clés :Prise en charge du HDR (High Dynamic Range) pour une plus grande gamme de couleurs. Reconnaissance officielle des PNG animés (APNG). Support des métadonnées Exif (copyright, géolocalisation, etc.). Support Actuel : Déjà intégré dans Chrome, Safari, Firefox, iOS, macOS et Photoshop. Futur :Prochaine édition : focus sur l'interopérabilité entre HDR et SDR. Édition suivante : améliorations de la compression. Avec le projet open source Xtool, on peut maintenant construire des applications iOS sur Linux ou Windows, sans avoir besoin d'avoir obligatoirement un Mac https://xtool.sh/tutorials/xtool/ Un tutoriel très bien fait explique comment faire : Création d'un nouveau projet via la commande xtool new. Génération d'un package Swift avec des fichiers clés comme Package.swift et xtool.yml. Build et exécution de l'app sur un appareil iOS avec xtool dev. Connexion de l'appareil en USB, gestion du jumelage et du Mode Développeur. xtool gère automatiquement les certificats, profils de provisionnement et la signature de l'app. Modification du code de l'interface utilisateur (ex: ContentView.swift). Reconstruction et réinstallation rapide de l'app mise à jour avec xtool dev. xtool est basé sur VSCode sur la partie IDE Data et Intelligence Artificielle Nouvelle edition du best seller mondial “Understanding LangChain4j” : https://www.linkedin.com/posts/agoncal_langchain4j-java-ai-activity-7342825482830200833-rtw8/ Mise a jour des APIs (de LC4j 0.35 a 1.1.0) Nouveaux Chapitres sur MCP / Easy RAG / JSon Response Nouveaux modeles (GitHub Model, DeepSeek, Foundry Local) Mise a jour des modeles existants (GPT-4.1, Claude 3.7…) Google donne A2A a la Foundation Linux https://developers.googleblog.com/en/google-cloud-donates-a2a-to-linux-foundation/ Annonce du projet Agent2Agent (A2A) : Lors du sommet Open Source Summit North America, la Linux Foundation a annoncé la création du projet Agent2Agent, en partenariat avec Google, AWS, Microsoft, Cisco, Salesforce, SAP et ServiceNow. Objectif du protocole A2A : Ce protocole vise à établir une norme ouverte pour permettre aux agents d'intelligence artificielle (IA) de communiquer, collaborer et coordonner des tâches complexes entre eux, indépendamment de leur fournisseur. Transfert de Google à la communauté open source : Google a transféré la spécification du protocole A2A, les SDK associés et les outils de développement à la Linux Foundation pour garantir une gouvernance neutre et communautaire. Soutien de l'industrie : Plus de 100 entreprises soutiennent déjà le protocole. AWS et Cisco sont les derniers à l'avoir validé. Chaque entreprise partenaire a souligné l'importance de l'interopérabilité et de la collaboration ouverte pour l'avenir de l'IA. Objectifs de la fondation A2A : Établir une norme universelle pour l'interopérabilité des agents IA. Favoriser un écosystème mondial de développeurs et d'innovateurs. Garantir une gouvernance neutre et ouverte. Accélérer l'innovation sécurisée et collaborative. parler de la spec et surement dire qu'on aura l'occasion d'y revenir Gemini CLI :https://blog.google/technology/developers/introducing-gemini-cli-open-source-ai-agent/ Agent IA dans le terminal : Gemini CLI permet d'utiliser l'IA Gemini directement depuis le terminal. Gratuit avec compte Google : Accès à Gemini 2.5 Pro avec des limites généreuses. Fonctionnalités puissantes : Génère du code, exécute des commandes, automatise des tâches. Open source : Personnalisable et extensible par la communauté. Complément de Code Assist : Fonctionne aussi avec les IDE comme VS Code. Au lieu de blocker les IAs sur vos sites vous pouvez peut-être les guider avec les fichiers LLMs.txt https://llmstxt.org/ Exemples du projet angular: llms.txt un simple index avec des liens : https://angular.dev/llms.txt lllms-full.txt une version bien plus détaillée : https://angular.dev/llms-full.txt Outillage Les commits dans Git sont immuables, mais saviez vous que vous pouviez rajouter / mettre à jour des “notes” sur les commits ? https://tylercipriani.com/blog/2022/11/19/git-notes-gits-coolest-most-unloved-feature/ Fonctionnalité méconnue : git notes est une fonctionnalité puissante mais peu utilisée de Git. Ajout de métadonnées : Permet d'attacher des informations à des commits existants sans en modifier le hash. Cas d'usage : Idéal pour ajouter des données issues de systèmes automatisés (builds, tickets, etc.). Revue de code distribuée : Des outils comme git-appraise ont été construits sur git notes pour permettre une revue de code entièrement distribuée, indépendante des forges (GitHub, GitLab). Peu populaire : Son interface complexe et le manque de support des plateformes de forge ont limité son adoption (GitHub n'affiche même pas/plus les notes). Indépendance des forges : git notes offre une voie vers une plus grande indépendance vis-à-vis des plateformes centralisées, en distribuant l'historique du projet avec le code lui-même. Un aperçu dur Spring Boot debugger dans IntelliJ idea ultimate https://blog.jetbrains.com/idea/2025/06/demystifying-spring-boot-with-spring-debugger/ montre cet outil qui donne du contexte spécifique à Spring comme les beans non activés, ceux mockés, la valeur des configs, l'état des transactions Il permet de visualiser tous les beans Spring directement dans la vue projet, avec les beans non instanciés grisés et les beans mockés marqués en orange pour les tests Il résout le problème de résolution des propriétés en affichant la valeur effective en temps réel dans les fichiers properties et yaml, avec la source exacte des valeurs surchargées Il affiche des indicateurs visuels pour les méthodes exécutées dans des transactions actives, avec les détails complets de la transaction et une hiérarchie visuelle pour les transactions imbriquées Il détecte automatiquement toutes les connexions DataSource actives et les intègre avec la fenêtre d'outils Database d'IntelliJ IDEA pour l'inspection Il permet l'auto-complétion et l'invocation de tous les beans chargés dans l'évaluateur d'expression, fonctionnant comme un REPL pour le contexte Spring Il fonctionne sans agent runtime supplémentaire en utilisant des breakpoints non-suspendus dans les bibliothèques Spring Boot pour analyser les données localement Une liste communautaire sur les assistants IA pour le code, lancée par Lize Raes https://aitoolcomparator.com/ tableau comparatif qui permet de voir les différentes fonctionnalités supportées par ces outils Architecture Un article sur l'architecture hexagonale en Java https://foojay.io/today/clean-and-modular-java-a-hexagonal-architecture-approach/ article introductif mais avec exemple sur l'architecture hexagonale entre le domaine, l'application et l‘infrastructure Le domain est sans dépendance L‘appli spécifique à l'application mais sans dépendance technique explique le flow L'infrastructure aura les dépendances à vos frameworks spring, Quarkus Micronaut, Kafka etc Je suis naturellement pas fan de l'architecture hexagonale en terme de volume de code vs le gain surtout en microservices mais c'est toujours intéressant de se challenger et de regarder le bénéfice coût. Gardez un œil sur les technologies avec les tech radar https://www.sfeir.dev/cloud/tech-radar-gardez-un-oeil-sur-le-paysage-technologique/ Le Tech Radar est crucial pour la veille technologique continue et la prise de décision éclairée. Il catégorise les technologies en Adopt, Trial, Assess, Hold, selon leur maturité et pertinence. Il est recommandé de créer son propre Tech Radar pour l'adapter aux besoins spécifiques, en s'inspirant des Radars publics. Utilisez des outils de découverte (Alternativeto), de tendance (Google Trends), de gestion d'obsolescence (End-of-life.date) et d'apprentissage (roadmap.sh). Restez informé via les blogs, podcasts, newsletters (TLDR), et les réseaux sociaux/communautés (X, Slack). L'objectif est de rester compétitif et de faire des choix technologiques stratégiques. Attention à ne pas sous-estimer son coût de maintenance Méthodologies Le concept d'expert generaliste https://martinfowler.com/articles/expert-generalist.html L'industrie pousse vers une spécialisation étroite, mais les collègues les plus efficaces excellent dans plusieurs domaines à la fois Un développeur Python expérimenté peut rapidement devenir productif dans une équipe Java grâce aux concepts fondamentaux partagés L'expertise réelle comporte deux aspects : la profondeur dans un domaine et la capacité d'apprendre rapidement Les Expert Generalists développent une maîtrise durable au niveau des principes fondamentaux plutôt que des outils spécifiques La curiosité est essentielle : ils explorent les nouvelles technologies et s'assurent de comprendre les réponses au lieu de copier-coller du code La collaboration est vitale car ils savent qu'ils ne peuvent pas tout maîtriser et travaillent efficacement avec des spécialistes L'humilité les pousse à d'abord comprendre pourquoi les choses fonctionnent d'une certaine manière avant de les remettre en question Le focus client canalise leur curiosité vers ce qui aide réellement les utilisateurs à exceller dans leur travail L'industrie doit traiter “Expert Generalist” comme une compétence de première classe à nommer, évaluer et former ca me rappelle le technical staff Un article sur les métriques métier et leurs valeurs https://blog.ippon.fr/2025/07/02/monitoring-metier-comment-va-vraiment-ton-service-2/ un article de rappel sur la valeur du monitoring métier et ses valeurs Le monitoring technique traditionnel (CPU, serveurs, API) ne garantit pas que le service fonctionne correctement pour l'utilisateur final. Le monitoring métier complète le monitoring technique en se concentrant sur l'expérience réelle des utilisateurs plutôt que sur les composants isolés. Il surveille des parcours critiques concrets comme “un client peut-il finaliser sa commande ?” au lieu d'indicateurs abstraits. Les métriques métier sont directement actionnables : taux de succès, délais moyens et volumes d'erreurs permettent de prioriser les actions. C'est un outil de pilotage stratégique qui améliore la réactivité, la priorisation et le dialogue entre équipes techniques et métier. La mise en place suit 5 étapes : dashboard technique fiable, identification des parcours critiques, traduction en indicateurs, centralisation et suivi dans la durée. Une Definition of Done doit formaliser des critères objectifs avant d'instrumenter tout parcours métier. Les indicateurs mesurables incluent les points de passage réussis/échoués, les temps entre actions et le respect des règles métier. Les dashboards doivent être intégrés dans les rituels quotidiens avec un système d'alertes temps réel compréhensibles. Le dispositif doit évoluer continuellement avec les transformations produit en questionnant chaque incident pour améliorer la détection. La difficulté c'est effectivement l'évolution métier par exemple peu de commandes la nuit etc ça fait partie de la boîte à outils SRE Sécurité Toujours à la recherche du S de Sécurité dans les MCP https://www.darkreading.com/cloud-security/hundreds-mcp-servers-ai-models-abuse-rce analyse des serveurs mcp ouverts et accessibles beaucoup ne font pas de sanity check des parametres si vous les utilisez dans votre appel genAI vous vous exposer ils ne sont pas mauvais fondamentalement mais n'ont pas encore de standardisation de securite si usage local prefferer stdio ou restreindre SSE à 127.0.0.1 Loi, société et organisation Nicolas Martignole, le même qui a créé le logo des Cast Codeurs, s'interroge sur les voies possibles des développeurs face à l'impact de l'IA sur notre métier https://touilleur-express.fr/2025/06/23/ni-manager-ni-contributeur-individuel/ Évolution des carrières de développeur : L'IA transforme les parcours traditionnels (manager ou expert technique). Chef d'Orchestre d'IA : Ancien manager qui pilote des IA, définit les architectures et valide le code généré. Artisan Augmenté : Développeur utilisant l'IA comme un outil pour coder plus vite et résoudre des problèmes complexes. Philosophe du Code : Un nouveau rôle centré sur le “pourquoi” du code, la conceptualisation de systèmes et l'éthique de l'IA. Charge cognitive de validation : Nouvelle charge mentale créée par la nécessité de vérifier le travail des IA. Réflexion sur l'impact : L'article invite à choisir son impact : orchestrer, créer ou guider. Entraîner les IAs sur des livres protégés (copyright) est acceptable (fair use) mais les stocker ne l'est pas https://www.reuters.com/legal/litigation/anthropic-wins-key-ruling-ai-authors-copyright-lawsuit-2025-06-24/ Victoire pour Anthropic (jusqu'au prochain procès): L'entreprise a obtenu gain de cause dans un procès très suivi concernant l'entraînement de son IA, Claude, avec des œuvres protégées par le droit d'auteur. “Fair Use” en force : Le juge a estimé que l'utilisation des livres pour entraîner l'IA relevait du “fair use” (usage équitable) car il s'agit d'une transformation du contenu, pas d'une simple reproduction. Nuance importante : Cependant, le stockage de ces œuvres dans une “bibliothèque centrale” sans autorisation a été jugé illégal, ce qui souligne la complexité de la gestion des données pour les modèles d'IA. Luc Julia, son audition au sénat https://videos.senat.fr/video.5486945_685259f55eac4.ia–audition-de-luc-julia-concepteur-de-siri On aime ou pas on aide pas Luc Julia et sa vision de l'IA . C'est un eversion encore plus longue mais dans le même thème que sa keynote à Devoxx France 2025 ( https://www.youtube.com/watch?v=JdxjGZBtp_k ) Nature et limites de l'IA : Luc Julia a insisté sur le fait que l'intelligence artificielle est une “évolution” plutôt qu'une “révolution”. Il a rappelé qu'elle repose sur des mathématiques et n'est pas “magique”. Il a également alerté sur le manque de fiabilité des informations fournies par les IA génératives comme ChatGPT, soulignant qu'« on ne peut pas leur faire confiance » car elles peuvent se tromper et que leur pertinence diminue avec le temps. Régulation de l'IA : Il a plaidé pour une régulation “intelligente et éclairée”, qui devrait se faire a posteriori afin de ne pas freiner l'innovation. Selon lui, cette régulation doit être basée sur les faits et non sur une analyse des risques a priori. Place de la France : Luc Julia a affirmé que la France possédait des chercheurs de très haut niveau et faisait partie des meilleurs mondiaux dans le domaine de l'IA. Il a cependant soulevé le problème du financement de la recherche et de l'innovation en France. IA et Société : L'audition a traité des impacts de l'IA sur la vie privée, le monde du travail et l'éducation. Luc Julia a souligné l'importance de développer l'esprit critique, notamment chez les jeunes, pour apprendre à vérifier les informations générées par les IA. Applications concrètes et futures : Le cas de la voiture autonome a été discuté, Luc Julia expliquant les différents niveaux d'autonomie et les défis restants. Il a également affirmé que l'intelligence artificielle générale (AGI), une IA qui dépasserait l'homme dans tous les domaines, est “impossible” avec les technologies actuelles. Rubrique débutant Les weakreferences et le finalize https://dzone.com/articles/advanced-java-garbage-collection-concepts un petit rappel utile sur les pièges de la méthode finalize qui peut ne jamais être invoquée Les risques de bug si finalize ne fini jamais Finalize rend le travail du garbage collector beaucoup plus complexe et inefficace Weak references sont utiles mais leur libération n'est pas contrôlable. Donc à ne pas abuser. Il y a aussi les soft et phantom references mais les usages ne sont assez subtils et complexe en fonction du GC. Le sériel va traiter les weak avant les soft, parallel non Le g1 ça dépend de la région Z1 ça dépend car le traitement est asynchrone Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 14-19 juillet 2025 : DebConf25 - Brest (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online 22-24 septembre 2025 : Kernel Recipes - Paris (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 25-26 septembre 2025 : Paris Web 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6-7 octobre 2025 : Swift Connection 2025 - Paris (France) 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9-10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16-17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 5-6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9-11 décembre 2025 : APIdays Paris - Paris (France) 9-11 décembre 2025 : Green IO Paris - Paris (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

Closed Traffic Podcast
FSExpo and Boeing 727s

Closed Traffic Podcast

Play Episode Listen Later Jul 15, 2025 80:05


Join CTP's Johnny on a Monday evening chat as we touch on some recent presentations from this year's FSEXpo. In addition, Johnny provides his thoughts on A2A's latest release, the Aerostar 600 also Inibuilds Cessna Caravan II and much more!Closed Traffic Podcast: ⁠https://www.closedtrafficpodcast.comInstagram @closed_trafficX @closedtrafficJoin us on Patreon: https://www.patreon.com/closedtraffic

Apples 2 Apples
I Don't Even Know

Apples 2 Apples

Play Episode Listen Later Jul 12, 2025 61:56


Yeah - you're going to get the whole menu on this one! The guys talk about anything and everything they can come up since we're in a bit of a down time for sports. Come check it out on this week's A2a!

Apples 2 Apples
Down a Man

Apples 2 Apples

Play Episode Listen Later Jul 7, 2025 63:24


The guys aren't at full strength this week with Sam off on assignment. As a result, the sports talk falters but the meaningless stories rise to the top. New York Deli history? Book of Mormon QBs? A can't miss A2a today!

Dev Interrupted
You're not the user anymore | Layer's Andrew Hamilton

Dev Interrupted

Play Episode Listen Later Jul 1, 2025 49:00


If you're still building products only for humans, you're already missing out on a massive new customer base: AI agents. Joining Dev Interrupted is Andrew Hamilton, co-founder and CTO of Layer (a first-of-it's kind MCP agency) to unravel this monumental shift in how products will be discovered and consumed. He dives into how AI agents are rapidly evolving from developer tools to direct consumers of APIs and products, with new standards like the MCP spearheading this transformation by effectively creating an "app store for LLMs." This evolution demands a complete rethink of product design, packaging, and user experience for an entirely new kind of user.Andrew educates us about how successfully leveraging MCP isn't about a simple one-to-one API mapping, but about thoughtfully designing an "agent experience" based on key user workflows and providing pre-packaged capabilities. He shares insights on identifying good MCP candidates, the importance of experimentation in this fast-moving space, and how tools like Layer are defining the frontier of agent-accessible tooling.Check out:The DevEx guide to AI-driven software developmentDownload: The 6 trends shaping the future of AI-driven development Follow the hosts:Follow BenFollow AndrewFollow today's guest(s):LinkedIn: Andrew HamiltonLearn more about Layer: buildwithlayer.comReferenced in today's show:Google Cloud donates A2A to Linux FoundationGemini CLI: your open-source AI agent Meta poaches OpenAI researchersAirtable as the AI-native appSupport the show: Subscribe to our Substack Leave us a review Subscribe on YouTube Follow us on Twitter or LinkedIn Offers: Learn about Continuous Merge with gitStream Get your DORA Metrics free forever

Next in Tech
Context Around MCP

Next in Tech

Play Episode Listen Later Jul 1, 2025 28:44


Linking generative AI models to the agents that are going to use them now has a standard for queries, the Model Context Protocol (MCP). Suddenly all sorts of things are vying to be your data source of choice. What could go wrong? Analysts Jean Atelsek, James Curtis and Henry Baltazar join host Eric Hanselman to provide an introduction to what MCP is, what all the fuss is about and where this is headed. Since Anthropic released the standard in November of 2024, there has been significant progress in expanding and clarifying it, but it is still very much a work in progress. Database providers and storage vendors have been the obvious participants and many others are joining in. The larger questions are around ensuring trust and transparency in this market. Basic authentication has been worked out, but more sophisticated authorization mechanisms need to be defined. The mad dash is already leading to M&A activity, with storage vendors looking to expand their opportunities and maintain their relevance. Microsoft has released its MCP definition and Google has created an agent-to-agent (A2A) protocol for direct agent interactions. There are many pieces that are coming together to enable fully agentic operations and there is still a lot of work to be done.   More S&P Global Content: The 2025 Generative AI Outlook For S&P Global subscribers: Technology Primer: Model Context Protocol explained Databases and analytic services get the agentic AI treatment at Google Cloud Next 2025 IT Insider 3: A roundup for IT decision-makers Credits: Host/Author: Eric Hanselman Guests: Jean Atelsek, James Curtis, Henry Baltazar Producer/Editor: Adam Kovalsky Published With Assistance From: Sophie Carr, Feranmi Adeoshun, Kyra Smith

Software Defined Talk
Episode 526: The Optimist, the Origin, and the Deck

Software Defined Talk

Play Episode Listen Later Jun 27, 2025 72:34


This week, we unpack The Optimist, the new Sam Altman biography; revisit OpenAI's early days; and break down Coatue's AI strategy deck. Plus, tips for squeezing in side projects between thought leadership presentations. Watch the YouTube Live Recording of Episode 526 (https://www.youtube.com/live/1CnmEwdH6ME?si=64oVGDyCvXdzJeIj) Runner-up Titles Flow State Altman and AI Day 2 Thinking Growth Mindset Less of you You don't need a Harvard Business Review subscription to know that Running unnecessary hardware in your house Lifelong Costco member here. Pre-populate Everything There's no ROI on a good hotdog Rundown AI Native vs. AI Add-on (https://www.softwaredefinedtalk.com/525) AI Frenzy The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future (https://www.amazon.com/Optimist-Altman-OpenAI-Invent-Future/dp/1324075961?tag=googhydr-20&hvqmt=&hvbmt=%7BBidMatchType%7D&hvdev=c&ref=pd_sl_8w2bwd161h_e) Mira Murati's Thinking Machines Lab valued at $10bn after $2bn fundraising (https://www.ft.com/content/9edc67e6-96a9-4d2b-820d-57bc1279e358) ChatGPT's Enterprise Success Against Copilot Fuels OpenAI and Microsoft's Rivalry (https://www.bloomberg.com/news/articles/2025-06-24/chatgpt-vs-copilot-inside-the-openai-and-microsoft-rivalry) Iyo vs. Io — OpenAI and Jony Ive get sued (https://pivot-to-ai.com/2025/06/23/iyo-vs-io-openai-and-jony-ive-get-sued/) Zuckerberg Leads AI Recruitment Blitz Armed With $100 Million Pay Packages (https://www.wsj.com/tech/ai/meta-ai-recruiting-mark-zuckerberg-5c231f75) After trying to buy Ilya Sutskever's $32B AI startup, Meta looks to hire its CEO (https://techcrunch.com/2025/06/20/after-trying-to-buy-ilya-sutskevers-32b-ai-startup-meta-looks-to-hire-its-ceo/) Message from CEO Andy Jassy: Some thoughts on Generative AI (https://www.aboutamazon.com/news/company-news/amazon-ceo-andy-jassy-on-generative-ai) Clouded Judgement 6.19.25 - The Dropping Cost of Intelligence (https://cloudedjudgement.substack.com/p/clouded-judgement-61925-the-dropping?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F48bf3cef-6d79-4e10-8bb4-ccf48a08341b_1189x729.png&open=false) Coatue's 2025 EMW Keynote Replay (https://www.coatue.com/blog/company-update/coatues-2025-emw-keynote-replay) Slides in online PDF (https://drive.google.com/file/d/1Srl8Y4pBoKtNVYZBxmfj2TEMYM5tp1mE/view) Coatue's Laffont Brothers. AI, Public & VC Mkts, Macro, US Debt, Crypto, IPO's, & more (https://www.youtube.com/watch?v=4JA7n0wTChw) Agents and the Web Remote MCP support in Claude Code (https://www.anthropic.com/news/claude-code-remote-mcp) Agentforce 3, it's agents all the way down. (https://siliconangle.com/2025/06/23/salesforce-launches-agentforce-3-greater-ai-agent-visibility-connectivity/) Google Cloud donates A2A to Linux Foundation- Google Developers Blog (https://developers.googleblog.com/en/google-cloud-donates-a2a-to-linux-foundation/) Linux Foundation Appoints Jonathan Bryce as Executive Director, Cloud & Infrastructure and Chris Aniszczyk as CTO, Cloud & Infrastructure to Oversee Major Open Source Initiatives (https://www.cncf.io/announcements/2025/06/24/linux-foundation-appoints-jonathan-bryce-as-executive-director-cloud-infrastructure-and-chris-aniszczyk-as-cto-cloud-infrastructure-to-oversee-major-open-source-initiatives/) Relevant to your Interests Amazon orders employees to relocate to Seattle and other hubs (https://finance.yahoo.com/news/amazon-orders-employees-relocate-seattle-212945920.html) Microsoft announces advancement in quantum error correction (https://www.nextgov.com/emerging-tech/2025/06/microsoft-announces-advancement-quantum-error-correction/406175/) Datadog DASH: A Revolving Door Of Operations And Security Announcements (https://www.forrester.com/blogs/datadog-dash-a-revolving-door-of-operations-and-security-announcements/) the six-month recap: closing talk on AI at Web Directions, Melbourne, June 2025 (https://ghuntley.com/six-month-recap/) Snap acquires Saturn, a social calendar app for high school and college students (https://techcrunch.com/2025/06/20/snap-acquires-saturn-a-social-calendar-app-for-high-school-and-college-students/) Frequent reauth doesn't make you more secure (https://tailscale.com/blog/frequent-reauth-security?ck_subscriber_id=512840665&utm_source=convertkit&utm_medium=email&utm_campaign=%5BLast%20Week%20in%20AWS%5D%20Issue%20#428:%20One%20UI%20Gets%20Fixed,%20Another%20Falls%20-%2018055641) Checking In on AI and the Big Five (https://stratechery.com/2025/checking-in-on-ai-and-the-big-five/?access_token=eyJhbGciOiJSUzI1NiIsImtpZCI6InN0cmF0ZWNoZXJ5LnBhc3Nwb3J0Lm9ubGluZSIsInR5cCI6IkpXVCJ9.eyJhdWQiOiJzdHJhdGVjaGVyeS5wYXNzcG9ydC5vbmxpbmUiLCJhenAiOiJIS0xjUzREd1Nod1AyWURLYmZQV00xIiwiZW50Ijp7InVyaSI6WyJodHRwczovL3N0cmF0ZWNoZXJ5LmNvbS8yMDI1L2NoZWNraW5nLWluLW9uLWFpLWFuZC10aGUtYmlnLWZpdmUvIl19LCJleHAiOjE3NTMyODQ4NzAsImlhdCI6MTc1MDY5Mjg3MCwiaXNzIjoiaHR0cHM6Ly9hcHAucGFzc3BvcnQub25saW5lL29hdXRoIiwic2NvcGUiOiJmZWVkOnJlYWQgYXJ0aWNsZTpyZWFkIGFzc2V0OnJlYWQgY2F0ZWdvcnk6cmVhZCBlbnRpdGxlbWVudHMiLCJzdWIiOiIxNjY4NDg4My04NTYzLTQ1ZGEtYjVhYy1hYWY2MmEyYzZhZTciLCJ1c2UiOiJhY2Nlc3MifQ.rg-oA59aKciV6Pvwn1GezC8ElCYxg92wPMQ9ORYS5KXLFvsuSRlJj1hjn9rlcpqmY3BtiPSHpPHDC1Sos9J5ZIPaW3Rn7o-5Yu6Rn_0HyGkqHUSCAsU36SZ-9Q9bf7Ibd_fWcRN7G6nuIe2j0OMURacJ30W3jMm6_dBtR-IacPllW7q6yDxlDW-pX50I_xhZ_pZfTa7B7HXimMTOWiJ5S-uddGLDOOqxihxgIa3w96SnK7wiiyx5bwe5r0A7IQBvHOe5yVzrTSOxm5DBSZJwbGx_f36MzDGPtdwsMOojbs3yN5gWRZnlre6h1GkiukeAXHqXTWImfUfxyBS1ebOjOQ) U.S. House tells staffers not to use Meta's WhatsApp (https://www.cnbc.com/2025/06/23/meta-whatsapp-us-house.html) How AlmaLinux and Rocky Linux Have Diverged Since CentOS (https://thenewstack.io/how-almalinux-and-rocky-linux-have-diverged-since-centos/) AI search finds publishers starved of referral traffic (https://www.theregister.com/2025/06/22/ai_search_starves_publishers/) 10 years of platform engineering at SIXT: Lessons in scaling and innovation - Boyan Dimitrov (https://www.youtube.com/watch?v=OtxWxkehkPE) What Would a Kubernetes 2.0 Look Like (https://matduggan.com/what-would-a-kubernetes-2-0-look-like/) kubectl-ai (https://github.com/GoogleCloudPlatform/kubectl-ai) Nonsense Costco Executive Members get extended hours (https://www.axios.com/2025/06/19/costco-hours-executive-members-early-shopping) Listener Feedback Warp (https://www.warp.dev/future) Conferences CF Day EU (https://events.linuxfoundation.org/cloud-foundry-day-europe/), Frankfurt, October 7th, 2025. SpringOne (https://www.vmware.com/explore/us/springone?utm_source=organic&utm_medium=social&utm_campaign=cote), Las Vegas, August 25th to 28th, 2025. See Coté's pitch (https://www.youtube.com/watch?v=f_xOudsmUmk). Explore 2025 US (https://www.vmware.com/explore/us?utm_source=organic&utm_medium=social&utm_campaign=cote), Las Vegas, August 25th to 28th, 2025. See Coté's pitch (https://www.youtube.com/shorts/-COoeIJcFN4). Texas Linux Fest (https://2025.texaslinuxfest.org), Austin, October 3rd to 4th. CFP closes August 3rd (https://www.papercall.io/txlf2025). SDT News & Community Join our Slack community (https://softwaredefinedtalk.slack.com/join/shared_invite/zt-1hn55iv5d-UTfN7mVX1D9D5ExRt3ZJYQ#/shared-invite/email) Email the show: questions@softwaredefinedtalk.com (mailto:questions@softwaredefinedtalk.com) Free stickers: Email your address to stickers@softwaredefinedtalk.com (mailto:stickers@softwaredefinedtalk.com) Follow us on social media: Twitter (https://twitter.com/softwaredeftalk), Threads (https://www.threads.net/@softwaredefinedtalk), Mastodon (https://hachyderm.io/@softwaredefinedtalk), LinkedIn (https://www.linkedin.com/company/software-defined-talk/), BlueSky (https://bsky.app/profile/softwaredefinedtalk.com) Watch us on: Twitch (https://www.twitch.tv/sdtpodcast), YouTube (https://www.youtube.com/channel/UCi3OJPV6h9tp-hbsGBLGsDQ/featured), Instagram (https://www.instagram.com/softwaredefinedtalk/), TikTok (https://www.tiktok.com/@softwaredefinedtalk) Book offer: Use code SDT for $20 off "Digital WTF" by Coté (https://leanpub.com/digitalwtf/c/sdt) Sponsor the show (https://www.softwaredefinedtalk.com/ads): ads@softwaredefinedtalk.com (mailto:ads@softwaredefinedtalk.com) Recommendations Brandon: Discount Tire (https://www.discounttire.com/) Coté: Brimstone Angels (https://en.wikipedia.org/wiki/Brimstone_Angels) Rebels of Reason: The Long Road from Aristotle to ChatGPT and AI's Heroes Who Kept the Faith (https://www.amazon.com/Rebels-Reason-Aristotle-ChatGPT-Heroes/dp/B0FCD969SD?crid=2KBTZJS1P49C2&dib=eyJ2IjoiMSJ9.E2MZsF2Qb-y8u2F4mRTKt5KT39pbgvp_DiV9oA2bPgsqqPJMqdRhIlFh_wyf9wTvia5jPoenX4kfS9HWQAdt5LdXt4zy3NiHbluCozW2B0KUya8M4uCGKdxInNb6npHqJlko7hFE8pzIKtF1X8hJlk02C6nmAb1PN-MsiNB4mZVoFLa9KIFS1Y7zJ8QVc-K5ICucbOAsm6rH-ZgsoyiaO4eFT8-qlzMYHxM4TxUyXx8.hl_-MoO-eXVVzohj3CN42fh3IIQ5wWuiss_O0iiLuHI&dib_tag=se&keywords=John+Willis&qid=1750401917&sprefix=john+will,aps,186&sr=8-1&linkCode=sl1&tag=coteicomthecoteb&linkId=5da48a792d65369c5b69ff1b351b16d6&language=en_US&ref_=as_li_ss_tl) Photo Credits Header (https://unsplash.com/s/photos/Flow?license=free&orientation=landscape)

This Week in Machine Learning & Artificial Intelligence (AI) Podcast
Building the Internet of Agents with Vijoy Pandey - #737

This Week in Machine Learning & Artificial Intelligence (AI) Podcast

Play Episode Listen Later Jun 24, 2025 56:13


Today, we're joined by Vijoy Pandey, SVP and general manager at Outshift by Cisco to discuss a foundational challenge for the enterprise: how do we make specialized agents from different vendors collaborate effectively? As companies like Salesforce, Workday, and Microsoft all develop their own agentic systems, integrating them creates a complex, probabilistic, and noisy environment, a stark contrast to the deterministic APIs of the past. Vijoy introduces Cisco's vision for an "Internet of Agents," a platform to manage this new reality, and its open-source implementation, AGNTCY. We explore the four phases of agent collaboration—discovery, composition, deployment, and evaluation—and dive deep into the communication stack, from syntactic protocols like A2A, ACP, and MCP to the deeper semantic challenges of creating a shared understanding between agents. Vijoy also unveils SLIM (Secure Low-Latency Interactive Messaging), a novel transport layer designed to make agent-to-agent communication quantum-safe, real-time, and efficient for multi-modal workloads. The complete show notes for this episode can be found at ⁠https://twimlai.com/go/737.

Spring Office Hours
S4E17 - Spring AI + Google Gemini: Beyond the Demo

Spring Office Hours

Play Episode Listen Later Jun 24, 2025 57:33


Join Dan Vega with special guest Dan Dobrin, App Architect at Google, as they explore enterprise-ready Spring AI development using Google Gemini models. This episode covers the latest Spring AI features, caching strategies, unified SDK capabilities, and AI agents—moving beyond simple demos to real-world production implementations. Learn how to build fast, enterprise-grade AI applications with Spring and Google's powerful Gemini models.Show Notes:Dan Dobrin on Twitter / XDan Dobrin on LinkedInBuilding Agentic AI the Google Way: MCP + A2A + ADK for JavaGoogle Cloud and Spring AI 1.0

Resilient Cyber
Resilient Cyber w/ Bob Ritchie - Securing Federal & Defense Digital Modernization

Resilient Cyber

Play Episode Listen Later Jun 23, 2025 40:58


In this episode, I sit down with SAIC Chief Technology Officer (CTO) and longtime Federal/Defense leader Bob Ritchie to discuss his experience securing public sector digital modernization, including everything from large multi-cloud environments to zero trust, identity, and where things are headed with AI.Bob starts discussing SAIC and his background there. He went from intern to CTO over 20 years with this public sector industry leader, including a brief stint with Capital One on the commercial side.We covered the current state of the federal cloud community across multiple clouds (e.g., Azure, AWS, and GCP) and some of the challenges and opportunities on the security front.We often hear phrases such as “identity is the new perimeter,” but the perimeter is porous and problematic, especially in large, disparate environments such as the Federal/Defense ecosystem. Bob touched on the current state of identity security in this ecosystem, where progress is being made and what challenges still need to be tackled.The government is doing a big push towards Zero Trust, with the Cyber EO 14028, Federal/Defense ZT strategies, and more. But how much progress is being made on ZT, and where can we look for examples of innovation and success?We dove into the rise of excitement and adoption of AI, GenAI, Agentic AI, and protocols such as MCP, A2A, and where the public sector community can lean into Agentic AI for use cases ranging from SecOps, AppSec, GRC, and more.Bob explains how he balances a good business focus while staying deep in the weeds and proficient in relevant emerging technologies and nuances required as a CTO.I've known Bob for several years, and you would be hard pressed to find a more competent technology leader. This is not one to miss!

Silent Sales Machine Radio
#1024: Amazon to Amazon flips: another great session from The Proven Conference

Silent Sales Machine Radio

Play Episode Listen Later Jun 11, 2025 35:13


On today's episode we review a great live session from the recent Proven Conference. The presenter Ryan Otwell shares how he grew a seven figure business rapidly purchasing inventory on Amazon and flipping it right back on Amazon at fantastic margins. We call this "Amazon to Amazon" flipping strategy "A2A". The new course that teaches the strategy is available at https://provenamazoncourse.com/a2a   If you'd like to get access to all 50 sessions from this conference, look for the special deal we have at theprovenconference.com (deal will be posted soon if you don't see it there yet - we are still editing some of the sessions for you)   Watch this episode on our YouTube channel here: https://youtu.be/OaFB9-VlysU   Show note LINKS: ProvenAmazonCourse.com/a2a - Our brand new course Amazon to Amazon Flip. This new course teching yet another successful selling strategy is available right now!   TheProvenConference.com  - Look for a great deal on all 50 videos and the full version of today's presentation   SilentSalesMachine.com - Text the word “free” to 507-800-0090 to get a free copy of Jim's latest book in audio about building multiple income streams online (US only) or visit https://silentjim.com/free11   SilentJim.com/bookacall - Schedule a FREE, customized and insightful consultation with my team or me (Jim) to discuss your e-commerce goals and options.   My Silent Team Facebook group. 100% FREE! https://www.facebook.com/groups/mysilentteam - Join 81,000 + Facebook members from around the world who are using the internet creatively every day to launch and grow multiple income streams through our exciting PROVEN strategies! There's no support community like this one anywhere else in the world!   ProvenAmazonCourse.com - The comprehensive course that contains ALL our Amazon training modules, recorded events and a steady stream of latest cutting edge training including of course the most popular starting point, the REPLENS selling model. The PAC is updated free for life!      

TheTop.VC
[$370M Exit] Neubird's Founder, Gotham Rao; selecting your next startup idea

TheTop.VC

Play Episode Listen Later Jun 11, 2025 6:42


The CUInsight Experience
Energy Equation with Lauren Culp (#211)

The CUInsight Experience

Play Episode Listen Later Jun 6, 2025 38:17


“We must really control the inputs we are taking into our brain.” - Lauren CulpWelcome to episode 211 of The CUInsight Experience podcast with your hosts, Randy Smith, co-founder of CUInsight, and Jill Nowacki, President and CEO of Humanidei.This episode is sponsored by Alacriti—a leading payments fintech helping credit unions compete with challenger banks and digital wallets. Alacriti delivers seamless, real-time money movement experiences for loan payments, A2A transfers, digital disbursements, and bill pay. With a single, cloud-native platform that connects to The Clearing House, Fedwire, ACH, and FedNow, credit unions can modernize without overhauling legacy infrastructure. Learn more at Alacriti.com.In this season, Jill and I will have conversations centered around leadership, credit unions, and living our best lives. We will have some of the most respected leaders from around credit unions who we are grateful to call friends join us in the discussion from time to time too.In this episode, we are joined by Lauren Culp, Executive Director at the National Credit Union Foundation (and former President and CEO at CUInsight). She joins us to talk about energy, not just as a buzzword but as a very real challenge that leaders must face. Lauren reflects on what depletes her and what restores her, including deleting social media off her phone. We explore the difference between being productive and being present and how hard it is to do both when you're living in a steady stream of notifications and back-to-back meetings.We also open up about learning to say no, what boundaries look like in leadership, and how to tell the difference between what is actually urgent and what just feels urgent. Whether it's blocking no-meeting days, turning off email notifications, or just having the self-awareness to admit that you are “out of words,” these are the tools that help us stay grounded rather than just efficient, especially since there is a difference between being productive and actually being present.Join us for an insightful conversation about being human and about protecting the parts of ourselves that leadership can easily burn through if we aren't being careful. If you've ever found yourself feeling scattered, exhausted, and completely out of energy, then this episode is definitely for you. Enjoy our conversation with Lauren Culp!Find the full show notes on cuinsight.com.Subscribe on: Apple Podcasts and SpotifyBooks mentioned on The CUInsight Experience podcast: Book List How to find Lauren:Lauren Culp, Executive Director at the National Credit Union Foundationncuf.coopLauren: LinkedIn NCUF: LinkedIn | 

Founded and Funded
The End of Biz Apps? AI, Agility, and The Agent-Native Enterprise from Microsoft CVP Charles Lamanna

Founded and Funded

Play Episode Listen Later May 29, 2025 28:23


In this Founded & Funded episode, Madrona Managing Director Soma Somasegar sits down with Charles Lamanna, Corporate Vice President at Microsoft, to unpack his journey from startup founder to corporate leader. They dive into what it takes to build a successful AI-transformed organization, how the nature of business applications is evolving, and why AI agents will fundamentally reshape teams, tools, and workflows. From "customer obsession" to "extreme ownership," Charles delivers insight after insight for startup founders and enterprise leaders navigating the age of AI. They dive into: Why business apps as we know them are dead How AI agents and open standards like MCP and A2A are reshaping software The shift toward generalist teams powered by AI What startups are doing today that enterprises will follow in 3–5 years How to focus deeply on a few high-impact AI projects instead of chasing 100 pilots Transcript: https://www.madrona.com/the-end-of-biz-apps-ai-agility-and-the-agent-native-enterprise-from-microsoft-cvp-charles-lamanna Chapters: (00:00) Introduction (01:20) Charles Lamanna's Entrepreneurial Journey (01:39) Customer Obsession and Ownership in Startups (03:54) The Future of Business Applications with AI (05:56) AI-Powered Business Agents (08:22) The Role of AI in Modern Business (11:11) Startups Are the Blueprint for the Future of Work (14:33) Industry-Wide AI Adoption (18:32) Driving AI Transformation in Enterprises (21:51) Maintaining Agility in Large Companies (25:03) Personal Impact of AI on Daily Life (27:55) Conclusion and Final Thoughts

That Was The Week
A Year Just Happened in a Week

That Was The Week

Play Episode Listen Later May 24, 2025 9:05


A Year Just Happened in a WeekOverviewThis newsletter issue captures an extraordinary acceleration in technological innovation within an especially intense week, focusing on the broad and deep impact of AI across industries and devices. Listeners get a front-row seat to seismic shifts at major AI players—Google, Anthropic, OpenAI—and how their breakthroughs and strategic maneuvers are reshaping software, hardware, venture capital, productivity, and ethics.What makes this collection compelling is its exploration of AI's layered disruption—from Google's AI-powered reimagining of search and productivity tools, Anthropic's record-breaking AI assistant capable of deep autonomous work, to OpenAI's audacious entry into consumer hardware design with Apple's design luminary Jony Ive. The newsletter also provides reflections on startup funding trends, evolving AI workplace mandates, and foundational debates over AI's ethical architecture and future ecosystem. Together, these pieces sketch a vivid snapshot of an inflection point in AI where technology, business models, and societal stakes intertwine.Key TrendsKey Trend 1: The AI Technology Leap — From Advanced Models to New Product ParadigmsAI development is surging at unprecedented pace, not just in capability but in practical integration across applications and devices. The focus is shifting from conceptual AI to usable, extended-duration, agentic assistants deeply embedded in daily workflows and consumer products.Significance: This trend reflects AI moving beyond isolated bursts of insight or simple chat interfaces to sustained, autonomous collaboration with users, spanning complex reasoning, coding, multi-modal inputs, and tool integrations. This lays the foundation for redefining productivity, creativity, and user experience in the AI era.Key Trend 2: Strategic Hardware Plays and the Battle Beyond SoftwareOpenAI's multi-billion-dollar acquisition of Jony Ive's startup signals a strategic pivot into hardware—building new AI companion devices designed to transcend conventional screens and possibly displace smartphones. At the same time, Google pushes integrated AI experiences centered on search and productivity on existing platforms.Significance: This trend shifts AI competition into physical devices and operating environments, creating new battlegrounds involving design innovation and consumer ownership models, with potentially profound effects on user habits and ecosystem dynamics.Key Trend 3: Venture Capital Evolution in the AI and Tech LandscapeFunding trends reveal concentrated capital flows into AI, with Series B rounds showing volatility but an overarching pivot toward efficiency, profitability, and selective aggressive capital deployment. Seed investing scales with new playbooks supporting early founder engagement and dynamic portfolio strategies.Significance: This trend highlights the ongoing maturation and transformation of venture capital amid AI's rise, balancing risk, returns, and market realities, while exploring creative financing strategies crossing over traditional VC and private equity models.Key Trend 4: Workplace Transformation and AI-Driven ExpectationsLeading companies mandate widespread AI adoption to boost productivity, heighten efficiency, and reshape employee roles. Executives issue candid warnings on AI's impact on jobs while simultaneously emphasizing the opportunity to master AI tools or face obsolescence.Significance: This trend underscores the sociological and managerial upheaval driven by AI in the workforce, where adoption is non-negotiable and where AI influences morale, workflows, and corporate culture at a fundamental level.Key Trend 5: Calls for an Open, Protocol-Based AI Ecosystem vs. Concentration of PowerThere is growing advocacy for “an architecture of participation”—a decentralized, interoperable AI ecosystem fueled by open protocols and multi-agent cooperation—to avoid premature monopolization by dominant platforms. Yet, industry maneuvers reveal increasingly concentrated power among a few mega players.Significance: This sets the stage for an ideological and practical contest over the future of AI infrastructure: will it foster broad innovation and cooperation or become locked under monopolistic control? The ultimate shape of AI's ecosystem has huge technological, economic, and ethical implications.Talking Points for Each TrendTrend 1: The AI Technology LeapTalking Point 1: Anthropic's Claude Opus 4 demonstrated sustained 7-hour autonomous coding and set new benchmarks (72.5% on SWE-Bench), reflecting AI's step from quick interactions to deep, continuous collaboration.> “Anthropic is reshaping the landscape... pushing the boundaries of what machines can achieve in creative and technical collaboration over sustained periods.” (VentureBeat)Talking Point 2: Google's Gemini 2.5 Pro introduces ‘Deep Think' mode for complex multi-hypothesis reasoning, advancing AI's understanding and problem-solving in dynamic environments.> “Gemini 2.5 Pro... features an enhanced reasoning mode called 'Deep Think', evaluating multiple possible answers before responding.” (VentureBeat)Trend 2: Strategic Hardware PlaysTalking Point 1: OpenAI's acquisition of Jony Ive's startup io ($6.5B) marks their largest deal, signaling a major move into “physical AI embodiments” with devices aiming to reduce screen dependence and potentially challenge Apple's dominance.> “They are working on a new device... fully aware of a user's surroundings... designed as a third core device alongside MacBook and iPhone.” (Reuters)Talking Point 2: Google, while heavily AI-centric, remains focused on embedding AI in software and services (Search, NotebookLM mobile, AI Overviews), reinforcing software ecosystems but facing competition on the device front.> “Google launched AI Mode... a 'total reimagining of search'... while rolling out NotebookLM mobile for on-the-go AI productivity.” (FT.com)Trend 3: Venture Capital EvolutionTalking Point 1: AI has grabbed roughly one-third of global venture capital ($100B+ in 2024), showing AI's outsized role in funding flows amid overall tightening of Series B round sizes.> “AI sector dominated global venture funding, doubling from $55.6 billion to over $100 billion in 2024.” (vccafe.com)Talking Point 2: Seed-stage investing is scaling with firms like BoxGroup emphasizing early believer status and collaborative partnerships to back startups through various growth phases.> “BoxGroup makes 40 seed investments annually... focuses on supporting founders without dominating ownership or boards.” (TwentyMinuteVC)Trend 4: Workplace TransformationTalking Point 1: Shopify's CEO Tobi Lutke mandates AI proficiency, linking job security to AI adoption and productivity boosts, signaling new workplace norms amid AI anxiety.> “Before asking more headcount... teams must demonstrate why tasks can't be done via AI.” (NYMag)Talking Point 2: Fiverr's CEO issued stark warnings about AI threat to jobs, urging employees to master AI tools or risk professional irrelevance.> “AI is coming for your jobs... You are expected to do more, faster, and better. If you don't, your value will decrease.” (NYMag)Trend 5: Open Ecosystem vs Concentration of PowerTalking Point 1: Tim O'Reilly and others advocate for protocol-based AI ecosystems (Anthropic's MCP, Google's A2A, Microsoft's NLWeb) fostering interoperability and distributed innovation, echoing open Internet ideals.> “Participatory markets are innovative markets... solutions can come from everywhere, not just from a dominant monopolist.” (O'Reilly)Talking Point 2: Despite open ideals, dominant players like OpenAI, Google, and Anthropic are actively building controlling ecosystems and platforms—OpenAI's language of “operating system” and multi-billion-dollar acquisitions hint at winner-takes-most dynamics.> “It's hard not to feel we are witnessing aggressive maneuvers... pursuing a winner-takes-most opportunity.” (Newsletter Editorial)Discussion QuestionsHow will the shift from AI as a tool to AI as an autonomous collaborator change the nature of work and productivity across sectors?What are the implications of OpenAI entering the hardware space with design leadership from Jony Ive? Can this challenge entrenched tech giants like Apple and Google?Considering venture capital trends, how might the concentration of funding in AI affect startup diversity and innovation outside the AI sector?Are the workplace mandates for AI adoption sustainable, or do they risk damaging employee morale and creativity? How should companies balance AI integration with human factors?What are the pros and cons of pursuing an open AI ecosystem based on cooperative protocols versus the reality of platform dominance by a few major players?To what extent could OpenAI's and Google's competition reflect the longstanding tech ecosystem rivalry between integrated and modular approaches, and what does that mean for consumers?With OpenAI aggressively building an ecosystem and platform, how might regulators or policymakers respond to ensure competitive, ethical AI development?Closing SegmentThis week crystallized a pivotal inflection point—a "Great Leap Forward" in AI's maturity and reach. We've seen models like Claude Opus 4 and Google's Gemini 2.5 evolve into sophisticated, sustained collaborators capable of seamlessly integrating into human workflows and devices. At the same time, strategic moves—especially OpenAI's multi-billion-dollar hardware acquisition—signal a new battleground beyond software into hardware innovation and consumer experience design.The venture capital landscape is adapting rapidly with concentrated AI funding and evolving seed strategies spotlighting early founder support, all while workplace cultures grapple with AI-driven mandates that challenge traditional roles and morale.Beneath these shifts lies an ideological tug-of-war over AI's future architecture—whether it will be governed as an open, participatory ecosystem enabling broad innovation or solidify under winner-takes-all platforms controlled by a few giants.As hosts close this broadcast, invite listeners to ponder: Are we witnessing the dawn of truly universal AI assistants integrated into our lives, or the birth of new digital gatekeepers? And how will individuals and organizations navigate this rapid transition to stay ahead in an AI-powered future?What's clear is this: the year truly just happened, compressed within a single week, and AI stands at the stage center, shaping what comes next.Relevant Links and Sources (for producer reference)Anthropic Claude 4 & Opus 4 Coding MilestoneGoogle Gemini 2.5 Pro and AI Mode DetailsOpenAI Acquisition of Jony Ive's ioOpenAI's Leadership and Profitability FocusVenture Capital and AI Investment TrendsAI Workplace Mandates at Shopify and FiverrTim O'Reilly on Architecture of ParticipationGoogle I/O 2025 Summary and AI Product StrategyEnd of Show Notes This is a public episode. If you'd like to discuss this with other subscribers or get access to bonus episodes, visit www.thatwastheweek.com/subscribe

The CUInsight Experience
Paradox with Greg Michlig (#210)

The CUInsight Experience

Play Episode Listen Later May 23, 2025 40:14


“You establish trust with your team by acknowledging that you don't have all the answers.” - Greg MichligWelcome to episode 207 of The CUInsight Experience podcast with your hosts, Randy Smith, co-founder of CUInsight.com, and Jill Nowacki, President and CEO of Humanidei.This episode is sponsored by Alacriti—a leading payments fintech helping credit unions compete with challenger banks and digital wallets. Alacriti delivers seamless, real-time money movement experiences for loan payments, A2A transfers, digital disbursements, and bill pay. With a single, cloud-native platform that connects to The Clearing House, Fedwire, ACH, and FedNow, credit unions can modernize without overhauling legacy infrastructure. Learn more at Alacriti.com.In this season, Jill and I will have conversations centered around leadership, credit unions, and living our best lives. We will have some of the most respected leaders from around credit unions who we are grateful to call friends join us in the discussion from time to time too.In this episode, we are joined by CUInsight's CEO Greg Michlig, who joins us to talk about the power of paradox. Leadership, after all, isn't always about having the answers. What does it look like to lead with both confidence and humility, to show strength while also admitting to what you don't know? Greg brings some personal stories and honest reflections, and we explore what it means to lead in uncertain times without pretending to be certain, and how the best leaders learn to embrace complexity rather than run from it.We also get personal when we look at the idea of “being right” vs. “getting it right” and we reflect on the uncomfortable (and sometimes hilarious) experience of feeling like an imposter and a winner . . . at the same time!If you have ever felt the pressure to perform, to decide fast, or to prove yourself worthy of your title, we encourage you to listen in. Enjoy our conversation with Greg Michlig!Find the full show notes on cuinsight.com.Subscribe on: Apple Podcasts and SpotifyBooks mentioned on The CUInsight Experience podcast: Book List How to find Greg:Greg Michlig, CEO at CUInsightcuinsight.comGreg: LinkedInCUInsight: LinkedIn | Instagram | Facebook | YouTube | XWant to hear more from Greg? Click here.

Apples 2 Apples
Wolves Back

Apples 2 Apples

Play Episode Listen Later May 16, 2025 65:06


The Wolves are hurtling towards another WCF. Do they have a chance this year? Is this team better or worse suited for a finals run? The NFL schedule is out and so much more on this week's A2a.

Where the White Coats Come Off
The Dangers of Using AI to Help you with your PA School Application!

Where the White Coats Come Off

Play Episode Listen Later May 13, 2025 7:51


Think you can use AI for your PA school application? Think again! Admissions committees are using AI-detection tools—and if your essay hits a certain percentage of AI generated content, your app could get silently disqualified. In this episode, we cover what AI can and can't do for you and how to keep your CASPA application authentic, strategic, and interview-worthy.Want to create a PA school application that actually stands out—and gets interviews?Inside the Application to Acceptance (A2A) Course, we walk you step-by-step through building your most competitive CASPA application yet. From choosing the right schools that match your stats (even with a lower GPA), to writing a personal statement and experience paragraphs that actually impress admissions committees, A2A shows you exactly what to do—and what to avoid.Whether you're applying now or next cycle, A2A gives you the strategy, structure, and expert guidance to finally feel confident pressing “submit.”✨ We've helped hundreds of pre-PAs land interviews and acceptances—your turn is next!

The CUInsight Experience
Inner Work with Tracie Kenyon (#209)

The CUInsight Experience

Play Episode Listen Later May 9, 2025 43:40


“Leaning into your best self—that's what brings joy and happiness.” – Tracie KenyonWelcome to episode 209 of The CUInsight Experience podcast with your hosts, Randy Smith, co-founder of CUInsight, and Jill Nowacki, President and CEO of Humanidei.This episode is sponsored by Alacriti—a leading payments fintech helping credit unions compete with challenger banks and digital wallets. Alacriti delivers seamless, real-time money movement experiences for loan payments, A2A transfers, digital disbursements, and bill pay. With a single, cloud-native platform that connects to The Clearing House, Fedwire, ACH, and FedNow, credit unions can modernize without overhauling legacy infrastructure. Learn more at Alacriti.com.In this season, Jill and I will have conversations centered around leadership, credit unions, and living our best lives. We will have some of the most respected leaders from around credit unions who we are grateful to call friends join us in the discussion from time to time too.In this episode, we are joined by a familiar voice—Tracie Kenyon, Executive Development Partner at Humanidei—to discuss the importance of leaders doing inner work: what we bring into the room before the meeting even starts. Even though it's often said that feelings do not belong in the workplace, nothing could be further from the truth.Inner work is messy, ongoing, and, at times, uncomfortable—but it is also where the most meaningful improvements in leadership happen. Tracie helps us explore what it really looks like to lead from the inside out.We also reflect on our own growth, and Tracie reminds us that leadership isn't always about having the right answers but about staying curious, staying grounded, and letting go of the idea that we have to always be perfect and in control of everything.Whether you are leading a team or leading yourself through a tough season, this episode is for you. Enjoy our conversation with Tracie Kenyon!Find the full show notes on cuinsight.com.Subscribe on: Apple Podcasts and Spotify How to find Tracie:Tracie Kenyon, Executive Development Partner at Humanideihumanidei.comTracie: LinkedInHumanidei: LinkedIn | Facebook | XWant to hear more from Tracie? Click here.

The Cloudcast
Five Thoughts on AI Agents

The Cloudcast

Play Episode Listen Later Apr 27, 2025 18:57


There is a lot of excitement around AI Agents.  Here are five questions we're asking ourselves about how AI Agents will be used and managed. SHOW: 918SHOW TRANSCRIPT: The Cloudcast #918 TranscriptSHOW VIDEO: https://youtube.com/@TheCloudcastNET CLOUD NEWS OF THE WEEK: http://bit.ly/cloudcast-cnotwCHECK OUT OUR NEW PODCAST: "CLOUDCAST BASICS"SHOW SPONSORS:Cut Enterprise IT Support Costs by 30-50% with US CloudSHOW NOTES:Anthropic warns that fully AI employees are a year awayAuthZ Agents ChaosWhy we need to get AuthZ rightAI Agent Gateway and AI Agent MeshAuth in the age of AI Agent (Cloudcast Eps. 885)Trust will make or break AI Agents Introducing the Agent2Agent Protocol (A2A - Google)Introducing the Model Context Protocol (MCP - Anthroopic)Top 9 AI Agent FrameworksHOW WILL WE VIEW AN AI AGENT IN THE CONTEXT OF HUMANS OR “USERS”[Who] How is an AI agent represented in the context of a person, a group, an organization? [What] How will we audit Agent created data or content? Will we need a way to label Agent-created information?[Where] Will we have agents that are focused on non-human-interactions (e.g. optimizations) vs. human-interactions (e.g. empathy)?[When] Are today's auth systems able to manage AI agents, or will they need to be re-engineered to deal with different scale, granularity of actions?[Why] Why will we choose an Agent (as the implementation) over another form or working on a problem?[How] Are today's auth systems able to manage AI agents, or will they need to be re-engineered to deal with different scale, granularity of actions?FEEDBACK?Email: show at the cloudcast dot netTwitter/X: @cloudcastpodBlueSky: @cloudcastpod.bsky.socialInstagram: @cloudcastpodTikTok: @cloudcastpod

Apples 2 Apples
Great Day for Two

Apples 2 Apples

Play Episode Listen Later Apr 26, 2025 62:40


As the winter season playoffs tip off, the guys run through their odds for just the 5th time both the Wild and Wolves have made the playoffs in the same year. After they both are even 1-1 heading home, where do they think they have the better chance? All that and so much more on this week's A2a.

The CUInsight Experience
Trust (#208)

The CUInsight Experience

Play Episode Listen Later Apr 25, 2025 35:48


“Trust is the currency that keeps credit unions thriving.” - Jill Nowacki Welcome to episode 208 of The CUInsight Experience podcast with your hosts, Randy Smith, co-founder of CUInsight.com, and Jill Nowacki, President and CEO of Humanidei.This episode is sponsored by Alacriti—a leading payments fintech helping credit unions compete with challenger banks and digital wallets. Alacriti delivers seamless, real-time money movement experiences for loan payments, A2A transfers, digital disbursements, and bill pay. With a single, cloud-native platform that connects to The Clearing House, Fedwire, ACH, and FedNow, credit unions can modernize without overhauling legacy infrastructure. Learn more at Alacriti.com.In this season, Jill and I will have conversations centered around leadership, credit unions, and living our best lives. We will have some of the most respected leaders from around credit unions who we are grateful to call friends join us in the discussion from time to time too.In this episode, we discuss a simple but incredibly important topic: the importance of trust. We don't talk about it just as a buzzword but as something absolutely critical to being a good, effective leader. Sharing real stories from the credit union world, we closely examine the different layers of trust, from keeping members' data safe to creating spaces where people feel seen, heard, and safe.We also talk openly about the disconnect between intention and perception and how even well-meaning leaders can unintentionally erode trust via missteps, unintentional favoritism, and/or inconsistency. Jill shares her own mental model of a “trust pyramid,” applying it to both member and employee expectations, and I reflect on moments in my own leadership journey where trust may have faltered and what it takes to earn it back.Whether you are a leader yourself who is trying to build a more cohesive team or someone rethinking your organization's promises to the communities that you serve, please join us because this conversation will challenge you to reflect on what trust truly requires!Find the full show notes on cuinsight.com.Subscribe on: Apple Podcasts and SpotifyBooks mentioned on The CUInsight Experience podcast: Book List Previous guests mentioned in this episode: Chuck Fagan (episodes 5 & 176)

The CUInsight Experience
Imposter Syndrome (#207)

The CUInsight Experience

Play Episode Listen Later Apr 11, 2025 35:14


“If you're looking for evidence of your failure, you'll find that evidence.” - Jill NowackiWelcome to episode 207 of The CUInsight Experience podcast with your hosts, Randy Smith, co-founder of CUInsight.com, and Jill Nowacki, President and CEO of Humanidei.This episode is sponsored by Alacriti—a leading payments fintech helping credit unions compete with challenger banks and digital wallets. Alacriti delivers seamless, real-time money movement experiences for loan payments, A2A transfers, digital disbursements, and bill pay. With a single, cloud-native platform that connects to The Clearing House, Fedwire, ACH, and FedNow, credit unions can modernize without overhauling legacy infrastructure. Learn more at Alacriti.com.In this season, Jill and I will have conversations centered around leadership, credit unions, and living our best lives. We will have some of the most respected leaders from around credit unions who we are grateful to call friends join us in the discussion from time to time too.In this episode, we discuss a challenge that many of us deal with—imposter syndrome—that annoying voice in your head that's trying to convince you that you aren't good enough and you don't deserve to be here. We talk about how it shows up and shapes how we lead, interact, and self-sabotage.We talk about first jobs—where a “fake it ‘til you make it” mindset was the norm—and moments that made us question if we belonged where we were. Imposter syndrome sometimes hides behind perfectionism, micromanagement, and/or hesitation to take risks, and we discuss what that can do to a workplace culture.Join us as we offer up some tools to help you recognize that it isn't just you—literally everyone is flawed!Find the full show notes on cuinsight.com.Subscribe on: Apple Podcasts and SpotifyBooks mentioned on The CUInsight Experience podcast: Book List

AI For Humans
Google's Updated Gemini 2.5 Pro May Be Winning the AI Race, OpenAI Delays GPT-5 & More AI News

AI For Humans

Play Episode Listen Later Apr 10, 2025 62:48


Google's AI efforts & Gemini Pro 2.5 take a major step forward with updates to Deep Research, new Agent2Agent protocol (A2A) & more. Sadly, OpenAI teases o3 and o4 but delays GPT-5.  Plus, Meta's new Llama 4 models are out but have issues, Midjourney v7's debut, John Carmack's smackdown of an AI video game engine hater, Gavin's deep dive into OpenAI 4o Image Generation formats & the weirdest robot horse concept you've ever seen.  WE'RE DEEP RESEARCHING OUR ENTIRE LIVES RIGHT NOW  Join the discord: https://discord.gg/muD2TYgC8f Join our Patreon: https://www.patreon.com/AIForHumansShow AI For Humans Newsletter: https://aiforhumans.beehiiv.com/ Follow us for more on X @AIForHumansShow Join our TikTok @aiforhumansshow To book us for speaking, please visit our website: https://www.aiforhumans.show/   // Show Links // Google Cloud 25 Live Stream “A New Way To Cloud!” https://youtu.be/Md4Fs-Zc3tg Google Cloud Blog Post https://blog.google/products/google-cloud/next-2025/ Upgraded Deep Research Out Preforms OpenAI Deep Research https://x.com/GeminiApp/status/1909721519724339226 Google's Deep Research Vs OpenAI Deep Research https://x.com/testingcatalog/status/1909727195402027183 New Ironwood TPUs https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/ Gavin's Experiences Google Gemini Deep Research: Baltro Test: https://x.com/AIForHumansShow/status/1909813850817675424 KP Biography: https://g.co/gemini/share/7b7bdb2c400e Agent2Agent Protocol https://developers.googleblog.com/en/a2a-a-new-era-of-agent-interoperability/ Google Paying Some AI Stuff To Do Nothing Rather Than Work For Rivals https://x.com/TechCrunch/status/1909368948862181584 Solar Glow Meditations on AI http://tiktok.com/@solarglowmeditations/video/7491038509214518559?_t=ZT-8vNNgF7QpyM&_r=1 o4-mini & o3 coming before GPT-5 in shift from Sam Altman https://x.com/sama/status/1908167621624856998 OpenAI Strategic Deployment Team (new role to prep for AGI) https://x.com/aleks_madry/status/1909686225658695897 AI 2027 Paper https://ai-2027.com/ Llama 4 is here… but how good is it? https://ai.meta.com/blog/llama-4-multimodal-intelligence/ Controversy Around Benchmarks: https://gizmodo.com/meta-cheated-on-ai-benchmarks-and-its-a-glimpse-into-a-new-golden-age-2000586433 Deep dive on issues from The Information  https://www.theinformation.com/articles/llama-4s-rocky-debut?rc=c3oojq&shared=3bbd9f72303888e2 Midjourney v7 Is Here and it's… just ok? https://www.midjourney.com/updates/v7-alpha John Carmack Defends AI Video Games https://x.com/ID_AA_Carmack/status/1909311174845329874 Tim Sweeney Weighs In https://x.com/TimSweeneyEpic/status/1909314230391902611 New Test-time-training = 1 Min AI Video From a Single Prompt https://x.com/karansdalal/status/1909312851795411093 Kawasaki's Robot Horse Concept https://futurism.com/the-byte/kawasaki-rideable-horse-robot VIDEO: https://youtu.be/vQDhzbTz-9k?si=2aWMtZVLnMONEjBe Engine AI + iShowSpeed https://x.com/engineairobot/status/1908570512906740037 Gemini 2.5 Pro Plays Pokemon https://x.com/kiranvodrahalli/status/1909699142265557208 Prompt-To-Anything Minecraft Looking Game  https://x.com/NicolasZu/status/1908882267453239323 An Image That Will Never Go Viral https://www.reddit.com/r/ChatGPT/comments/1jth5yf/asked_for_an_image_that_will_never_go_viral/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button How Toothpaste Is Made https://www.reddit.com/r/aivideo/comments/1jujzh2/how_toothpaste_is_made/ 90s Video Game 4o Image Gen Prompt https://x.com/AIForHumansShow/status/1908985288116101553 1980s Japanese Posters https://x.com/AIForHumansShow/status/1909824824677192140 Buff Superbad  https://x.com/AIForHumansShow/status/1909402225488937065  

Where the White Coats Come Off
7 Ways to Make Your PA School Application More Competitive

Where the White Coats Come Off

Play Episode Listen Later Apr 8, 2025 12:56


DOORS TO APPLICATION TO ACCEPTANCE COURSE ARE OPEN! Create your most competitive application in Application to Acceptance Course - where we walk you step-by-step in creating your strongest, most competitive PA school application! From picking the right schools who will love your stats (even with a low GPA), to crafting an exceptional personal statement and experience paragraphs, and so much more, A2A has helped countless pre-PAs get accepted to PA school! Whether you want to apply now or next cycle, this course will show you exactly how to put together your best CASPA application so you can land PA school interviews and get accepted to PA school! We walk you through every step here!In this episode, we dive into 7 ways to make your application more competitive so you can stand out to the PA schools you apply to! Keep up the amazing work and we can't wait to see what this CASPA cycle has in store for you!Beth & Katie