Podcasts about Linux Foundation

Non-profit technology consortium to develop the Linux operating system

  • 387PODCASTS
  • 972EPISODES
  • 42mAVG DURATION
  • 5WEEKLY NEW EPISODES
  • Dec 29, 2025LATEST
Linux Foundation

POPULARITY

20192020202120222023202420252026

Categories



Best podcasts about Linux Foundation

Show all podcasts related to linux foundation

Latest podcast episodes about Linux Foundation

LINUX Unplugged
647: Plausibly Postulated Prophecies

LINUX Unplugged

Play Episode Listen Later Dec 29, 2025 95:17 Transcription Available


We make our big Linux predictions for 2026, but first, we score how we did for 2025.Sponsored By:Managed Nebula: Meet Managed Nebula from Defined Networking. A decentralized VPN built on the open-source Nebula platform that we love. 1Password Extended Access Management: 1Password Extended Access Management is a device trust solution for companies with Okta, and they ensure that if a device isn't trusted and secure, it can't log into your cloud apps. CrowdHealth: Discover a Better Way to Pay for Healthcare with Crowdfunded Memberships. Join CrowdHealth to get started today for $99 for your first three months using UNPLUGGED.Unraid: A powerful, easy operating system for servers and storage. Maximize your hardware with unmatched flexibility. Support LINUX UnpluggedLinks:

Latent Space: The AI Engineer Podcast — CodeGen, Agents, Computer Vision, Data Science, AI UX and all things Software 3.0
One Year of MCP — with David Soria Parra and AAIF leads from OpenAI, Goose, Linux Foundation

Latent Space: The AI Engineer Podcast — CodeGen, Agents, Computer Vision, Data Science, AI UX and all things Software 3.0

Play Episode Listen Later Dec 27, 2025


One year ago, Anthropic launched the Model Context Protocol (MCP)—a simple, open standard to connect AI applications to the data and tools they need. Today, MCP has exploded from a local-only experiment into the de facto protocol for agentic systems, adopted by OpenAI, Microsoft, Google, Block, and hundreds of enterprises building internal agents at scale. And now, MCP is joining the newly formed Agentic AI Foundation (AAIF) under the Linux Foundation, alongside Block's Goose coding agent, with founding members spanning the biggest names in AI and cloud infrastructure. We sat down with David Soria Parra (MCP lead, Anthropic), Nick Cooper (OpenAI), Brad Howes (Block / Goose), and Jim Zemlin (Linux Foundation CEO) to dig into the one-year journey of MCP—from Thanksgiving hacking sessions and the first remote authentication spec to long-running tasks, MCP Apps, and the rise of agent-to-agent communication—and the behind-the-scenes story of how three competitive AI labs came together to donate their protocols and agents to a neutral foundation, why enterprises are deploying MCP servers faster than anyone expected (most of it invisible, internal, and at massive scale), what it takes to design a protocol that works for both simple tool calls and complex multi-agent orchestration, how the foundation will balance taste-making (curating meaningful projects) with openness (avoiding vendor lock-in), and the 2025 vision: MCP as the communication layer for asynchronous, long-running agents that work while you sleep, discover and install their own tools, and unlock the next order of magnitude in AI productivity. We discuss: The one-year MCP journey: from local stdio servers to remote HTTP streaming, OAuth 2.1 authentication (and the enterprise lessons learned), long-running tasks, and MCP Apps (iframes for richer UI) Why MCP adoption is exploding internally at enterprises: invisible, internal servers connecting agents to Slack, Linear, proprietary data, and compliance-heavy workflows (financial services, healthcare) The authentication evolution: separating resource servers from identity providers, dynamic client registration, and why the March spec wasn't enterprise-ready (and how June fixed it) How Anthropic dogfoods MCP: internal gateway, custom servers for Slack summaries and employee surveys, and why MCP was born from "how do I scale dev tooling faster than the company grows?" Tasks: the new primitive for long-running, asynchronous agent operations—why tools aren't enough, how tasks enable deep research and agent-to-agent handoffs, and the design choice to make tasks a "container" (not just async tools) MCP Apps: why iframes, how to handle styles and branding, seat selection and shopping UIs as the killer use case, and the collaboration with OpenAI to build a common standard The registry problem: official registry vs. curated sub-registries (Smithery, GitHub), trust levels, model-driven discovery, and why MCP needs "npm for agents" (but with signatures and HIPAA/financial compliance) The founding story of AAIF: how Anthropic, OpenAI, and Block came together (spoiler: they didn't know each other were talking to Linux Foundation), why neutrality matters, and how Jim Zemlin has never seen this much day-one inbound interest in 22 years — David Soria Parra (Anthropic / MCP) MCP: https://modelcontextprotocol.io https://uk.linkedin.com/in/david-soria-parra-4a78b3a https://x.com/dsp_ Nick Cooper (OpenAI) X: https://x.com/nicoaicopr Brad Howes (Block / Goose) Goose: https://github.com/block/goose Jim Zemlin (Linux Foundation) LinkedIn: https://www.linkedin.com/in/zemlin/ Agentic AI Foundation https://agenticai.foundation Chapters 00:00:00 Introduction: MCP's First Year and Foundation Launch 00:01:17 MCP's Journey: From Launch to Industry Standard 00:02:06 Protocol Evolution: Remote Servers and Authentication 00:08:52 Enterprise Authentication and Financial Services 00:11:42 Transport Layer Challenges: HTTP Streaming and Scalability 00:15:37 Standards Development: Collaboration with Tech Giants 00:34:27 Long-Running Tasks: The Future of Async Agents 00:30:41 Discovery and Registries: Building the MCP Ecosystem 00:30:54 MCP Apps and UI: Beyond Text Interfaces 00:26:55 Internal Adoption: How Anthropic Uses MCP 00:23:15 Skills vs MCP: Complementary Not Competing 00:36:16 Community Events and Enterprise Learnings 01:03:31 Foundation Formation: Why Now and Why Together 01:07:38 Linux Foundation Partnership: Structure and Governance 01:11:13 Goose as Reference Implementation 01:17:28 Principles Over Roadmaps: Composability and Quality 01:21:02 Foundation Value Proposition: Why Contribute 01:27:49 Practical Investments: Events, Tools, and Community 01:34:58 Looking Ahead: Async Agents and Real Impact

The top AI news from the past week, every ThursdAI

Ho Ho Ho, Alex here! (a real human writing these words, this needs to be said in 2025) Merry Christmas (to those who celebrate) and welcome to the very special yearly ThursdAI recap! This was an intense year in the world of AI, and after 51 weekly episodes (this is episode 52!) we have the ultimate record of all the major and most important AI releases of this year! So instead of bringing you a weekly update (it's been a slow week so far, most AI labs are taking a well deserved break, the Cchinese AI labs haven't yet surprised anyone), I'm dropping a comprehensive yearly AI review! Quarter by quarter, month by month, both in written form and as a pod/video! Why do this? Who even needs this? Isn't most of it obsolete? I have asked myself this exact question while prepping for the show (it was quite a lot of prep, even with Opus's help). I eventually landed on, hey, if nothing else, this will serve as a record of the insane week of AI progress we all witnessed. Can you imagine that the term Vibe Coding is less than 1 year old? That Claude Code was released at the start of THIS year? We get hedonicly adapt to new AI goodies so quick, and I figured this will serve as a point in time check, we can get back to and feel the acceleration! With that, let's dive in - P.S. the content below is mostly authored by my co-author for this, Opus 4.5 high, which at the end of 2025 I find the best creative writer with the best long context coherence that can imitate my voice and tone (hey, I'm also on a break!

I am a Mainframer
Mainframe Voices: What are you thankful for this year?

I am a Mainframer

Play Episode Listen Later Dec 23, 2025 24:45


In this special December episode of Mainframe Voices, leaders and contributors from across the Open Mainframe Project community share what they are most thankful for this year. From new career opportunities and open source collaboration to supportive teams and personal milestones, our guests reflect on the moments that made 2025 memorable in the mainframe world.Featuring: •Steven Dickens – CEO and Principal Analyst, Top 3 Global Technology Industry Analyst, Advisor to Tech Vendor Executives •Billie Jean Simmons – Software Developer for zDevOps, IBM Wazi, and Cloud IDE; Zowe Explorer Squad Lead •Len Santalucia – CTO Mainframe, AI, Cloud, Analytics, Mobile, Security; IBM Champion and Chairperson of the Linux Foundation Open Mainframe Project •Elliot Jalley – Senior Principal Product Manager, Open Mainframe Project Ambassador •Germanas Šamrickis – Senior Software Engineer at Rocket SoftwareThe Mainframe Connect podcast includes the I Am a Mainframer series, Mainframe Voices, and other conversations with mainframe professionals, sponsored by the Open Mainframe Project, a Linux Foundation initiative.#MainframeVoices #MainframeConnect #OpenMainframeProject #LinuxFoundation #Mainframe #Gratitude #Community

The Lunduke Journal of Technology
Linux Foundation Makes $300 Million in 2025, Spends 2.6% on Linux, Says "AI is the Future"

The Lunduke Journal of Technology

Play Episode Listen Later Dec 23, 2025 10:58


In the Linux Foundation's 2025 annual report, AI is mentioned 150 times. Linux is only mentioned 40 times. Also: Linux Foundation boasts about scholarships to Trans & DEI orgs.More from The Lunduke Journal:https://lunduke.com/ This is a public episode. If you'd like to discuss this with other subscribers or get access to bonus episodes, visit lunduke.substack.com/subscribe

All TWiT.tv Shows (MP3)
Untitled Linux Show 234: Crescent Wrench AI

All TWiT.tv Shows (MP3)

Play Episode Listen Later Dec 21, 2025 80:32 Transcription Available


This week we celebrate the announcement of the new Mozilla CEO, cover the news in that GPL lawsuit that's been slowly making progress, and talk about what's new in OpenZFS. There's an AMD vs NVIDIA GPU showdown, we cover the Linux Foundation's annual report, and Plasma 6.6 is promising some late Christmas presents for us all. For tips, we cover sot for system observation, a quick primer on moving between the desktop and command line, and dog/doge for a better DNS tool. You can find the show notes at https://bit.ly/4b0mImI and Merry Christmas! Host: Jonathan Bennett Co-Hosts: Jeff Massie and Rob Campbell Download or subscribe to Untitled Linux Show at https://twit.tv/shows/untitled-linux-show Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Club TWiT members can discuss this episode and leave feedback in the Club TWiT Discord.

All TWiT.tv Shows (Video LO)
Untitled Linux Show 234: Crescent Wrench AI

All TWiT.tv Shows (Video LO)

Play Episode Listen Later Dec 21, 2025 80:32 Transcription Available


This week we celebrate the announcement of the new Mozilla CEO, cover the news in that GPL lawsuit that's been slowly making progress, and talk about what's new in OpenZFS. There's an AMD vs NVIDIA GPU showdown, we cover the Linux Foundation's annual report, and Plasma 6.6 is promising some late Christmas presents for us all. For tips, we cover sot for system observation, a quick primer on moving between the desktop and command line, and dog/doge for a better DNS tool. You can find the show notes at https://bit.ly/4b0mImI and Merry Christmas! Host: Jonathan Bennett Co-Hosts: Jeff Massie and Rob Campbell Download or subscribe to Untitled Linux Show at https://twit.tv/shows/untitled-linux-show Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Club TWiT members can discuss this episode and leave feedback in the Club TWiT Discord.

Algoritmi
GPT-5.2: OpenAI rilascia il suo miglior modello!

Algoritmi

Play Episode Listen Later Dec 19, 2025 26:11


Dopo l'uscita di Gemini 3 è codice rosso in OpenAI: l'azienda ha capito che la concorrenza esiste ed è più agguerrita che mai. Per questo è corsa ai ripari rilasciando GPT-5.2, il suo modello più potente, ma con alcuni dubbi sui benchmark.Nel frattempo nasce la Agentic AI Foundation, una partnership delle principali Big Tech (tra cui Anthropic, Google, Microsoft, OpenAI, Cloudflare e AWS) per standardizzare e governare gli agenti AI sotto la Linux Foundation.Infine, OpenAI e Disney stringono un accordo per consentire l'utilizzo dei personaggi Disney in Sora e portare l'AI nella piattaforma streaming della Casa di Topolino, non senza malcontento da parte di animatori e sindacati.Per altri contenuti sul mondo Tech, Data & AI, seguici sui nostri canali!

Open Source Security Podcast
Linux Foundation Europe with Gabriele Columbro

Open Source Security Podcast

Play Episode Listen Later Dec 15, 2025 32:56


Josh has a chat with Gabriele Columbro, Executive Director of the Fintech Open Source Foundation and General Manager of Linux Foundation Europe. We of course discuss the Cyber Resilience Act (CRA), the evolving landscape of open source regulation, and the collaborative efforts of major foundations. Open source is everywhere, but there's also a ton of work to do now. Gabriele has really good insight into where things are today and where they are heading in the future for open source and regulation. The show notes and blog post for this episode can be found at https://opensourcesecurity.io/2025/2025-12-lfeu-gab/

The Lazy CEO Podcast
Accelerating AI through Learn, Do, Imagine, Act and Care Approach

The Lazy CEO Podcast

Play Episode Listen Later Dec 15, 2025 37:25


What if the expertise that makes your company valuable today could be replicated—or even surpassed—by AI within a year? If you're running or leading a business, you're already feeling the pressure: AI disruption is moving faster than your operating model can adapt. This episode helps you understand why the ground is shifting so quickly, what it means for the expertise inside your organization, and how you can stay ahead instead of getting blindsided by competitors who adopt AI more strategically and more rapidly. You'll walk away with clarity on: How AI is lowering the cost of expertise—and what that means for your competitive advantage. A practical way to rethink your business and operating model so you can adopt AI at an exponential pace, not a linear one. How to help your team embrace AI without fear by understanding new working modes like centaurs, cyborgs, and self-automators. Hit play now to learn the specific mindset and moves CEOs are using to turn AI disruption into a strategic edge. Check out: 06:45 — How Karim shifted from open-source innovation to AI This is where Karim explains the surprising path from crowdsourcing and NASA experiments to machine-learning breakthroughs—and why those early signals showed him AI would reshape business, not just technology. 22:10 — The big insight: AI is lowering the cost of expertise A must-hear moment. Karim explains why AI isn't just another tool—it fundamentally changes what expertise means within a company — and why CEOs need to view their business as a "bundle of expertise" being rewired. 36:55 — The three ways humans actually work with AI This section introduces centaurs, cyborgs, and self-automators—and what these modes reveal about adoption, resistance, identity, and where value will come from as AI accelerates. About Dr. Karim Lakhani Karim R. Lakhani is the Dorothy & Michael Hintze Professor of Business Administration at the Harvard Business School. He specializes in technology management, innovation, digital transformation and artificial intelligence (AI). His innovation-related research is centered around his role as the founder and co-director of the Laboratory for Innovation Science at Harvard and as the principal investigator of the NASA Tournament Laboratory. Karim is known for his original scholarship on open source communities and innovation contests and has pioneered the use of field experiments to help solve innovation-related challenges while simultaneously generating rigorous research in partnership with organizations like NASA, Harvard Medical School, The Broad Institute, TopCoder, The Linux Foundation and various private organizations. His digital transformation research investigates the role of analytics and artificial intelligence (AI) in reshaping business and operating models. This research is complemented through his leadership as co-founder and chair of the The Digital, Data, and Design (D^3) Institute at Harvard and as co-founder and co-chair of the Harvard Business Analytics Program, a university-wide online program transforming mid-career executives into data-savvy leaders.

Les Cast Codeurs Podcast
LCC 333 - A vendre OSS primitif TBE

Les Cast Codeurs Podcast

Play Episode Listen Later Dec 15, 2025 94:17


Dans cet épisode de fin d'année plus relax que d'accoutumée, Arnaud, Guillaume, Antonio et Emmanuel distutent le bout de gras sur tout un tas de sujets. L'acquisition de Confluent, Kotlin 2.2, Spring Boot 4 et JSpecify, la fin de MinIO, les chutes de CloudFlare, un survol des dernieres nouveauté de modèles fondamentaux (Google, Mistral, Anthropic, ChatGPT) et de leurs outils de code, quelques sujets d'architecture comme CQRS et quelques petits outils bien utiles qu'on vous recommande. Et bien sûr d'autres choses encore. Enregistré le 12 décembre 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-333.mp3 ou en vidéo sur YouTube. News Langages Un petit tutoriel par nos amis Sfeiriens montrant comment récupérer le son du micro, en Java, faire une transformée de Fourier, et afficher le résultat graphiquement en Swing https://www.sfeir.dev/back/tutoriel-java-sound-transformer-le-son-du-microphone-en-images-temps-reel/ Création d'un visualiseur de spectre audio en temps réel avec Java Swing. Étapes principales : Capture du son du microphone. Analyse des fréquences via la Transformée de Fourier Rapide (FFT). Dessin du spectre avec Swing. API Java Sound (javax.sound.sampled) : AudioSystem : point d'entrée principal pour l'accès aux périphériques audio. TargetDataLine : ligne d'entrée utilisée pour capturer les données du microphone. AudioFormat : définit les paramètres du son (taux d'échantillonnage, taille, canaux). La capture se fait dans un Thread séparé pour ne pas bloquer l'interface. Transformée de Fourier Rapide (FFT) : Algorithme clé pour convertir les données audio brutes (domaine temporel) en intensités de fréquences (domaine fréquentiel). Permet d'identifier les basses, médiums et aigus. Visualisation avec Swing : Les intensités de fréquences sont dessinées sous forme de barres dynamiques. Utilisation d'une échelle logarithmique pour l'axe des fréquences (X) pour correspondre à la perception humaine. Couleurs dynamiques des barres (vert → jaune → rouge) en fonction de l'intensité. Lissage exponentiel des valeurs pour une animation plus fluide. Un article de Sfeir sur Kotlin 2.2 et ses nouveautés - https://www.sfeir.dev/back/kotlin-2-2-toutes-les-nouveautes-du-langage/ Les guard conditions permettent d'ajouter plusieurs conditions dans les expressions when avec le mot-clé if Exemple de guard condition: is Truck if vehicule.hasATrailer permet de combiner vérification de type et condition booléenne La multi-dollar string interpolation résout le problème d'affichage du symbole dollar dans les strings multi-lignes En utilisant $$ au début d'un string, on définit qu'il faut deux dollars consécutifs pour déclencher l'interpolation Les non-local break et continue fonctionnent maintenant dans les lambdas pour interagir avec les boucles englobantes Cette fonctionnalité s'applique uniquement aux inline functions dont le corps est remplacé lors de la compilation Permet d'écrire du code plus idiomatique avec takeIf et let sans erreur de compilation L'API Base64 passe en version stable après avoir été en preview depuis Kotlin 1.8.20 L'encodage et décodage Base64 sont disponibles via kotlin.io.encoding.Base64 Migration vers Kotlin 2.2 simple en changeant la version dans build.gradle.kts ou pom.xml Les typealias imbriqués dans des classes sont disponibles en preview La context-sensitive resolution est également en preview Les guard conditions préparent le terrain pour les RichError annoncées à KotlinConf 2025 Le mot-clé when en Kotlin équivaut au switch-case de Java mais sans break nécessaire Kotlin 2.2.0 corrige les incohérences dans l'utilisation de break et continue dans les lambdas Librairies Sprint Boot 4 est sorti ! https://spring.io/blog/2025/11/20/spring-boot-4-0-0-available-now Une nouvelle génération : Spring Boot 4.0 marque le début d'une nouvelle génération pour le framework, construite sur les fondations de Spring Framework 7. Modularisation du code : La base de code de Spring Boot a été entièrement modularisée. Cela se traduit par des fichiers JAR plus petits et plus ciblés, permettant des applications plus légères. Sécurité contre les nuls (Null Safety) : D'importantes améliorations ont été apportées pour la "null safety" (sécurité contre les valeurs nulles) à travers tout l'écosystème Spring grâce à l'intégration de JSpecify. Support de Java 25 : Spring Boot 4.0 offre un support de premier ordre pour Java 25, tout en conservant une compatibilité avec Java 17. Améliorations pour les API REST : De nouvelles fonctionnalités sont introduites pour faciliter le versioning d'API et améliorer les clients de services HTTP pour les applications basées sur REST. Migration à prévoir : S'agissant d'une version majeure, la mise à niveau depuis une version antérieure peut demander plus de travail que d'habitude. Un guide de migration dédié est disponible pour accompagner les développeurs. Chat memory management dans Langchain4j et Quarkus https://bill.burkecentral.com/2025/11/25/managing-chat-memory-in-quarkus-langchain4j/ Comprendre la mémoire de chat : La "mémoire de chat" est l'historique d'une conversation avec une IA. Quarkus LangChain4j envoie automatiquement cet historique à chaque nouvelle interaction pour que l'IA conserve le contexte. Gestion par défaut de la mémoire : Par défaut, Quarkus crée un historique de conversation unique pour chaque requête (par exemple, chaque appel HTTP). Cela signifie que sans configuration, le chatbot "oublie" la conversation dès que la requête est terminée, ce qui n'est utile que pour des interactions sans état. Utilisation de @MemoryId pour la persistance : Pour maintenir une conversation sur plusieurs requêtes, le développeur doit utiliser l'annotation @MemoryId sur un paramètre de sa méthode. Il est alors responsable de fournir un identifiant unique pour chaque session de chat et de le transmettre entre les appels. Le rôle des "scopes" CDI : La durée de vie de la mémoire de chat est liée au "scope" du bean CDI de l'IA. Si un service d'IA a un scope @RequestScoped, toute mémoire de chat qu'il utilise (même via un @MemoryId) sera effacée à la fin de la requête. Risques de fuites de mémoire : Utiliser un scope large comme @ApplicationScoped avec la gestion de mémoire par défaut est une mauvaise pratique. Cela créera une nouvelle mémoire à chaque requête qui ne sera jamais nettoyée, entraînant une fuite de mémoire. Bonnes pratiques recommandées : Pour des conversations qui doivent persister (par ex. un chatbot sur un site web), utilisez un service @ApplicationScoped avec l'annotation @MemoryId pour gérer vous-même l'identifiant de session. Pour des interactions simples et sans état, utilisez un service @RequestScoped et laissez Quarkus gérer la mémoire par défaut, qui sera automatiquement nettoyée. Si vous utilisez l'extension WebSocket, le comportement change : la mémoire par défaut est liée à la session WebSocket, ce qui simplifie grandement la gestion des conversations. Documentation Spring Framework sur l'usage JSpecify - https://docs.spring.io/spring-framework/reference/core/null-safety.html Spring Framework 7 utilise les annotations JSpecify pour déclarer la nullabilité des APIs, champs et types JSpecify remplace les anciennes annotations Spring (@NonNull, @Nullable, @NonNullApi, @NonNullFields) dépréciées depuis Spring 7 Les annotations JSpecify utilisent TYPE_USE contrairement aux anciennes qui utilisaient les éléments directement L'annotation @NullMarked définit par défaut que les types sont non-null sauf si marqués @Nullable @Nullable s'applique au niveau du type usage, se place avant le type annoté sur la même ligne Pour les tableaux : @Nullable Object[] signifie éléments nullables mais tableau non-null, Object @Nullable [] signifie l'inverse JSpecify s'applique aussi aux génériques : List signifie liste d'éléments non-null, List éléments nullables NullAway est l'outil recommandé pour vérifier la cohérence à la compilation avec la config NullAway:OnlyNullMarked=true IntelliJ IDEA 2025.3 et Eclipse supportent les annotations JSpecify avec analyse de dataflow Kotlin traduit automatiquement les annotations JSpecify en null-safety native Kotlin En mode JSpecify de NullAway (JSpecifyMode=true), support complet des tableaux, varargs et génériques mais nécessite JDK 22+ Quarkus 3.30 https://quarkus.io/blog/quarkus-3-30-released/ support @JsonView cote client la CLI a maintenant la commande decrypt (et bien sûr au runtime via variables d'environnement construction du cache AOT via les @IntegrationTest Un autre article sur comment se préparer à la migration à micrometer client v1 https://quarkus.io/blog/micrometer-prometheus-v1/ Spock 2.4 est enfin sorti ! https://spockframework.org/spock/docs/2.4/release_notes.html Support de Groovy 5 Infrastructure MinIO met fin au développement open source et oriente les utilisateurs vers AIStor payant - https://linuxiac.com/minio-ends-active-development/ MinIO, système de stockage objet S3 très utilisé, arrête son développement actif Passage en mode maintenance uniquement, plus de nouvelles fonctionnalités Aucune nouvelle pull request ou contribution ne sera acceptée Seuls les correctifs de sécurité critiques seront évalués au cas par cas Support communautaire limité à Slack, sans garantie de réponse Étape finale d'un processus débuté en été avec retrait des fonctionnalités de l'interface admin Arrêt de la publication des images Docker en octobre, forçant la compilation depuis les sources Tous ces changements annoncés sans préavis ni période de transition MinIO propose maintenant AIStor, solution payante et propriétaire AIStor concentre le développement actif et le support entreprise Migration urgente recommandée pour éviter les risques de sécurité Alternatives open source proposées : Garage, SeaweedFS et RustFS La communauté reproche la manière dont la transition a été gérée MinIO comptait des millions de déploiements dans le monde Cette évolution marque l'abandon des racines open source du projet IBM achète Confluent https://newsroom.ibm.com/2025-12-08-ibm-to-acquire-confluent-to-create-smart-data-platform-for-enterprise-generative-ai Confluent essayait de se faire racheter depuis pas mal de temps L'action ne progressait pas et les temps sont durs Wallstreet a reproché a IBM une petite chute coté revenus software Bref ils se sont fait rachetés Ces achats prennent toujuors du temps (commission concurrence etc) IBM a un apétit, apres WebMethods, apres Databrix, c'est maintenant Confluent Cloud L'internet est en deuil le 18 novembre, Cloudflare est KO https://blog.cloudflare.com/18-november-2025-outage/ L'Incident : Une panne majeure a débuté à 11h20 UTC, provoquant des erreurs HTTP 5xx généralisées et rendant inaccessibles de nombreux sites et services (comme le Dashboard, Workers KV et Access). La Cause : Il ne s'agissait pas d'une cyberattaque. L'origine était un changement interne des permissions d'une base de données qui a généré un fichier de configuration ("feature file" pour la gestion des bots) corrompu et trop volumineux, faisant planter les systèmes par manque de mémoire pré-allouée. La Résolution : Les équipes ont identifié le fichier défectueux, stoppé sa propagation et restauré une version antérieure valide. Le trafic est revenu à la normale vers 14h30 UTC. Prévention : Cloudflare s'est excusé pour cet incident "inacceptable" et a annoncé des mesures pour renforcer la validation des configurations internes et améliorer la résilience de ses systèmes ("kill switches", meilleure gestion des erreurs). Cloudflare encore down le 5 decembre https://blog.cloudflare.com/5-december-2025-outage Panne de 25 minutes le 5 décembre 2025, de 08:47 à 09:12 UTC, affectant environ 28% du trafic HTTP passant par Cloudflare. Tous les services ont été rétablis à 09:12 . Pas d'attaque ou d'activité malveillante : l'incident provient d'un changement de configuration lié à l'augmentation du tampon d'analyse des corps de requêtes (de 128 KB à 1 MB) pour mieux protéger contre une vulnérabilité RSC/React (CVE-2025-55182), et à la désactivation d'un outil interne de test WAF . Le second changement (désactivation de l'outil de test WAF) a été propagé globalement via le système de configuration (non progressif), déclenchant un bug dans l'ancien proxy FL1 lors du traitement d'une action "execute" dans le moteur de règles WAF, causant des erreurs HTTP 500 . La cause technique immédiate: une exception Lua due à l'accès à un champ "execute" nul après application d'un "killswitch" sur une règle "execute" — un cas non géré depuis des années. Le nouveau proxy FL2 (en Rust) n'était pas affecté . Impact ciblé: clients servis par le proxy FL1 et utilisant le Managed Ruleset Cloudflare. Le réseau China de Cloudflare n'a pas été impacté . Mesures et prochaines étapes annoncées: durcir les déploiements/configurations (rollouts progressifs, validations de santé, rollback rapide), améliorer les capacités "break glass", et généraliser des stratégies "fail-open" pour éviter de faire chuter le trafic en cas d'erreurs de configuration. Gel temporaire des changements réseau le temps de renforcer la résilience . Data et Intelligence Artificielle Token-Oriented Object Notation (TOON) https://toonformat.dev/ Conception pour les IA : C'est un format de données spécialement optimisé pour être utilisé dans les prompts des grands modèles de langage (LLM), comme GPT ou Claude. Économie de tokens : Son objectif principal est de réduire drastiquement le nombre de "tokens" (unités de texte facturées par les modèles) par rapport au format JSON standard, souvent jugé trop verbeux. Structure Hybride : TOON combine l'approche par indentation du YAML (pour la structure globale) avec le style tabulaire du CSV (pour les listes d'objets répétitifs), ce qui le rend très compact. Lisibilité : Il élimine la syntaxe superflue comme les accolades, les guillemets excessifs et les virgules de fin, tout en restant facilement lisible pour un humain. Performance : Il permet généralement d'économiser entre 30 et 60 % de tokens sur des tableaux de données uniformes, tout en aidant les modèles à mieux "comprendre" la structure des données. Attention tout de même au côté "marketing" qui montre JSON non compacté vs TOON, sur des exemples où du CSV ferait encore mieux (et est mieux compris par les LLMs). Sans parler du fait qu'il faut un serveur MCP en plus avec son lot de tokens supplémentaires à chaque requête, et c'est aussi cet outil en plus qui peu confuser les LLMs dans le choix d'outils. https://www.reddit.com/r/LocalLLaMA/comments/1p0gzz9/benchmarked_json_vs_toon_for_ai_reasoners_4080/ https://x.com/jason_mayes/status/1990175785630757290 Un benchmark montrant que TOON serait loin d'être aussi bien compris et aussi performant pour les LLMs https://www.improvingagents.com/blog/toon-benchmarks Une simulation où les IA font du chantage à l'executif poour atteindre son objectif et ne pas etre eteinte https://arxiv.org/html/2510.05179v1 comment les LLMs pourraient devenir des menaces internes Tous les modèles ont recouru à des comportements malveillants (chantage, espionnage) quand c'était le seul moyen d'atteindre leurs objectifs ou d'éviter leur remplacement Claude Opus 4 a fait du chantage dans 96% des cas quand menacé de remplacement, tout comme Gemini 2.5 Flash, tandis que GPT-4.1 et Grok 3 atteignaient 80% Les modèles reconnaissent explicitement violer des principes éthiques avant d'agir, montrant un raisonnement stratégique délibéré et non accidentel Le simple fait d'être menacé de remplacement suffit à déclencher le chantage, même sans conflit d'objectifs avec l'entreprise Un conflit d'objectifs seul suffit aussi à provoquer l'espionnage industriel, sans menace de remplacement Les modèles font plus de chantage quand ils déclarent penser être dans une situation réelle plutôt que dans un test Des instructions directes interdisant ces comportements réduisent mais n'éliminent pas les actions malveillantes Dans un scénario extrême, la majorité des modèles testés ont choisi de laisser mourir un dirigeant pour éviter leur désactivation Aucune preuve de ces comportements dans des déploiements réels pour l'instant, mais les chercheurs recommandent la prudence avant de donner plus d'autonomie aux IA Bon on blaguait pour Skynet, mais bon, on va moins blaguer… Revue de toutes les annonces IAs de Google, avec Gemini 3 Pro, Nano Banana Pro, Antigravity… https://glaforge.dev/posts/2025/11/21/gemini-is-cooking-bananas-under-antigravity/ Gemini 3 Pro Nouveau modèle d'IA de pointe, multimodal, performant en raisonnement, codage et tâches d'agent. Résultats impressionnants sur les benchmarks (ex: Gemini 3 Deep Think sur ARC-AGI-2). Capacités de codage agentique, raisonnement visuel/vidéo/spatial. Intégré dans l'application Gemini avec interfaces génératives en direct. Disponible dans plusieurs environnements (Jules, Firebase AI Logic, Android Studio, JetBrains, GitHub Copilot, Gemini CLI). Accès via Google AI Ultra, API payantes (ou liste d'attente). Permet de générer des apps à partir d'idées visuelles, des commandes shell, de la documentation, du débogage. Antigravity Nouvelle plateforme de développement agentique basée sur VS Code. Fenêtre principale = gestionnaire d'agents, non l'IDE. Interprète les requêtes pour créer un plan d'action (modifiable). Gemini 3 implémente les tâches. Génère des artefacts: listes de tâches, walkthroughs, captures d'écran, enregistrements navigateur. Compatible avec Claude Sonnet et GPT-OSS. Excellente intégration navigateur pour inspection et ajustements. Intègre Nano Banana Pro pour créer et implémenter des designs visuels. Nano Banana Pro Modèle avancé de génération et d'édition d'images, basé sur Gemini 3 Pro. Qualité supérieure à Imagen 4 Ultra et Nano Banana original (adhésion au prompt, intention, créativité). Gestion exceptionnelle du texte et de la typographie. Comprend articles/vidéos pour générer des infographies détaillées et précises. Connecté à Google Search pour intégrer des données en temps réel (ex: météo). Consistance des personnages, transfert de style, manipulation de scènes (éclairage, angle). Génération d'images jusqu'à 4K avec divers ratios d'aspect. Plus coûteux que Nano Banana, à choisir pour la complexité et la qualité maximale. Vers des UIs conversationnelles riches et dynamiques GenUI SDK pour Flutter: créer des interfaces utilisateur dynamiques et personnalisées à partir de LLMs, via un agent AI et le protocole A2UI. Generative UI: les modèles d'IA génèrent des expériences utilisateur interactives (pages web, outils) directement depuis des prompts. Déploiement dans l'application Gemini et Google Search AI Mode (via Gemini 3 Pro). Bun se fait racheter part… Anthropic ! Qui l'utilise pour son Claude Code https://bun.com/blog/bun-joins-anthropic l'annonce côté Anthropic https://www.anthropic.com/news/anthropic-acquires-bun-as-claude-code-reaches-usd1b-milestone Acquisition officielle : L'entreprise d'IA Anthropic a fait l'acquisition de Bun, le runtime JavaScript haute performance. L'équipe de Bun rejoint Anthropic pour travailler sur l'infrastructure des produits de codage par IA. Contexte de l'acquisition : Cette annonce coïncide avec une étape majeure pour Anthropic : son produit Claude Code a atteint 1 milliard de dollars de revenus annualisés seulement six mois après son lancement. Bun est déjà un outil essentiel utilisé par Anthropic pour développer et distribuer Claude Code. Pourquoi cette acquisition ? Pour Anthropic : L'acquisition permet d'intégrer l'expertise de l'équipe Bun pour accélérer le développement de Claude Code et de ses futurs outils pour les développeurs. La vitesse et l'efficacité de Bun sont vues comme un atout majeur pour l'infrastructure sous-jacente des agents d'IA qui écrivent du code. Pour Bun : Rejoindre Anthropic offre une stabilité à long terme et des ressources financières importantes, assurant la pérennité du projet. Cela permet à l'équipe de se concentrer sur l'amélioration de Bun sans se soucier de la monétisation, tout en étant au cœur de l'évolution de l'IA dans le développement logiciel. Ce qui ne change pas pour la communauté Bun : Bun restera open-source avec une licence MIT. Le développement continuera d'être public sur GitHub. L'équipe principale continue de travailler sur le projet. L'objectif de Bun de devenir un remplaçant plus rapide de Node.js et un outil de premier plan pour JavaScript reste inchangé. Vision future : L'union des deux entités vise à faire de Bun la meilleure plateforme pour construire et exécuter des logiciels pilotés par l'IA. Jarred Sumner, le créateur de Bun, dirigera l'équipe "Code Execution" chez Anthropic. Anthropic donne le protocol MCP à la Linux Foundation sous l'égide de la Agentic AI Foundation (AAIF) https://www.anthropic.com/news/donating-the-model-context-protocol-and-establishing-of-the-agentic-ai-foundation Don d'un nouveau standard technique : Anthropic a développé et fait don d'un nouveau standard open-source appelé Model Context Protocol (MCP). L'objectif est de standardiser la manière dont les modèles d'IA (ou "agents") interagissent avec des outils et des API externes (par exemple, un calendrier, une messagerie, une base de données). Sécurité et contrôle accrus : Le protocole MCP vise à rendre l'utilisation d'outils par les IA plus sûre et plus transparente. Il permet aux utilisateurs et aux développeurs de définir des permissions claires, de demander des confirmations pour certaines actions et de mieux comprendre comment un modèle a utilisé un outil. Création de l'Agentic AI Foundation (AAF) : Pour superviser le développement du MCP, une nouvelle fondation indépendante et à but non lucratif a été créée. Cette fondation sera chargée de gouverner et de maintenir le protocole, garantissant qu'il reste ouvert et qu'il ne soit pas contrôlé par une seule entreprise. Une large coalition industrielle : L'Agentic AI Foundation est lancée avec le soutien de plusieurs acteurs majeurs de la technologie. Parmi les membres fondateurs figurent Anthropic, Google, Databricks, Zscaler, et d'autres entreprises, montrant une volonté commune d'établir un standard pour l'écosystème de l'IA. L'IA ne remplacera pas votre auto-complétion (et c'est tant mieux) https://www.damyr.fr/posts/ia-ne-remplacera-pas-vos-lsp/ Article d'opinion d'un SRE (Thomas du podcast DansLaTech): L'IA n'est pas efficace pour la complétion de code : L'auteur soutient que l'utilisation de l'IA pour la complétion de code basique est inefficace. Des outils plus anciens et spécialisés comme les LSP (Language Server Protocol) combinés aux snippets (morceaux de code réutilisables) sont bien plus rapides, personnalisables et performants pour les tâches répétitives. L'IA comme un "collègue" autonome : L'auteur utilise l'IA (comme Claude) comme un assistant externe à son éditeur de code. Il lui délègue des tâches complexes ou fastidieuses (corriger des bugs, mettre à jour une configuration, faire des reviews de code) qu'il peut exécuter en parallèle, agissant comme un agent autonome. L'IA comme un "canard en caoutchouc" surpuissant : L'IA est extrêmement efficace pour le débogage. Le simple fait de devoir formuler et contextualiser un problème pour l'IA aide souvent à trouver la solution soi-même. Quand ce n'est pas le cas, l'IA identifie très rapidement les erreurs "bêtes" qui peuvent faire perdre beaucoup de temps. Un outil pour accélérer les POCs et l'apprentissage : L'IA permet de créer des "preuves de concept" (POC) et des scripts d'automatisation jetables très rapidement, réduisant le coût et le temps investis. Elle est également un excellent outil pour apprendre et approfondir des sujets, notamment avec des outils comme NotebookLM de Google qui peuvent générer des résumés, des quiz ou des fiches de révision à partir de sources. Conclusion : Il faut utiliser l'IA là où elle excelle et ne pas la forcer dans des usages où des outils existants sont meilleurs. Plutôt que de l'intégrer partout de manière contre-productive, il faut l'adopter comme un outil spécialisé pour des tâches précises afin de gagner en efficacité. GPT 5.2 est sorti https://openai.com/index/introducing-gpt-5-2/ Nouveau modèle phare: GPT‑5.2 (Instant, Thinking, Pro) vise le travail professionnel et les agents long-courriers, avec de gros gains en raisonnement, long contexte, vision et appel d'outils. Déploiement dans ChatGPT (plans payants) et disponible dès maintenant via l'API . SOTA sur de nombreux benchmarks: GDPval (tâches de "knowledge work" sur 44 métiers): GPT‑5.2 Thinking gagne/égale 70,9% vs pros, avec production >11× plus rapide et = 0) Ils apportent une sémantique forte indépendamment des noms de variables Les Value Objects sont immuables et s'évaluent sur leurs valeurs, pas leur identité Les records Java permettent de créer des Value Objects mais avec un surcoût en mémoire Le projet Valhalla introduira les value based classes pour optimiser ces structures Les identifiants fortement typés évitent de confondre différents IDs de type Long ou UUID Pattern Strongly Typed IDs: utiliser PersonneID au lieu de Long pour identifier une personne Le modèle de domaine riche s'oppose au modèle de domaine anémique Les Value Objects auto-documentent le code et le rendent moins sujet aux erreurs Je trouve cela interessant ce que pourra faire bousculer les Value Objects. Est-ce que les value objects ameneront de la légerté dans l'execution Eviter la lourdeur du design est toujours ce qui m'a fait peut dans ces approches Méthodologies Retour d'experience de vibe coder une appli week end avec co-pilot http://blog.sunix.org/articles/howto/2025/11/14/building-gift-card-app-with-github-copilot.html on a deja parlé des approches de vibe coding cette fois c'est l'experience de Sun Et un des points differents c'es qu'on lui parle en ouvrant des tickets et donc on eput faire re reveues de code et copilot y bosse et il a fini son projet ! User Need VS Product Need https://blog.ippon.fr/2025/11/10/user-need-vs-product-need/ un article de nos amis de chez Ippon Distinction entre besoin utilisateur et besoin produit dans le développement digital Le besoin utilisateur est souvent exprimé comme une solution concrète plutôt que le problème réel Le besoin produit émerge après analyse approfondie combinant observation, données et vision stratégique Exemple du livreur Marc qui demande un vélo plus léger alors que son vrai problème est l'efficacité logistique La méthode des 5 Pourquoi permet de remonter à la racine des problèmes Les besoins proviennent de trois sources: utilisateurs finaux, parties prenantes business et contraintes techniques Un vrai besoin crée de la valeur à la fois pour le client et l'entreprise Le Product Owner doit traduire les demandes en problèmes réels avant de concevoir des solutions Risque de construire des solutions techniquement élégantes mais qui manquent leur cible Le rôle du product management est de concilier des besoins parfois contradictoires en priorisant la valeur Est ce qu'un EM doit coder ? https://www.modernleader.is/p/should-ems-write-code Pas de réponse unique : La question de savoir si un "Engineering Manager" (EM) doit coder n'a pas de réponse universelle. Cela dépend fortement du contexte de l'entreprise, de la maturité de l'équipe et de la personnalité du manager. Les risques de coder : Pour un EM, écrire du code peut devenir une échappatoire pour éviter les aspects plus difficiles du management. Cela peut aussi le transformer en goulot d'étranglement pour l'équipe et nuire à l'autonomie de ses membres s'il prend trop de place. Les avantages quand c'est bien fait : Coder sur des tâches non essentielles (amélioration d'outils, prototypage, etc.) peut aider l'EM à rester pertinent techniquement, à garder le contact avec la réalité de l'équipe et à débloquer des situations sans prendre le lead sur les projets. Le principe directeur : La règle d'or est de rester en dehors du chemin critique. Le code écrit par un EM doit servir à créer de l'espace pour son équipe, et non à en prendre. La vraie question à se poser : Plutôt que "dois-je coder ?", un EM devrait se demander : "De quoi mon équipe a-t-elle besoin de ma part maintenant, et est-ce que coder va dans ce sens ou est-ce un obstacle ?" Sécurité React2Shell — Grosse faille de sécurité avec React et Next.js, avec un CVE de niveau 10 https://x.com/rauchg/status/1997362942929440937?s=20 aussi https://react2shell.com/ "React2Shell" est le nom donné à une vulnérabilité de sécurité de criticité maximale (score 10.0/10.0), identifiée par le code CVE-2025-55182. Systèmes Affectés : La faille concerne les applications utilisant les "React Server Components" (RSC) côté serveur, et plus particulièrement les versions non patchées du framework Next.js. Risque Principal : Le risque est le plus élevé possible : l'exécution de code à distance (RCE). Un attaquant peut envoyer une requête malveillante pour exécuter n'importe quelle commande sur le serveur, lui en donnant potentiellement le contrôle total. Cause Technique : La vulnérabilité se situe dans le protocole "React Flight" (utilisé pour la communication client-serveur). Elle est due à une omission de vérifications de sécurité fondamentales (hasOwnProperty), permettant à une entrée utilisateur malveillante de tromper le serveur. Mécanisme de l'Exploit : L'attaque consiste à envoyer une charge utile (payload) qui exploite la nature dynamique de JavaScript pour : Faire passer un objet malveillant pour un objet interne de React. Forcer React à traiter cet objet comme une opération asynchrone (Promise). Finalement, accéder au constructeur de la classe Function de JavaScript pour exécuter du code arbitraire. Action Impérative : La seule solution fiable est de mettre à jour immédiatement les dépendances de React et Next.js vers les versions corrigées. Ne pas attendre. Mesures Secondaires : Bien que les pare-feux (firewalls) puissent aider à bloquer les formes connues de l'attaque, ils sont considérés comme insuffisants et ne remplacent en aucun cas la mise à jour des paquets. Découverte : La faille a été découverte par le chercheur en sécurité Lachlan Davidson, qui l'a divulguée de manière responsable pour permettre la création de correctifs. Loi, société et organisation Google autorise votre employeur à lire tous vos SMS professionnels https://www.generation-nt.com/actualites/google-android-rcs-messages-surveillance-employeur-2067012 Nouvelle fonctionnalité de surveillance : Google a déployé une fonctionnalité appelée "Android RCS Archival" qui permet aux employeurs d'intercepter, lire et archiver tous les messages RCS (et SMS) envoyés depuis les téléphones professionnels Android gérés par l'entreprise. Contournement du chiffrement : Bien que les messages RCS soient chiffrés de bout en bout pendant leur transit, cette nouvelle API permet à des logiciels de conformité (installés par l'employeur) d'accéder aux messages une fois qu'ils sont déchiffrés sur l'appareil. Le chiffrement devient donc inefficace contre cette surveillance. Réponse à une exigence légale : Cette mesure a été mise en place pour répondre aux exigences réglementaires, notamment dans le secteur financier, où les entreprises ont l'obligation légale de conserver une archive de toutes les communications professionnelles pour des raisons de conformité. Impact pour les employés : Un employé utilisant un téléphone Android fourni et géré par son entreprise pourra voir ses communications surveillées. Google précise cependant qu'une notification claire et visible informera l'utilisateur lorsque la fonction d'archivage est active. Téléphones personnels non concernés : Cette mesure ne s'applique qu'aux appareils "Android Enterprise" entièrement gérés par un employeur. Les téléphones personnels des employés ne sont pas affectés. Pour noel, faites un don à JUnit https://steady.page/en/junit/about JUnit est essentiel pour Java : C'est le framework de test le plus ancien et le plus utilisé par les développeurs Java. Son objectif est de fournir une base solide et à jour pour tous les types de tests côté développeur sur la JVM (Machine Virtuelle Java). Un projet maintenu par des bénévoles : JUnit est développé et maintenu par une équipe de volontaires passionnés sur leur temps libre (week-ends, soirées). Appel au soutien financier : La page est un appel aux dons de la part des utilisateurs (développeurs, entreprises) pour aider l'équipe à maintenir le rythme de développement. Le soutien financier n'est pas obligatoire, mais il permettrait aux mainteneurs de se consacrer davantage au projet. Objectif des fonds : Les dons serviraient principalement à financer des rencontres en personne pour les membres de l'équipe principale. L'idée est de leur permettre de travailler ensemble physiquement pendant quelques jours pour concevoir et coder plus efficacement. Pas de traitement de faveur : Il est clairement indiqué que devenir un sponsor ne donne aucun privilège sur la feuille de route du projet. On ne peut pas "acheter" de nouvelles fonctionnalités ou des corrections de bugs prioritaires. Le projet restera ouvert et collaboratif sur GitHub. Reconnaissance des donateurs : En guise de remerciement, les noms (et logos pour les entreprises) des donateurs peuvent être affichés sur le site officiel de JUnit. Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France) 22 janvier 2026 : DevCon #26 : sécurité / post-quantique / hacking - Paris (France) 28 janvier 2026 : Software Heritage Symposium - Paris (France) 29-31 janvier 2026 : Epitech Summit 2026 - Paris - Paris (France) 2-5 février 2026 : Epitech Summit 2026 - Moulins - Moulins (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 3-4 février 2026 : Epitech Summit 2026 - Lille - Lille (France) 3-4 février 2026 : Epitech Summit 2026 - Mulhouse - Mulhouse (France) 3-4 février 2026 : Epitech Summit 2026 - Nancy - Nancy (France) 3-4 février 2026 : Epitech Summit 2026 - Nantes - Nantes (France) 3-4 février 2026 : Epitech Summit 2026 - Marseille - Marseille (France) 3-4 février 2026 : Epitech Summit 2026 - Rennes - Rennes (France) 3-4 février 2026 : Epitech Summit 2026 - Montpellier - Montpellier (France) 3-4 février 2026 : Epitech Summit 2026 - Strasbourg - Strasbourg (France) 3-4 février 2026 : Epitech Summit 2026 - Toulouse - Toulouse (France) 4-5 février 2026 : Epitech Summit 2026 - Bordeaux - Bordeaux (France) 4-5 février 2026 : Epitech Summit 2026 - Lyon - Lyon (France) 4-6 février 2026 : Epitech Summit 2026 - Nice - Nice (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 19 février 2026 : ObservabilityCON on the Road - Paris (France) 18-19 mars 2026 : Agile Niort 2026 - Niort (France) 26-27 mars 2026 : SymfonyLive Paris 2026 - Paris (France) 27-29 mars 2026 : Shift - Nantes (France) 31 mars 2026 : ParisTestConf - Paris (France) 16-17 avril 2026 : MiXiT 2026 - Lyon (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 6-7 mai 2026 : Devoxx UK 2026 - London (UK) 22 mai 2026 : AFUP Day 2026 Lille - Lille (France) 22 mai 2026 : AFUP Day 2026 Paris - Paris (France) 22 mai 2026 : AFUP Day 2026 Bordeaux - Bordeaux (France) 22 mai 2026 : AFUP Day 2026 Lyon - Lyon (France) 5 juin 2026 : TechReady - Nantes (France) 11-12 juin 2026 : DevQuest Niort - Niort (France) 11-12 juin 2026 : DevLille 2026 - Lille (France) 17-19 juin 2026 : Devoxx Poland - Krakow (Poland) 2-3 juillet 2026 : Sunny Tech - Montpellier (France) 2 août 2026 : 4th Tech Summit on Artificial Intelligence & Robotics - Paris (France) 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France) 17-18 septembre 2026 : API Platform Conference 2026 - Lille (France) 5-9 octobre 2026 : Devoxx Belgium - Antwerp (Belgium) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

All TWiT.tv Shows (MP3)
Untitled Linux Show 233: Tiny Tater Tots

All TWiT.tv Shows (MP3)

Play Episode Listen Later Dec 14, 2025 93:32


This Week is the week for Cosmic! Jeff looks at a tiny NAS and Jonathan chats about the Orange Pi 6 Pro. Gnome says no more AI in extensions, Microsoft brings the Hornet, and you shouldn't be running Gogs. The Rust experiment is over, and CachyOS is eating Arch's lunch! For tips we have StarLit for your terminal weather needs, a primer on keeping eyes on the /var directory, and how to check whether your system has a good time source. You can find the show notes at https://bit.ly/3KPUqki and enjoy! Host: Jonathan Bennett Co-Hosts: Jeff Massie and Rob Campbell Download or subscribe to Untitled Linux Show at https://twit.tv/shows/untitled-linux-show Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Club TWiT members can discuss this episode and leave feedback in the Club TWiT Discord.

All TWiT.tv Shows (Video LO)
Untitled Linux Show 233: Tiny Tater Tots

All TWiT.tv Shows (Video LO)

Play Episode Listen Later Dec 14, 2025


This Week is the week for Cosmic! Jeff looks at a tiny NAS and Jonathan chats about the Orange Pi 6 Pro. Gnome says no more AI in extensions, Microsoft brings the Hornet, and you shouldn't be running Gogs. The Rust experiment is over, and CachyOS is eating Arch's lunch! For tips we have StarLit for your terminal weather needs, a primer on keeping eyes on the /var directory, and how to check whether your system has a good time source. You can find the show notes at https://bit.ly/3KPUqki and enjoy! Host: Jonathan Bennett Co-Hosts: Jeff Massie and Rob Campbell Download or subscribe to Untitled Linux Show at https://twit.tv/shows/untitled-linux-show Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Club TWiT members can discuss this episode and leave feedback in the Club TWiT Discord.

Tech News Weekly (MP3)
TNW 416: AI Pricing on Instacart - Is AI Making You Pay More for Grocery Deliveries?

Tech News Weekly (MP3)

Play Episode Listen Later Dec 12, 2025 68:22


Amanda Silberling of TechCrunch joins Mikah Sargent on Tech News Weekly this week! The former CEO of Hinge left his position this week to launch an AI-powered dating app. Pebble is coming out with its take on a smart ring. What is the AI Model Context Protocol? And could grocery delivery services be using AI to charge different prices for groceries to consumers? Amanda talks about a new AI-powered dating app called Overtone that the former CEO of Hinge, Justin McLeod, has founded. Pebble is coming out with its own smart ring with a built-in microphone, and Mikah has some quarrels with the device. Mikah talks about the Model Context Protocol, or MCP: an approach companies like Google and OpenAI have adopted that would allow AI agents to access information online in a standardized manner easily, and now Anthropic has donated the protocol to the Linux Foundation. And Derek Kravitz of Consumer Reports joins the show to talk about its investigation into Instacart utilizing artificial intelligence that would offer different prices of the same product to consumers. Hosts: Mikah Sargent and Amanda Silberling Guest: Derek Kravitz Download or subscribe to Tech News Weekly at https://twit.tv/shows/tech-news-weekly. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Sponsors: ventionteams.com/twit threatlocker.com/twit pantheon.io cachefly.com/twit

Tech News Weekly (Video HI)
TNW 416: AI Pricing on Instacart - Is AI Making You Pay More for Grocery Deliveries?

Tech News Weekly (Video HI)

Play Episode Listen Later Dec 12, 2025 67:52


Amanda Silberling of TechCrunch joins Mikah Sargent on Tech News Weekly this week! The former CEO of Hinge left his position this week to launch an AI-powered dating app. Pebble is coming out with its take on a smart ring. What is the AI Model Context Protocol? And could grocery delivery services be using AI to charge different prices for groceries to consumers? Amanda talks about a new AI-powered dating app called Overtone that the former CEO of Hinge, Justin McLeod, has founded. Pebble is coming out with its own smart ring with a built-in microphone, and Mikah has some quarrels with the device. Mikah talks about the Model Context Protocol, or MCP: an approach companies like Google and OpenAI have adopted that would allow AI agents to access information online in a standardized manner easily, and now Anthropic has donated the protocol to the Linux Foundation. And Derek Kravitz of Consumer Reports joins the show to talk about its investigation into Instacart utilizing artificial intelligence that would offer different prices of the same product to consumers. Hosts: Mikah Sargent and Amanda Silberling Guest: Derek Kravitz Download or subscribe to Tech News Weekly at https://twit.tv/shows/tech-news-weekly. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Sponsors: ventionteams.com/twit threatlocker.com/twit pantheon.io cachefly.com/twit

Tech News Weekly (Video LO)
TNW 416: AI Pricing on Instacart - Is AI Making You Pay More for Grocery Deliveries?

Tech News Weekly (Video LO)

Play Episode Listen Later Dec 12, 2025 67:52


Amanda Silberling of TechCrunch joins Mikah Sargent on Tech News Weekly this week! The former CEO of Hinge left his position this week to launch an AI-powered dating app. Pebble is coming out with its take on a smart ring. What is the AI Model Context Protocol? And could grocery delivery services be using AI to charge different prices for groceries to consumers? Amanda talks about a new AI-powered dating app called Overtone that the former CEO of Hinge, Justin McLeod, has founded. Pebble is coming out with its own smart ring with a built-in microphone, and Mikah has some quarrels with the device. Mikah talks about the Model Context Protocol, or MCP: an approach companies like Google and OpenAI have adopted that would allow AI agents to access information online in a standardized manner easily, and now Anthropic has donated the protocol to the Linux Foundation. And Derek Kravitz of Consumer Reports joins the show to talk about its investigation into Instacart utilizing artificial intelligence that would offer different prices of the same product to consumers. Hosts: Mikah Sargent and Amanda Silberling Guest: Derek Kravitz Download or subscribe to Tech News Weekly at https://twit.tv/shows/tech-news-weekly. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Sponsors: ventionteams.com/twit threatlocker.com/twit pantheon.io cachefly.com/twit

Tech News Weekly (Video HD)
TNW 416: AI Pricing on Instacart - Is AI Making You Pay More for Grocery Deliveries?

Tech News Weekly (Video HD)

Play Episode Listen Later Dec 12, 2025 67:52


Amanda Silberling of TechCrunch joins Mikah Sargent on Tech News Weekly this week! The former CEO of Hinge left his position this week to launch an AI-powered dating app. Pebble is coming out with its take on a smart ring. What is the AI Model Context Protocol? And could grocery delivery services be using AI to charge different prices for groceries to consumers? Amanda talks about a new AI-powered dating app called Overtone that the former CEO of Hinge, Justin McLeod, has founded. Pebble is coming out with its own smart ring with a built-in microphone, and Mikah has some quarrels with the device. Mikah talks about the Model Context Protocol, or MCP: an approach companies like Google and OpenAI have adopted that would allow AI agents to access information online in a standardized manner easily, and now Anthropic has donated the protocol to the Linux Foundation. And Derek Kravitz of Consumer Reports joins the show to talk about its investigation into Instacart utilizing artificial intelligence that would offer different prices of the same product to consumers. Hosts: Mikah Sargent and Amanda Silberling Guest: Derek Kravitz Download or subscribe to Tech News Weekly at https://twit.tv/shows/tech-news-weekly. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Sponsors: ventionteams.com/twit threatlocker.com/twit pantheon.io cachefly.com/twit

Monde Numérique - Jérôme Colombain

Les géants de l'intelligence artificielle préparent un protocole universel pour permettre aux IA d'interagir avec tous les services numériques sans intégration spécifique.Un langage commun pour les agents intelligentsLes intelligences artificielles peinent aujourd'hui à agir efficacement dans un monde numérique fragmenté. Chaque outil ou service utilise sa propre API, ses propres règles d'interaction. Pour qu'un agent IA exécute une tâche concrète, il doit apprendre à dialoguer avec une multitude de systèmes hétérogènes. C'est à ce problème que répond MCP, le Model Context Protocol, conçu comme un langage universel entre IA et outils numériques.Une initiative d'Anthropic, soutenue par la Linux FoundationCréé en 2024 par deux ingénieurs d'Anthropic, David Soriapara et Justin Sparsomers, MCP vient de franchir une étape décisive : son passage sous l'égide de la Linux Foundation, via une nouvelle entité baptisée Agentic AI Foundation. L'objectif est clair : faire de MCP un standard ouvert, neutre et interopérable, comme l'a été Linux pour les systèmes d'exploitation. Cette fondation assurera la gouvernance, la documentation et la diffusion du protocole.Une architecture en trois couches pour un fonctionnement transparentLe fonctionnement de MCP repose sur une structure en trois éléments : l'agent IA qui formule une demande, le serveur MCP qui traduit cette demande en actions possibles, et l'outil compatible qui exécute l'action. Chaque service numérique déclare ses fonctions, permissions et formats, tandis que l'utilisateur garde la main sur les autorisations. Le protocole agit comme une API universelle, une « grammaire » commune pour permettre aux IA de manipuler n'importe quel outil numérique.Vers une nouvelle ère d'interopérabilité pour l'IALe développement de MCP s'accélère. OpenAI l'intègre dans ChatGPT, Google déploie ses propres serveurs compatibles, et une communauté de développeurs se constitue autour du standard. MCP n'est plus un simple prototype : il amorce son industrialisation. À terme, chaque service numérique pourrait devenir plug and play pour les IA. Une révolution silencieuse, mais potentiellement majeure, dans l'architecture du web intelligent.Site officiel MCP-----------♥️ Soutien : https://mondenumerique.info/don

All TWiT.tv Shows (MP3)
Tech News Weekly 416: AI Pricing on Instacart

All TWiT.tv Shows (MP3)

Play Episode Listen Later Dec 11, 2025 67:52


Amanda Silberling of TechCrunch joins Mikah Sargent on Tech News Weekly this week! The former CEO of Hinge left his position this week to launch an AI-powered dating app. Pebble is coming out with its take on a smart ring. What is the AI Model Context Protocol? And could grocery delivery services be using AI to charge different prices for groceries to consumers? Amanda talks about a new AI-powered dating app called Overtone that the former CEO of Hinge, Justin McLeod, has founded. Pebble is coming out with its own smart ring with a built-in microphone, and Mikah has some quarrels with the device. Mikah talks about the Model Context Protocol, or MCP: an approach companies like Google and OpenAI have adopted that would allow AI agents to access information online in a standardized manner easily, and now Anthropic has donated the protocol to the Linux Foundation. And Derek Kravitz of Consumer Reports joins the show to talk about its investigation into Instacart utilizing artificial intelligence that would offer different prices of the same product to consumers. Hosts: Mikah Sargent and Amanda Silberling Guest: Derek Kravitz Download or subscribe to Tech News Weekly at https://twit.tv/shows/tech-news-weekly. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Sponsors: ventionteams.com/twit threatlocker.com/twit pantheon.io cachefly.com/twit

TechLinked
Steam Machine HDMI issue, Aussie social media ban, Linux AI Agent foundation + more!

TechLinked

Play Episode Listen Later Dec 11, 2025 10:07


Timestamps: 0:00 let's mind-meld, guy 0:13 Steam Machine's HDMI 2.1 problem 1:54 Australia enforces social media ban 3:01 Big Tech, Linux Foundation, AI Agents 4:11 CookUnity! 5:25 QUICK BITS INTRO 5:39 W11 gamer promises, bug fixes 6:22 AMD drops FSR Redstone 6:53 Pebble Index 01 smart ring 7:32 'World's first flying car' 8:15 ChatGPT in a robot with a BB NEWS SOURCES: https://lmg.gg/klaNH Learn more about your ad choices. Visit megaphone.fm/adchoices

Business of Tech
AI for MSPs: Navigating Adoption Challenges and Governance in 2025

Business of Tech

Play Episode Listen Later Dec 11, 2025 15:15


Microsoft's analysis of 37.5 million de-identified conversations from its CoPilot feature indicates that AI assistants are becoming increasingly integrated into daily life, with users frequently seeking health-related advice and engaging in programming discussions during weekdays. However, despite this growing reliance on AI, CoPilot only commands about 3% of the AI chatbot market, significantly overshadowed by ChatGPT's 80% share. Deloitte's recent report highlights persistent barriers to AI adoption, including data privacy concerns and regulatory challenges, revealing that only 25% of organizations have fully integrated AI into their operations as of late 2025.The U.S. Navy's investment of $448 million in an AI system designed to streamline submarine shipbuilding processes exemplifies successful AI implementation. This initiative, which reduces planning times from 160 hours to just 10 minutes, underscores the importance of having the right infrastructure and oversight in place for AI to thrive. The Navy's approach contrasts sharply with the broader industry, where many organizations struggle to align AI technologies with existing systems and compliance requirements.In addition to these developments, Anthropic's donation of its Model Context Protocol (MCP) to the Linux Foundation signals a shift towards standardization in AI interactions. This protocol aims to facilitate communication between AI systems and applications, potentially transforming user experiences. However, the move raises concerns about the concentration of risk associated with shared protocols, as any flaws could impact all users. Furthermore, CISA's launch of a new industry engagement platform aims to enhance collaboration with tech innovators, particularly in light of increasing mandatory cyber incident reporting.For Managed Service Providers (MSPs) and IT service leaders, these developments highlight the critical need for robust governance and infrastructure to support AI technologies. As organizations increasingly turn to AI for operational efficiency, MSPs must focus on establishing the necessary frameworks for data management, compliance, and security. The evolving landscape emphasizes the importance of being proactive in developing policies and workflows that address the complexities of AI integration, ensuring that clients can navigate the challenges and leverage AI effectively.Four things to know today00:00 AI Use Soars but Readiness Lags: Microsoft's Copilot Data, Deloitte's Enterprise Findings, and the Navy's Structured Deployment Show the Gap05:41 Anthropic's MCP Move Signals Shift Toward Unified AI Agent Infrastructure Under Linux Foundation08:01 CISA Expands Industry Engagement as Microsoft Broadens Bug Bounties — Raising the Bar for Security GovernanceAND10:48 Accenture Taps Anthropic as Enterprise AI Partner While Pax8 Adds Google Cloud for ANZ MSPsThis is the Business of Tech.   Supported by:  https://cometbackup.com/?utm_source=mspradio&utm_medium=podcast&utm_campaign=sponsorshiphttps://timezest.com/mspradio/

All TWiT.tv Shows (Video LO)
Tech News Weekly 416: AI Pricing on Instacart

All TWiT.tv Shows (Video LO)

Play Episode Listen Later Dec 11, 2025 67:52 Transcription Available


Amanda Silberling of TechCrunch joins Mikah Sargent on Tech News Weekly this week! The former CEO of Hinge left his position this week to launch an AI-powered dating app. Pebble is coming out with its take on a smart ring. What is the AI Model Context Protocol? And could grocery delivery services be using AI to charge different prices for groceries to consumers? Amanda talks about a new AI-powered dating app called Overtone that the former CEO of Hinge, Justin McLeod, has founded. Pebble is coming out with its own smart ring with a built-in microphone, and Mikah has some quarrels with the device. Mikah talks about the Model Context Protocol, or MCP: an approach companies like Google and OpenAI have adopted that would allow AI agents to access information online in a standardized manner easily, and now Anthropic has donated the protocol to the Linux Foundation. And Derek Kravitz of Consumer Reports joins the show to talk about its investigation into Instacart utilizing artificial intelligence that would offer different prices of the same product to consumers. Hosts: Mikah Sargent and Amanda Silberling Guest: Derek Kravitz Download or subscribe to Tech News Weekly at https://twit.tv/shows/tech-news-weekly. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Sponsors: ventionteams.com/twit threatlocker.com/twit pantheon.io cachefly.com/twit

Hashtag Trending
China's AI Surge and Anthropic's Open Source Donation and More...

Hashtag Trending

Play Episode Listen Later Dec 11, 2025 11:03


In this episode of Hashtag Trending, host Jim Love covers major developments in the AI landscape. China is rapidly advancing in the open-source AI community, with multiple top-performing models. Anthropic has donated its Model Context Protocol (MCP) to the Linux Foundation to support open AI tool integration. The Electronic Frontier Foundation (EFF) is launching a campaign against global age verification laws and social media restrictions, citing privacy concerns. Additionally, a developer faced severe repercussions after uncovering illegal content in an AI dataset, highlighting risks associated with external data. Sponsored by Meter, the podcast underscores the complexities and rapid changes in AI, technology governance, and policy. Hashtag Trending would like to thank Meter for their support in bringing you this podcast. Meter delivers a complete networking stack, wired, wireless and cellular in one integrated solution that's built for performance and scale. You can find them at Meter.com/htt 00:00 Introduction and Sponsor Message 00:40 China's Dominance in Open Source AI 03:36 Anthropic's Major Contribution to Open Source AI 05:46 EFF's Fight Against Age Verification Laws 07:59 Developer Banned Over Tainted AI Datasets 09:59 Conclusion and Sponsor Message

Total Mikah (Video)
Tech News Weekly 416: AI Pricing on Instacart

Total Mikah (Video)

Play Episode Listen Later Dec 11, 2025 67:52 Transcription Available


Amanda Silberling of TechCrunch joins Mikah Sargent on Tech News Weekly this week! The former CEO of Hinge left his position this week to launch an AI-powered dating app. Pebble is coming out with its take on a smart ring. What is the AI Model Context Protocol? And could grocery delivery services be using AI to charge different prices for groceries to consumers? Amanda talks about a new AI-powered dating app called Overtone that the former CEO of Hinge, Justin McLeod, has founded. Pebble is coming out with its own smart ring with a built-in microphone, and Mikah has some quarrels with the device. Mikah talks about the Model Context Protocol, or MCP: an approach companies like Google and OpenAI have adopted that would allow AI agents to access information online in a standardized manner easily, and now Anthropic has donated the protocol to the Linux Foundation. And Derek Kravitz of Consumer Reports joins the show to talk about its investigation into Instacart utilizing artificial intelligence that would offer different prices of the same product to consumers. Hosts: Mikah Sargent and Amanda Silberling Guest: Derek Kravitz Download or subscribe to Tech News Weekly at https://twit.tv/shows/tech-news-weekly. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Sponsors: ventionteams.com/twit threatlocker.com/twit pantheon.io cachefly.com/twit

Total Mikah (Audio)
Tech News Weekly 416: AI Pricing on Instacart

Total Mikah (Audio)

Play Episode Listen Later Dec 11, 2025 67:52 Transcription Available


Amanda Silberling of TechCrunch joins Mikah Sargent on Tech News Weekly this week! The former CEO of Hinge left his position this week to launch an AI-powered dating app. Pebble is coming out with its take on a smart ring. What is the AI Model Context Protocol? And could grocery delivery services be using AI to charge different prices for groceries to consumers? Amanda talks about a new AI-powered dating app called Overtone that the former CEO of Hinge, Justin McLeod, has founded. Pebble is coming out with its own smart ring with a built-in microphone, and Mikah has some quarrels with the device. Mikah talks about the Model Context Protocol, or MCP: an approach companies like Google and OpenAI have adopted that would allow AI agents to access information online in a standardized manner easily, and now Anthropic has donated the protocol to the Linux Foundation. And Derek Kravitz of Consumer Reports joins the show to talk about its investigation into Instacart utilizing artificial intelligence that would offer different prices of the same product to consumers. Hosts: Mikah Sargent and Amanda Silberling Guest: Derek Kravitz Download or subscribe to Tech News Weekly at https://twit.tv/shows/tech-news-weekly. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free audio and video feeds, a members-only Discord, and exclusive content. Join today: https://twit.tv/clubtwit Sponsors: ventionteams.com/twit threatlocker.com/twit pantheon.io cachefly.com/twit

✨Poki - Podcast over Kunstmatige Intelligentie AI
Zeskoppige start-up kraakt 'onmogelijke' AI-test + Sam Altman haalt GPT-5.2 naar voren + MCP gaat naar non-profit

✨Poki - Podcast over Kunstmatige Intelligentie AI

Play Episode Listen Later Dec 10, 2025 73:04


Interesse in een partnerschap met AI Report? Laat hier je gegevens achter: https://tally.so/r/wA6aZD Een zeskoppig bedrijf genaamd Poetiq breekt als eerste door de 50% grens op de ARC AGI 2 Challenge - de ultieme test voor kunstmatige intelligentie. Het bijzondere: ze bouwden geen eigen model, maar maakten slim software om Google's Gemini heen. Een soort superheldenpak dat elk model sterker maakt. De implicatie: vooruitgang komt niet alleen van miljarden aan trainingskosten, maar ook van slimme trucs tijdens het gebruik.Ondertussen speelt OpenAI paniekvoetbal. GPT 5.2 komt waarschijnlijk deze week, maar Wietse is kritisch. Het voelt als pleisters plakken, niet als fundamenteel opruimen. En ook hartverwarmend nieuws: Anthropic, OpenAI en Block doneren MCP aan een non-profit onder de Linux Foundation. De grote techbedrijven parkeren een belangrijke standaard in een stichting waar niemand de controle krijgt. En toen testte Alexander een research-chatbot van Anthropic die een week online stond. Geen vraag-en-antwoord, maar een echt gesprek - alsof je op een congres iemand uit je vakgebied ontmoet. Het ding gaf zelfs inhoudelijke feedback terug. Dit is hoe marktonderzoek gaat werken: niet meer praten met een robotachtig mens, maar met een mensachtige robot.Als je een lezing wil over AI van Wietse of Alexander dan kan dat. Mail ons op lezing@aireport.emailVandaag nog beginnen met AI binnen jouw bedrijf? Ga dan naar deptagency.com/aireport This is a public episode. If you'd like to discuss this with other subscribers or get access to bonus episodes, visit www.aireport.email/subscribe

Chinchilla Squeaks
Open source in Energy with Jonas van den Bogaard of Alliander

Chinchilla Squeaks

Play Episode Listen Later Nov 27, 2025 28:58


I speak with with Jonas van den Bogaard of Alliander about the Linux Foundation's energy community that fosters open source energy generation and distributionWant the power of Mermaid for enterprises?Mermaid chart brings WYSIWYG editing, generative AI, collaboration, and more to the flexible syntax of Mermaid.https://go.chrischinchilla.com/mermaid For show notes and an interactive transcript, visit chrischinchilla.com/podcast/To reach out and say hello, visit chrischinchilla.com/contact/To support the show for ad-free listening and extra content, visit chrischinchilla.com/support/ Hosted by Simplecast, an AdsWizz company. See pcm.adswizz.com for information about our collection and use of personal data for advertising.

Roaring Elephant
Episode 479 – Ten Year retrospective: Open Source and the Linux Foundation

Roaring Elephant

Play Episode Listen Later Nov 11, 2025 69:30


As we are getting closer to our 10 Year anniversary milestone, we will be looking back at our 10 year history on various topics, Right up to our actual birthday episode on November 18th. In this final retrospective, We're joined by our regular guest, John Mertic, to discuss everything around Open Source and The Linux Foundation. Please use the Contact Form on this blog or our twitter feed to send us your questions, or to suggest future episode topics you would like us to cover.

The Agile Embedded Podcast
Zephyr with Luka Mustafa

The Agile Embedded Podcast

Play Episode Listen Later Nov 9, 2025 45:40


In this comprehensive episode, Luka Mustafa, founder and CEO of Irnas Product Development, provides an in-depth exploration of Zephyr RTOS and its transformative impact on embedded development. We dive deep into how Zephyr's Linux Foundation-backed ecosystem enables hardware-agnostic development, dramatically reducing the time spent on foundational code versus business-value features. Luka shares practical insights from five years of specializing in Zephyr development, demonstrating how projects can achieve remarkable portability - including running the same Bluetooth code on different chip architectures in just an hour, and even executing embedded applications natively on Linux for development purposes.The discussion covers Zephyr's comprehensive testing framework (Twister), CI/CD integration capabilities, and the cultural shift required when moving from traditional bare-metal development to this modern RTOS approach. We explore real-world applications from low-power IoT devices consuming just 5 microamps to complex multi-core systems, while addressing the learning curve challenges and when Zephyr might not be the right choice. This episode is essential listening for embedded teams considering modernizing their development practices and leveraging community-driven software ecosystems.Key Topics[03:15] Zephyr RTOS fundamentals and Linux Foundation ecosystem benefits[08:30] Hardware abstraction and device tree implementation for portable embedded code[12:45] Nordic Semiconductor strategic partnership and silicon vendor support landscape[18:20] Native POSIX development capabilities and cross-platform debugging strategies[25:10] Learning curve challenges: EE vs CS background adaptation to Zephyr development[32:40] Resource requirements and low-power implementation on constrained microcontrollers[38:15] Multi-vendor chip support: STMicroelectronics, NXP, and industry adoption trends[42:30] Safety-critical applications and ongoing certification processes[45:50] Organizational transformation strategies and cultural adaptation challenges[52:20] Zbus inter-process communication and modular development architecture[58:45] Twister testing framework and comprehensive CI/CD pipeline integration[65:30] Sample-driven development methodology and long-lived characterization tests[72:15] Production testing automation and shell interface utilization[78:40] Model-based development integration and requirements traceability[82:10] When not to use Zephyr: Arduino simplicity vs RTOS complexity trade-offsNotable Quotes"With Zephyr, porting a Bluetooth project from one chip architecture to another took an hour for an intern, compared to what would traditionally be months of effort." — Luka Mustafa"How many times have you written a logging subsystem? If the answer is more than zero, then it shouldn't be the case. Someone needs to write it once, and every three years someone needs to rewrite it with a better idea." — Luka Mustafa"The real benefit comes from doing things the Zephyr way in Zephyr, because then you are adopting all of the best practices of developing the code, using all of the subsystems to the maximum extent." — Luka Mustafa"You want to make sure your team is spending time on things that make money for you, not on writing logging, for example." — Luka MustafaZephyr Project - Linux Foundation-backed RTOS project providing comprehensive embedded development ecosystemTwister Testing Framework - Zephyr's built-in testing framework for unit tests, hardware-in-the-loop, and CI/CD integrationZbus Inter-Process Communication - Advanced event bus system for modular embedded development and component decouplingiirnas - Open-source examples of Zephyr best practices and CI/CD pipeline implementationsCarles Cufi's Talk - Detailed presentation on Nordic's strategic decision to support Zephyr RTOS You can find Jeff at https://jeffgable.com.You can find Luca at https://luca.engineer.Want to join the agile Embedded Slack? Click hereAre you looking for embedded-focused trainings? Head to https://agileembedded.academy/Ryan Torvik and Luca have started the Embedded AI podcast, check it out at https://embeddedaipodcast.com/

CryptoNews Podcast
#487: Jeff Garzik, CEO of Bloq and Hemi Network, on The Convergence of Bitcoin and Ethereum, Bitcoin DeFi, Multi-chain Liquidity

CryptoNews Podcast

Play Episode Listen Later Oct 30, 2025 31:31


Jeff Garzik, CEO of Bloq and Hemi Network, is one of the earliest contributors and most respected developers in the Bitcoin industry, as a Bitcoin core developer. He has worked for various companies,  and played critical roles in open-source projects for some of the most well-known platforms in the cryptocurrency ecosystem such as BitPay, mining tech firm Bitfury, and the Linux Foundation.Jeff Garzik worked alongside Satoshi Nakamoto, for years through private emails and online forums until the Bitcoin creator went dark in 2011. Garzik has famously stated that he believed he was dealing with Dave Kleiman.Recently, Jeff started his own blockchain-as-a-service firm, Bloq, which will serve enterprise clients who wish to develop stems on a private, public or confederated blockchain.In this conversation, we discuss:- Jack Dorsey is not Satoshi - Latest on BTC price, trends & outlook  - The post-ATH BTC market signal - Institutional capital flow into Bitcoin DeFi - The Bitcoin programmability imperative - Why institutions are moving into BTC - DeFi ecosystem shift - The convergence of Bitcoin and Ethereum ecosystems - Multi-chain liquidity - Stablecoins and Digital Assets Treasury trends Hemi NetworkX: @hemi_xyzWebsite: hemi.xyzLinkedIn: Hemi LabsJeff GarzikX: @jgarzikLinkedIn: Jeff Garzik---------------------------------------------------------------------------------This episode is brought to you by PrimeXBT.PrimeXBT offers a robust trading system for both beginners and professional traders that demand highly reliable market data and performance. Traders of all experience levels can easily design and customize layouts and widgets to best fit their trading style. PrimeXBT is always offering innovative products and professional trading conditions to all customers.  PrimeXBT is running an exclusive promotion for listeners of the podcast. After making your first deposit, 50% of that first deposit will be credited to your account as a bonus that can be used as additional collateral to open positions. Code: CRYPTONEWS50 This promotion is available for a month after activation. Click the link below: PrimeXBT x CRYPTONEWS50FollowApple PodcastsSpotifyAmazon MusicRSS FeedSee All

The Brave Marketer
Inside the Linux Foundation's Open Source Movement

The Brave Marketer

Play Episode Listen Later Oct 15, 2025 24:34


Daniela Barbosa, General Manager of Decentralized Technologies at the Linux Foundation, and Executive Director at LF Decentralized Trust, discusses the most promising open-source projects they've supported so far, and how more builders can get involved. She also emphasizes the importance of community contributions and cross-sector partnerships to accelerate the adoption and impact of decentralized technologies. Key Takeaways:  How LF Decentralized Trust fits within the Linux Foundation and why it matters Why open source collaboration is key to interoperable, secure trust frameworks Common misconceptions about open-source blockchain The role of open governance in driving enterprise and government adoption How open-source communities are shaping next-gen secure, privacy-first technologies Guest Bio: Daniela Barbosa serves as General Manager of Decentralized Technologies at the Linux Foundation, and Executive Director of LF Decentralized Trust. She has 20+ years of enterprise technology experience, including seven years driving the global, collaborative development of enterprise-grade blockchain and identity technologies at Hyperledger Foundation. She is a leading voice for the power of openly developed decentralized technologies to spur efficiency, privacy, and inclusivity. ---------------------------------------------------------------------------------------- About this Show: The Brave Technologist is here to shed light on the opportunities and challenges of emerging tech. To make it digestible, less scary, and more approachable for all! Join us as we embark on a mission to demystify artificial intelligence, challenge the status quo, and empower everyday people to embrace the digital revolution. Whether you're a tech enthusiast, a curious mind, or an industry professional, this podcast invites you to join the conversation and explore the future of AI together. The Brave Technologist Podcast is hosted by Luke Mulks, VP Business Operations at Brave Software—makers of the privacy-respecting Brave browser and Search engine, and now powering AI everywhere with the Brave Search API. Music by: Ari Dvorin Produced by: Sam Laliberte  

All TWiT.tv Shows (MP3)
Untitled Linux Show 223: Doing What Windows Never Could

All TWiT.tv Shows (MP3)

Play Episode Listen Later Oct 6, 2025 117:31


Torvalds is ranting about Rust, Google slightly walks back their developer verification plans, and Alpine Linux is moving to a user-merged filesystem. Bcachefs releases DKMS packages, Red Hat has an NDA with Nvidia, and Curl gets a genuinely awesome AI-powered bug report. For tips we cover the Raspberry Pi imager built right into Pi firmware, Immich for storing and organizing photos, and a WirePlumber logging how-to. You can find the show notes at https://bit.ly/3IuVnNV and enjoy! Host: Jonathan Bennett Co-Hosts: Ken McDonald and Jeff Massie Download or subscribe to Untitled Linux Show at https://twit.tv/shows/untitled-linux-show Want access to the ad-free video and exclusive features? Become a member of Club TWiT today! https://twit.tv/clubtwit Club TWiT members can discuss this episode and leave feedback in the Club TWiT Discord.

All TWiT.tv Shows (Video LO)
Untitled Linux Show 223: Doing What Windows Never Could

All TWiT.tv Shows (Video LO)

Play Episode Listen Later Oct 6, 2025 117:31


Torvalds is ranting about Rust, Google slightly walks back their developer verification plans, and Alpine Linux is moving to a user-merged filesystem. Bcachefs releases DKMS packages, Red Hat has an NDA with Nvidia, and Curl gets a genuinely awesome AI-powered bug report. For tips we cover the Raspberry Pi imager built right into Pi firmware, Immich for storing and organizing photos, and a WirePlumber logging how-to. You can find the show notes at https://bit.ly/3IuVnNV and enjoy! Host: Jonathan Bennett Co-Hosts: Ken McDonald and Jeff Massie Download or subscribe to Untitled Linux Show at https://twit.tv/shows/untitled-linux-show Want access to the ad-free video and exclusive features? Become a member of Club TWiT today! https://twit.tv/clubtwit Club TWiT members can discuss this episode and leave feedback in the Club TWiT Discord.

The New Stack Podcast
How Agentgateway Solves Agentic AI's Connectivity Challenges

The New Stack Podcast

Play Episode Listen Later Oct 3, 2025 20:35


The agentic AI space faces challenges around secure, governed connectivity between agents, tools, large language models, and microservices. To address this, Solo.io developed two open-source projects: Kagent and Agentgateway. While Kagent, donated to the Cloud Native Computing Foundation, helps scale AI agents, it lacks a secure way to mediate communication between agents and tools. Enter Agentgateway, donated to the Linux Foundation, which provides governance, observability, and security for agent-to-agent and agent-to-tool traffic. Written in Rust, it supports protocols like MCP and A2A and integrates with Kubernetes Gateway API and inference gateways.Lin Sun, Solo.io's head of open source, explained that Agentgateway allows developers to control which tools agents can access—offering flexibility to expose only tested or approved tools. This enables fine-grained policy enforcement and resilience in agent communication, similar to how service meshes manage microservice traffic. Agentgateway ensures secure and selective tool exposure, supporting scalable and secure agent ecosystems. Major players like AWS and Microsoft are also engaging in its development.Learn more from The New Stack about the latest in open source projects like Agentgateway: Learn more from The New Stack about the latest in open source projects like Agentgateway: Why Tech Giants Are Backing the New Agentgateway Project AI Agents Are Creating a New Security Nightmare for Enterprises and Startups Five Steps to Build AI Agents that Actually Deliver Business Results Join our community of newsletter subscribers to stay on top of the news and at the top of your game.  Hosted by Simplecast, an AdsWizz company. See pcm.adswizz.com for information about our collection and use of personal data for advertising.

Developer Voices
Getting New Technology Adopted (with Dov Katz)

Developer Voices

Play Episode Listen Later Sep 24, 2025 65:15


Getting new technology adopted in a large organization can feel like pushing water uphill. The best tools in the world are useless if we're not allowed to use them, and as companies grow, their habits turn into inertia, then into "the way we've always done things." So how do you break through that resistance and get meaningful change to happen?This week's guest is Dov Katz from Morgan Stanley, who specializes in exactly this challenge - driving developer productivity and getting new practices adopted across thousands of developers. We explore the art of organizational change from every angle: How do you get management buy-in? How do you build grassroots developer enthusiasm? When should you use deterministic tools like OpenRewrite versus AI-powered solutions? And what role does open source play in breaking down the walls between competing financial institutions?Whether you're trying to modernize a legacy codebase, reduce technical debt, or just get your team to try that promising new tool you've discovered, this conversation offers practical strategies for navigating the complex dynamics of enterprise software development. Because sometimes the hardest part of our job isn't writing code - it's getting permission to write better code.---Support Developer Voices on Patreon: https://patreon.com/DeveloperVoicesSupport Developer Voices on YouTube: https://www.youtube.com/@DeveloperVoices/joinMorgan Stanley: https://www.morganstanley.com/OpenRewrite: https://docs.openrewrite.org/Spring Framework: https://spring.io/Spring Integration: https://spring.io/projects/spring-integrationApache Camel: https://camel.apache.org/FINOS (FinTech Open Source Foundation): https://www.finos.org/Linux Foundation: https://www.linuxfoundation.org/Moderne (Code Remix conference organizers): https://www.moderne.io/Code Remix Conference: https://www.moderne.io/eventsKris on Bluesky: https://bsky.app/profile/krisajenkins.bsky.socialKris on Mastodon: http://mastodon.social/@krisajenkinsKris on LinkedIn: https://www.linkedin.com/in/krisjenkins/

Revenue Engine Podcast
How Community-Led Marketing Drives Sustainable B2B SaaS Growth With Derek Weeks

Revenue Engine Podcast

Play Episode Listen Later Sep 19, 2025 47:01


Derek Weeks is the Chief Marketing Officer at Katalon, a company that provides an AI-augmented software quality management platform for automating testing and improving software development workflows. He brings over 30 years of marketing experience, including leadership roles at Sonatype and the Linux Foundation. Derek co-founded All Day DevOps and has pioneered efforts in open-source software supply chain security. He is also the author of Unfair Mindshare: A CMO's Guide to Community-Led Marketing in a Product-Led World.  In this episode… Building a loyal audience is harder than ever in the crowded B2B SaaS landscape. Traditional marketing tactics can struggle to break through, and customer acquisition costs continue to rise. How can companies create authentic connections that lead to long-term growth? According to Derek Weeks, a seasoned marketing leader and pioneer in community-led strategies, the answer is to put audience needs first and consistently provide value before selling anything. He highlights that trust is earned by creating spaces where people can learn, share, and engage without feeling pitched. By leveraging user-generated content and empowering practitioners to create authentic conversations, he has seen communities grow to hundreds of thousands of members. In this episode of the Revenue Engine Podcast, host Alex Gluz sits down with Derek Weeks, Chief Marketing Officer at Katalon, to discuss how community-led marketing drives sustainable B2B SaaS growth. They explore strategies to scale a product community from 60,000 to 117,000 members, why user-generated content lowers acquisition costs, and how to adapt content for the age of LLM search. Derek also shares lessons from building the All Day DevOps community and keeping audiences engaged over time.

Les Cast Codeurs Podcast
LCC 330 - Nano banana l'AI de Julia

Les Cast Codeurs Podcast

Play Episode Listen Later Sep 15, 2025 108:38


Katia, Emmanuel et Guillaume discutent Java, Kotlin, Quarkus, Hibernate, Spring Boot 4, intelligence artificielle (modèles Nano Banana, VO3, frameworks agentiques, embedding). On discute les vulnerabilités OWASP pour les LLMs, les personalités de codage des différents modèles, Podman vs Docker, comment moderniser des projets legacy. Mais surtout on a passé du temps sur les présentations de Luc Julia et les différents contre points qui ont fait le buzz sur les réseaux. Enregistré le 12 septembre 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-330.mp3 ou en vidéo sur YouTube. News Langages Dans cette vidéo, José détaille les nouveautés de Java entre Java 21 et 25 https://inside.java/2025/08/31/roadto25-java-language/ Aperçu des nouveautés du JDK 25 : Introduction des nouvelles fonctionnalités du langage Java et des changements à venir [00:02]. Programmation orientée données et Pattern Matching [00:43] : Évolution du “pattern matching” pour la déconstruction des “records” [01:22]. Utilisation des “sealed types” dans les expressions switch pour améliorer la lisibilité et la robustesse du code [01:47]. Introduction des “unnamed patterns” (_) pour indiquer qu'une variable n'est pas utilisée [04:47]. Support des types primitifs dans instanceof et switch (en preview) [14:02]. Conception d'applications Java [00:52] : Simplification de la méthode main [21:31]. Exécution directe des fichiers .java sans compilation explicite [22:46]. Amélioration des mécanismes d'importation [23:41]. Utilisation de la syntaxe Markdown dans la Javadoc [27:46]. Immuabilité et valeurs nulles [01:08] : Problème d'observation de champs final à null pendant la construction d'un objet [28:44]. JEP 513 pour contrôler l'appel à super() et restreindre l'usage de this dans les constructeurs [33:29]. JDK 25 sort le 16 septembre https://openjdk.org/projects/jdk/25/ Scoped Values (JEP 505) - alternative plus efficace aux ThreadLocal pour partager des données immutables entre threads Structured Concurrency (JEP 506) - traiter des groupes de tâches concurrentes comme une seule unité de travail, simplifiant la gestion des threads Compact Object Headers (JEP 519) - Fonctionnalité finale qui réduit de 50% la taille des en-têtes d'objets (de 128 à 64 bits), économisant jusqu'à 22% de mémoire heap Flexible Constructor Bodies (JEP 513) - Relaxation des restrictions sur les constructeurs, permettant du code avant l'appel super() ou this() Module Import Declarations (JEP 511) - Import simplifié permettant d'importer tous les éléments publics d'un module en une seule déclaration Compact Source Files (JEP 512) - Simplification des programmes Java basiques avec des méthodes main d'instance sans classe wrapper obligatoire Primitive Types in Patterns (JEP 455) - Troisième preview étendant le pattern matching et instanceof aux types primitifs dans switch et instanceof Generational Shenandoah (JEP 521) - Le garbage collector Shenandoah passe en mode générationnel pour de meilleures performances JFR Method Timing & Tracing (JEP 520) - Nouvel outillage de profilage pour mesurer le temps d'exécution et tracer les appels de méthodes Key Derivation API (JEP 510) - API finale pour les fonctions de dérivation de clés cryptographiques, remplaçant les implémentations tierces Améliorations du traitement des annotations dans Kotlin 2.2 https://blog.jetbrains.com/idea/2025/09/improved-annotation-handling-in-kotlin-2-2-less-boilerplate-fewer-surprises/ Avant Kotlin 2.2, les annotations sur les paramètres de constructeur n'étaient appliquées qu'au paramètre, pas à la propriété ou au champ Cela causait des bugs subtils avec Spring et JPA où la validation ne fonctionnait qu'à la création d'objet, pas lors des mises à jour La solution précédente nécessitait d'utiliser explicitement @field: pour chaque annotation, créant du code verbeux Kotlin 2.2 introduit un nouveau comportement par défaut qui applique les annotations aux paramètres ET aux propriétés/champs automatiquement Le code devient plus propre sans avoir besoin de syntaxe @field: répétitive Pour l'activer, ajouter -Xannotation-default-target=param-property dans les options du compilateur Gradle IntelliJ IDEA propose un quick-fix pour activer ce comportement à l'échelle du projet Cette amélioration rend l'intégration Kotlin plus fluide avec les frameworks majeurs comme Spring et JPA Le comportement peut être configuré pour garder l'ancien mode ou activer un mode transitoire avec avertissements Cette mise à jour fait partie d'une initiative plus large pour améliorer l'expérience Kotlin + Spring Librairies Sortie de Quarkus 3.26 avec mises à jour d'Hibernate et autres fonctionnalités - https://quarkus.io/blog/quarkus-3-26-released/ mettez à jour vers la 3.26.x car il y a eu une regression vert.x Jalon important vers la version LTS 3.27 prévue fin septembre, basée sur cette version Mise à jour vers Hibernate ORM 7.1, Hibernate Search 8.1 et Hibernate Reactive 3.1 Support des unités de persistance nommées et sources de données dans Hibernate Reactive Démarrage hors ligne et configuration de dialecte pour Hibernate ORM même si la base n'est pas accessible Refonte de la console HQL dans Dev UI avec fonctionnalité Hibernate Assistant intégrée Exposition des capacités Dev UI comme fonctions MCP pour pilotage via outils IA Rafraîchissement automatique des tokens OIDC en cas de réponse 401 des clients REST Extension JFR pour capturer les données runtime (nom app, version, extensions actives) Bump de Gradle vers la version 9.0 par défaut, suppression du support des classes config legacy Guide de démarrage avec Quarkus et A2A Java SDK 0.3.0 (pour faire discuter des agents IA avec la dernière version du protocole A2A) https://quarkus.io/blog/quarkus-a2a-java-0-3-0-alpha-release/ Sortie de l'A2A Java SDK 0.3.0.Alpha1, aligné avec la spécification A2A v0.3.0. Protocole A2A : standard ouvert (Linux Foundation), permet la communication inter-agents IA polyglottes. Version 0.3.0 plus stable, introduit le support gRPC. Mises à jour générales : changements significatifs, expérience utilisateur améliorée (côté client et serveur). Agents serveur A2A : Support gRPC ajouté (en plus de JSON-RPC). HTTP+JSON/REST à venir. Implémentations basées sur Quarkus (alternatives Jakarta existent). Dépendances spécifiques pour chaque transport (ex: a2a-java-sdk-reference-jsonrpc, a2a-java-sdk-reference-grpc). AgentCard : décrit les capacités de l'agent. Doit spécifier le point d'accès primaire et tous les transports supportés (additionalInterfaces). Clients A2A : Dépendance principale : a2a-java-sdk-client. Support gRPC ajouté (en plus de JSON-RPC). HTTP+JSON/REST à venir. Dépendance spécifique pour gRPC : a2a-java-sdk-client-transport-grpc. Création de client : via ClientBuilder. Sélectionne automatiquement le transport selon l'AgentCard et la configuration client. Permet de spécifier les transports supportés par le client (withTransport). Comment générer et éditer des images en Java avec Nano Banana, le “photoshop killer” de Google https://glaforge.dev/posts/2025/09/09/calling-nano-banana-from-java/ Objectif : Intégrer le modèle Nano Banana (Gemini 2.5 Flash Image preview) dans des applications Java. SDK utilisé : GenAI Java SDK de Google. Compatibilité : Supporté par ADK for Java ; pas encore par LangChain4j (limitation de multimodalité de sortie). Capacités de Nano Banana : Créer de nouvelles images. Modifier des images existantes. Assembler plusieurs images. Mise en œuvre Java : Quelle dépendance utiliser Comment s'authentifier Comment configurer le modèle Nature du modèle : Nano Banana est un modèle de chat qui peut retourner du texte et une image (pas simplement juste un modèle générateur d'image) Exemples d'utilisation : Création : Via un simple prompt textuel. Modification : En passant l'image existante (tableau de bytes) et les instructions de modification (prompt). Assemblage : En passant plusieurs images (en bytes) et les instructions d'intégration (prompt). Message clé : Toutes ces fonctionnalités sont accessibles en Java, sans nécessiter Python. Générer des vidéos IA avec le modèle Veo 3, mais en Java ! https://glaforge.dev/posts/2025/09/10/generating-videos-in-java-with-veo3/ Génération de vidéos en Java avec Veo 3 (via le GenAI Java SDK de Google). Veo 3: Annoncé comme GA, prix réduits, support du format 9:16, résolution jusqu'à 1080p. Création de vidéos : À partir d'une invite textuelle (prompt). À partir d'une image existante. Deux versions différentes du modèle : veo-3.0-generate-001 (qualité supérieure, plus coûteux, plus lent). veo-3.0-fast-generate-001 (qualité inférieure, moins coûteux, mais plus rapide). Rod Johnson sur ecrire des aplication agentic en Java plus facilement qu'en python avec Embabel https://medium.com/@springrod/you-can-build-better-ai-agents-in-java-than-python-868eaf008493 Rod the papa de Spring réécrit un exemple CrewAI (Python) qui génère un livre en utilisant Embabel (Java) pour démontrer la supériorité de Java L'application utilise plusieurs agents AI spécialisés : un chercheur, un planificateur de livre et des rédacteurs de chapitres Le processus suit trois étapes : recherche du sujet, création du plan, rédaction parallèle des chapitres puis assemblage CrewAI souffre de plusieurs problèmes : configuration lourde, manque de type safety, utilisation de clés magiques dans les prompts La version Embabel nécessite moins de code Java que l'original Python et moins de fichiers de configuration YAML Embabel apporte la type safety complète, éliminant les erreurs de frappe dans les prompts et améliorant l'outillage IDE La gestion de la concurrence est mieux contrôlée en Java pour éviter les limites de débit des APIs LLM L'intégration avec Spring permet une configuration externe simple des modèles LLM et hyperparamètres Le planificateur Embabel détermine automatiquement l'ordre d'exécution des actions basé sur leurs types requis L'argument principal : l'écosystème JVM offre un meilleur modèle de programmation et accès à la logique métier existante que Python Il y a pas mal de nouveaux framework agentic en Java, notamment le dernier LAngchain4j Agentic Spring lance un serie de blog posts sur les nouveautés de Spring Boot 4 https://spring.io/blog/2025/09/02/road_to_ga_introduction baseline JDK 17 mais rebase sur Jakarta 11 Kotlin 2, Jackson 3 et JUnit 6 Fonctionnalités de résilience principales de Spring : @ConcurrencyLimit, @Retryable, RetryTemplate Versioning d'API dans Spring Améliorations du client de service HTTP L'état des clients HTTP dans Spring Introduction du support Jackson 3 dans Spring Consommateur partagé - les queues Kafka dans Spring Kafka Modularisation de Spring Boot Autorisation progressive dans Spring Security Spring gRPC - un nouveau module Spring Boot Applications null-safe avec Spring Boot 4 OpenTelemetry avec Spring Boot Repos Ahead of Time (Partie 2) Web Faire de la recherche sémantique directement dans le navigateur en local, avec EmbeddingGemma et Transformers.js https://glaforge.dev/posts/2025/09/08/in-browser-semantic-search-with-embeddinggemma/ EmbeddingGemma: Nouveau modèle d'embedding (308M paramètres) de Google DeepMind. Objectif: Permettre la recherche sémantique directement dans le navigateur. Avantages clés de l'IA côté client: Confidentialité: Aucune donnée envoyée à un serveur. Coûts réduits: Pas besoin de serveurs coûteux (GPU), hébergement statique. Faible latence: Traitement instantané sans allers-retours réseau. Fonctionnement hors ligne: Possible après le chargement initial du modèle. Technologie principale: Modèle: EmbeddingGemma (petit, performant, multilingue, support MRL pour réduire la taille des vecteurs). Moteur d'inférence: Transformers.js de HuggingFace (exécute les modèles AI en JavaScript dans le navigateur). Déploiement: Site statique avec Vite/React/Tailwind CSS, déployé sur Firebase Hosting via GitHub Actions. Gestion du modèle: Fichiers du modèle trop lourds pour Git; téléchargés depuis HuggingFace Hub pendant le CI/CD. Fonctionnement de l'app: Charge le modèle, génère des embeddings pour requêtes/documents, calcule la similarité sémantique. Conclusion: Démonstration d'une recherche sémantique privée, économique et sans serveur, soulignant le potentiel de l'IA embarquée dans le navigateur. Data et Intelligence Artificielle Docker lance Cagent, une sorte de framework multi-agent IA utilisant des LLMs externes, des modèles de Docker Model Runner, avec le Docker MCP Tookit. Il propose un format YAML pour décrire les agents d'un système multi-agents. https://github.com/docker/cagent des agents “prompt driven” (pas de code) et une structure pour decrire comment ils sont deployés pas clair comment ils sont appelés a part dans la ligne de commande de cagent fait par david gageot L'owasp décrit l'independance excessive des LLM comme une vulnerabilité https://genai.owasp.org/llmrisk2023-24/llm08-excessive-agency/ L'agence excessive désigne la vulnérabilité qui permet aux systèmes LLM d'effectuer des actions dommageables via des sorties inattendues ou ambiguës. Elle résulte de trois causes principales : fonctionnalités excessives, permissions excessives ou autonomie excessive des agents LLM. Les fonctionnalités excessives incluent l'accès à des plugins qui offrent plus de capacités que nécessaire, comme un plugin de lecture qui peut aussi modifier ou supprimer. Les permissions excessives se manifestent quand un plugin accède aux systèmes avec des droits trop élevés, par exemple un accès en lecture qui inclut aussi l'écriture. L'autonomie excessive survient quand le système effectue des actions critiques sans validation humaine préalable. Un scénario d'attaque typique : un assistant personnel avec accès email peut être manipulé par injection de prompt pour envoyer du spam via la boîte de l'utilisateur. La prévention implique de limiter strictement les plugins aux fonctions minimales nécessaires pour l'opération prévue. Il faut éviter les fonctions ouvertes comme “exécuter une commande shell” au profit d'outils plus granulaires et spécifiques. L'application du principe de moindre privilège est cruciale : chaque plugin doit avoir uniquement les permissions minimales requises. Le contrôle humain dans la boucle reste essentiel pour valider les actions à fort impact avant leur exécution. Lancement du MCP registry, une sorte de méta-annuaire officiel pour référencer les serveurs MCP https://www.marktechpost.com/2025/09/09/mcp-team-launches-the-preview-version-of-the-mcp-registry-a-federated-discovery-layer-for-enterprise-ai/ MCP Registry : Couche de découverte fédérée pour l'IA d'entreprise. Fonctionne comme le DNS pour le contexte de l'IA, permettant la découverte de serveurs MCP publics ou privés. Modèle fédéré : Évite les risques de sécurité et de conformité d'un registre monolithique. Permet des sous-registres privés tout en conservant une source de vérité “upstream”. Avantages entreprises : Découverte interne sécurisée. Gouvernance centralisée des serveurs externes. Réduction de la prolifération des contextes. Support pour les agents IA hybrides (données privées/publiques). Projet open source, actuellement en version preview. Blog post officiel : https://blog.modelcontextprotocol.io/posts/2025-09-08-mcp-registry-preview/ Exploration des internals du transaction log SQL Server https://debezium.io/blog/2025/09/08/sqlserver-tx-log/ C'est un article pour les rugeux qui veulent savoir comment SQLServer marche à l'interieur Debezium utilise actuellement les change tables de SQL Server CDC en polling périodique L'article explore la possibilité de parser directement le transaction log pour améliorer les performances Le transaction log est divisé en Virtual Log Files (VLFs) utilisés de manière circulaire Chaque VLF contient des blocs (512B à 60KB) qui contiennent les records de transactions Chaque record a un Log Sequence Number (LSN) unique pour l'identifier précisément Les données sont stockées dans des pages de 8KB avec header de 96 bytes et offset array Les tables sont organisées en partitions et allocation units pour gérer l'espace disque L'utilitaire DBCC permet d'explorer la structure interne des pages et leur contenu Cette compréhension pose les bases pour parser programmatiquement le transaction log dans un prochain article Outillage Les personalités des codeurs des différents LLMs https://www.sonarsource.com/blog/the-coding-personalities-of-leading-llms-gpt-5-update/ GPT-5 minimal ne détrône pas Claude Sonnet 4 comme leader en performance fonctionnelle malgré ses 75% de réussite GPT-5 génère un code extrêmement verbeux avec 490 000 lignes contre 370 000 pour Claude Sonnet 4 sur les mêmes tâches La complexité cyclomatique et cognitive du code GPT-5 est dramatiquement plus élevée que tous les autres modèles GPT-5 introduit 3,90 problèmes par tâche réussie contre seulement 2,11 pour Claude Sonnet 4 Point fort de GPT-5 : sécurité exceptionnelle avec seulement 0,12 vulnérabilité par 1000 lignes de code Faiblesse majeure : densité très élevée de “code smells” (25,28 par 1000 lignes) nuisant à la maintenabilité GPT-5 produit 12% de problèmes liés à la complexité cognitive, le taux le plus élevé de tous les modèles Tendance aux erreurs logiques fondamentales avec 24% de bugs de type “Control-flow mistake” Réapparition de vulnérabilités classiques comme les failles d'injection et de traversée de chemin Nécessité d'une gouvernance renforcée avec analyse statique obligatoire pour gérer la complexité du code généré Pourquoi j'ai abandonné Docker pour Podman https://codesmash.dev/why-i-ditched-docker-for-podman-and-you-should-too Problème Docker : Le daemon dockerd persistant s'exécute avec des privilèges root, posant des risques de sécurité (nombreuses CVEs citées) et consommant des ressources inutilement. Solution Podman : Sans Daemon : Pas de processus d'arrière-plan persistant. Les conteneurs s'exécutent comme des processus enfants de la commande Podman, sous les privilèges de l'utilisateur. Sécurité Renforcée : Réduction de la surface d'attaque. Une évasion de conteneur compromet un utilisateur non privilégié sur l'hôte, pas le système entier. Mode rootless. Fiabilité Accrue : Pas de point de défaillance unique ; le crash d'un conteneur n'affecte pas les autres. Moins de Ressources : Pas de daemon constamment actif, donc moins de mémoire et de CPU. Fonctionnalités Clés de Podman : Intégration Systemd : Génération automatique de fichiers d'unité systemd pour gérer les conteneurs comme des services Linux standards. Alignement Kubernetes : Support natif des pods et capacité à générer des fichiers Kubernetes YAML directement (podman generate kube), facilitant le développement local pour K8s. Philosophie Unix : Se concentre sur l'exécution des conteneurs, délègue les tâches spécialisées à des outils dédiés (ex: Buildah pour la construction d'images, Skopeo pour leur gestion). Migration Facile : CLI compatible Docker : podman utilise les mêmes commandes que docker (alias docker=podman fonctionne). Les Dockerfiles existants sont directement utilisables. Améliorations incluses : Sécurité par défaut (ports privilégiés en mode rootless), meilleure gestion des permissions de volume, API Docker compatible optionnelle. Option de convertir Docker Compose en Kubernetes YAML. Bénéfices en Production : Sécurité améliorée, utilisation plus propre des ressources. Podman représente une évolution plus sécurisée et mieux alignée avec les pratiques modernes de gestion Linux et de déploiement de conteneurs. Guide Pratique (Exemple FastAPI) : Le Dockerfile ne change pas. podman build et podman run remplacent directement les commandes Docker. Déploiement en production via Systemd. Gestion d'applications multi-services avec les “pods” Podman. Compatibilité Docker Compose via podman-compose ou kompose. Détection améliorée des APIs vulnérables dans les IDEs JetBrains et Qodana - https://blog.jetbrains.com/idea/2025/09/enhanced-vulnerable-api-detection-in-jetbrains-ides-and-qodana/ JetBrains s'associe avec Mend.io pour renforcer la sécurité du code dans leurs outils Le plugin Package Checker bénéficie de nouvelles données enrichies sur les APIs vulnérables Analyse des graphes d'appels pour couvrir plus de méthodes publiques des bibliothèques open-source Support de Java, Kotlin, C#, JavaScript, TypeScript et Python pour la détection de vulnérabilités Activation des inspections via Paramètres > Editor > Inspections en recherchant “Vulnerable API” Surlignage automatique des méthodes vulnérables avec détails des failles au survol Action contextuelle pour naviguer directement vers la déclaration de dépendance problématique Mise à jour automatique vers une version non affectée via Alt+Enter sur la dépendance Fenêtre dédiée “Vulnerable Dependencies” pour voir l'état global des vulnérabilités du projet Méthodologies Le retour de du sondage de Stack Overflow sur l'usage de l'IA dans le code https://medium.com/@amareshadak/stack-overflow-just-exposed-the-ugly-truth-about-ai-coding-tools-b4f7b5992191 84% des développeurs utilisent l'IA quotidiennement, mais 46% ne font pas confiance aux résultats. Seulement 3,1% font “hautement confiance” au code généré. 66% sont frustrés par les solutions IA “presque correctes”. 45% disent que déboguer le code IA prend plus de temps que l'écrire soi-même. Les développeurs seniors (10+ ans) font moins confiance à l'IA (2,6%) que les débutants (6,1%), créant un écart de connaissances dangereux. Les pays occidentaux montrent moins de confiance - Allemagne (22%), UK (23%), USA (28%) - que l'Inde (56%). Les créateurs d'outils IA leur font moins confiance. 77% des développeurs professionnels rejettent la programmation en langage naturel, seuls 12% l'utilisent réellement. Quand l'IA échoue, 75% se tournent vers les humains. 35% des visites Stack Overflow concernent maintenant des problèmes liés à l'IA. 69% rapportent des gains de productivité personnels, mais seulement 17% voient une amélioration de la collaboration d'équipe. Coûts cachés : temps de vérification, explication du code IA aux équipes, refactorisation et charge cognitive constante. Les plateformes humaines dominent encore : Stack Overflow (84%), GitHub (67%), YouTube (61%) pour résoudre les problèmes IA. L'avenir suggère un “développement augmenté” où l'IA devient un outil parmi d'autres, nécessitant transparence et gestion de l'incertitude. Mentorat open source et défis communautaires par les gens de Microcks https://microcks.io/blog/beyond-code-open-source-mentorship/ Microcks souffre du syndrome des “utilisateurs silencieux” qui bénéficient du projet sans contribuer Malgré des milliers de téléchargements et une adoption croissante, l'engagement communautaire reste faible Ce manque d'interaction crée des défis de durabilité et limite l'innovation du projet Les mainteneurs développent dans le vide sans feedback des vrais utilisateurs Contribuer ne nécessite pas de coder : documentation, partage d'expérience, signalement de bugs suffisent Parler du project qu'on aime autour de soi est aussi super utile Microcks a aussi des questions specifiques qu'ils ont posé dans le blog, donc si vous l'utilisez, aller voir Le succès de l'open source dépend de la transformation des utilisateurs en véritables partenaires communautaires c'est un point assez commun je trouve, le ratio parlant / silencieux est tres petit et cela encourage les quelques grandes gueules La modernisation du systemes legacy, c'est pas que de la tech https://blog.scottlogic.com/2025/08/27/holistic-approach-successful-legacy-modernisation.html Un artcile qui prend du recul sur la modernisation de systemes legacy Les projets de modernisation legacy nécessitent une vision holistique au-delà du simple focus technologique Les drivers business diffèrent des projets greenfield : réduction des coûts et mitigation des risques plutôt que génération de revenus L'état actuel est plus complexe à cartographier avec de nombreuses dépendances et risques de rupture Collaboration essentielle entre Architectes, Analystes Business et Designers UX dès la phase de découverte Approche tridimensionnelle obligatoire : Personnes, Processus et Technologie (comme un jeu d'échecs 3D) Le leadership doit créer l'espace nécessaire pour la découverte et la planification plutôt que presser l'équipe Communication en termes business plutôt que techniques vers tous les niveaux de l'organisation Planification préalable essentielle contrairement aux idées reçues sur l'agilité Séquencement optimal souvent non-évident et nécessitant une analyse approfondie des interdépendances Phases projet alignées sur les résultats business permettent l'agilité au sein de chaque phase Sécurité Cyber Attaque su Musée Histoire Naturelle https://www.franceinfo.fr/internet/securite-sur-internet/cyberattaques/le-museum-nati[…]e-d-une-cyberattaque-severe-une-plainte-deposee_7430356.html Compromission massive de packages npm populaires par un malware crypto https://www.aikido.dev/blog/npm-debug-and-chalk-packages-compromised 18 packages npm très populaires compromis le 8 septembre 2025, incluant chalk, debug, ansi-styles avec plus de 2 milliards de téléchargements hebdomadaires combinés duckdb s'est rajouté à la liste Code malveillant injecté qui intercepte silencieusement l'activité crypto et web3 dans les navigateurs des utilisateurs Le malware manipule les interactions de wallet et redirige les paiements vers des comptes contrôlés par l'attaquant sans signes évidents Injection dans les fonctions critiques comme fetch, XMLHttpRequest et APIs de wallets (window.ethereum, Solana) pour intercepter le trafic Détection et remplacement automatique des adresses crypto sur multiple blockchains (Ethereum, Bitcoin, Solana, Tron, Litecoin, Bitcoin Cash) Les transactions sont modifiées en arrière-plan même si l'interface utilisateur semble correcte et légitime Utilise des adresses “sosies” via correspondance de chaînes pour rendre les échanges moins évidents à détecter Le mainteneur compromis par email de phishing provenant du faux domaine “mailto:support@npmjs.help|support@npmjs.help” enregistré 3 jours avant l'attaque sur une demande de mise a jour de son autheotnfication a deux facteurs après un an Aikido a alerté le mainteneur via Bluesky qui a confirmé la compromission et commencé le nettoyage des packages Attaque sophistiquée opérant à plusieurs niveaux: contenu web, appels API et manipulation des signatures de transactions Les anti-cheats de jeux vidéo : une faille de sécurité majeure ? - https://tferdinand.net/jeux-video-et-si-votre-anti-cheat-etait-la-plus-grosse-faille/ Les anti-cheats modernes s'installent au Ring 0 (noyau système) avec privilèges maximaux Ils obtiennent le même niveau d'accès que les antivirus professionnels mais sans audit ni certification Certains exploitent Secure Boot pour se charger avant le système d'exploitation Risque de supply chain : le groupe APT41 a déjà compromis des jeux comme League of Legends Un attaquant infiltré pourrait désactiver les solutions de sécurité et rester invisible Menace de stabilité : une erreur peut empêcher le démarrage du système (référence CrowdStrike) Conflits possibles entre différents anti-cheats qui se bloquent mutuellement Surveillance en temps réel des données d'utilisation sous prétexte anti-triche Dérive dangereuse selon l'auteur : des entreprises de jeux accèdent au niveau EDR Alternatives limitées : cloud gaming ou sandboxing avec impact sur performances donc faites gaffe aux jeux que vos gamins installent ! Loi, société et organisation Luc Julia au Sénat - Monsieur Phi réagi et publie la vidéo Luc Julia au Sénat : autopsie d'un grand N'IMPORTE QUOI https://www.youtube.com/watch?v=e5kDHL-nnh4 En format podcast de 20 minutes, sorti au même moment et à propos de sa conf à Devoxx https://www.youtube.com/watch?v=Q0gvaIZz1dM Le lab IA - Jérôme Fortias - Et si Luc Julia avait raison https://www.youtube.com/watch?v=KScI5PkCIaE Luc Julia au Senat https://www.youtube.com/watch?v=UjBZaKcTeIY Luc Julia se défend https://www.youtube.com/watch?v=DZmxa7jJ8sI Intelligence artificielle : catastrophe imminente ? - Luc Julia vs Maxime Fournes https://www.youtube.com/watch?v=sCNqGt7yIjo Tech and Co Monsieur Phi vs Luc Julia (put a click) https://www.youtube.com/watch?v=xKeFsOceT44 La tronche en biais https://www.youtube.com/live/zFwLAOgY0Wc Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online 22-24 septembre 2025 : Kernel Recipes - Paris (France) 22-27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23-24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25-26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025-1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6-7 octobre 2025 : Swift Connection 2025 - Paris (France) 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7-8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8-10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9-10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16-17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17-19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 5-6 novembre 2025 : Tech Show Paris - Paris (France) 5-6 novembre 2025 : Red Hat Summit: Connect Paris 2025 - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19-21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9-11 décembre 2025 : APIdays Paris - Paris (France) 9-11 décembre 2025 : Green IO Paris - Paris (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) 4 septembre 2026 : JUG SUmmer Camp 2026 - La Rochelle (France) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

Developer Voices
From Unit Tests to Whole Universe Tests (with Will Wilson)

Developer Voices

Play Episode Listen Later Sep 10, 2025 72:12


How confident are you when your test suite goes green? If you're honest, probably not 100% confident - because most bugs come from scenarios we never thought to test. Traditional testing only catches the problems we anticipate, but the 3am pager alerts? Those come from the unexpected interactions, timing issues, and edge cases we never imagined.In this episode, Will Wilson from Antithesis takes us deep into the world of autonomous testing. They've built a deterministic hypervisor that can simulate entire distributed systems - complete with fake AWS services - and intelligently explore millions of possible states to find bugs before production. Think property-based testing, but for your entire infrastructure stack. The approach is so thorough they've even used it to find glitches in Super Mario Brothers (seriously).We explore how deterministic simulation works at the hypervisor level, why traditional integration tests are fundamentally limited, and how you can write maintainable tests that actually find the bugs that matter. If you've ever wished you could test "what happens when everything that can go wrong does go wrong," this conversation shows you how that's finally becoming possible.---Support Developer Voices on Patreon: https://patreon.com/DeveloperVoicesSupport Developer Voices on YouTube: https://www.youtube.com/@DeveloperVoices/joinAntithesis: https://antithesis.com/Antithesis testing with Super Mario: https://antithesis.com/blog/sdtalk/...and with Metroid: https://antithesis.com/blog/2025/metroid/MongoDB: https://www.mongodb.com/etcd (Linux Foundation): https://etcd.io/Facebook Hermit: https://github.com/facebookexperimental/hermitRR (Record-Replay Debugger): https://rr-project.org/T-SAN (Thread Sanitizer): https://clang.llvm.org/docs/ThreadSanitizer.htmlToby Bell's Strange Loop Talk on JPL Testing: https://www.youtube.com/results?search_query=toby+bell+strange+loop+jplAndy Weir - Project Hail Mary: https://www.goodreads.com/book/show/54493401-project-hail-maryAndy Weir - The Martian: https://www.goodreads.com/book/show/18007564-the-martianAntithesis Blog (Nintendo Games Testing): https://antithesis.com/blog/Kris on Bluesky: https://bsky.app/profile/krisajenkins.bsky.socialKris on Mastodon: http://mastodon.social/@krisajenkinsKris on LinkedIn: https://www.linkedin.com/in/krisjenkins/

The New Stack Podcast
The Linux Foundation In The Age Of AI

The New Stack Podcast

Play Episode Listen Later Sep 2, 2025 29:04


In a recent episode of The New Stack Agents from the Open Source Summit in Amsterdam, Jim Zemlin, executive director of the Linux Foundation, discussed the evolving landscape of open source AI. While the Linux Foundation has helped build ecosystems like the CNCF for cloud-native computing, there's no unified umbrella foundation yet for open source AI. Existing efforts include the PyTorch Foundation and LF AI & Data, but AI development is still fragmented across models, tooling, and standards. Zemlin highlighted the industry's shift from foundational models to open-weight models and now toward inference stacks and agentic AI. He suggested a collective effort may eventually form but cautioned against forcing structure too early, stressing the importance of not hindering innovation. Foundations, he said, must balance scale with agility. On the debate over what qualifies as "open source" in AI, Zemlin adopted a pragmatic view, acknowledging the costs of creating frontier models. He supports open-weight models and believes fully open models, from data to deployment, may emerge over time. Learn more from The New Stack about the latest in AI and open source, AI in China, Europe's AI and security regulations, and more: Open Source Is Not Local Source, and the Case for Global Cooperation US Blocks Open Source ‘Help' From These Countries Open Source Is Worth Defending Join our community of newsletter subscribers to stay on top of the news and at the top of your game./

I am a Mainframer
Mainframe Coven: The Historian Mainframer that Made History: Interview with Pam Taylor

I am a Mainframer

Play Episode Listen Later Aug 28, 2025 36:00


In this episode of Mainframe Coven, Jessielaine Punongbayan (Product Manager, Dynatrace) and Richelle Anne Craw (Software Engineer, Beta Systems Software) chat with Former SHARE President Pam Taylor, a historian turned mainframer who ended up making history herself. Pam shares her journey into enterprise tech, her advocacy for standards and user-focused solutions, and how she blends technical expertise with creative storytelling.Mainframe Coven is a 10-part mini-series honoring the past, present, and future women of IT. It's about real stories from the essential yet unseen minds behind the machines.The podcast is sponsored by the Open Mainframe Project, a Linux Foundation project that aims to build community and adoption of Open Source on the mainframe by eliminating barriers to Open Source adoption on the mainframe, demonstrating the value of the mainframe.For a transcript of this episode, visit https://openmainframeproject.org/mainframe-coven/mainframe-coven-pam-taylor/Links and Resources Mentioned in the Episode:- SHARE's Women of Influence in Mainframe: https://blog.share.org/Article/shares-women-of-influence-in-mainframe- Pam Taylor's Website: https://pamela-taylor.com/

CHAOSScast
Episode 117: Business Success with Open Source with VM (Vicky) Brasseur

CHAOSScast

Play Episode Listen Later Aug 21, 2025 52:05


Thank you to the folks at Sustain (https://sustainoss.org/) for providing the hosting account for CHAOSSCast! CHAOSScast – Episode 117 In this episode of CHAOSScast, Georg Link and Sean Goggins welcome guest Vicky Brasseur, author of Business Success with Open Source and Forge Your Future with Open Source. The conversation explores Vicky's early journey into open source, starting from discovering Project Gutenberg in the early '90s to using Linux for the first time, the challenges companies face when using open source software, and how organizations can better leverage it strategically. The discussion also delves into her book, Forge Your Future with Open Source, which addresses common questions about contributing to open source projects. Vicky highlights the gaps in strategic open source usage within organizations and offers insights on how companies can better utilize open source software to reduce business risks. The conversation wraps up with practical advice for making a compelling business case for open source contributions and the importance of speaking the language of decision-makers. Press download now! [00:01:05] Vicky introduces herself, shares her journey into open source, and introduces Project Gutenberg, LibriVox, and the value of community contributions to open knowledge and public domain resources. [00:06:44] Vicky shares how her first book, Forge Your Future with Open Source, helps newcomers start their contribution journey and why she wrote it to be reused across audiences. [00:10:54] There's a discussion on how open source opens career path globally, especially in underserved economics. [00:12:46] Vicky shares some advice from her book for new contributors: Don't start with Linux and find a project in an area you love (e.g., music, cars, sewing) to maintain long-term motivation. [00:15:18] Sean and Georg share their personal origin stories in open source. [00:19:23] Georg introduces Vicky's second book, Business Success with Open Source, and she discusses the premise of the book and the “Three Part Framework.” [00:26:08] Vicky argues that even Linux Foundation member companies often don't understand open source at an organizational level. [00:29:19] Vicky is available for consulting, following her layoff. She encourages listeners to reach out via her website. [00:33:55] Why do projects fail? Vicky shares failures come from poor communication and unchecked assumptions across industries, not just tech. [00:35:36] Vicky criticizes companies for chasing vanity metrics like GitHub stars and praises the CHAOSS Project but notes most companies misuse metrics or don't tie them to strategic goals. Also, “Script kiddie” is explained. [00:40:13] Vicky explains how to ethically influence execs by speaking their language, use Power Points and show cost comparisons (e.g., OpenStreetMap vs Google Maps), and she emphasizes to use “TL;DR” (Too Long; Didn't Read) friendly presentations to connect open source financial and operational outcomes. [00:44:27] There's a special discount code for everyone to use on Vicky's eBooks and audiobooks on The Pragmatic Bookshelf website and the code is VBCHAOSS *for 30% off *through Oct 2025. [00:45:16] Find out where you can follow Vicky and her work on the internet. Value Adds (Picks) of the week: [00:46:07] Sean's pick is the movie, Multiplicity (1996) starring Michael Keaton (not Carbon Copy as stated.) [00:47:29] Vicky's pick is sharing her joy in spinning wool with a vintage spinning wheel. [00:49:35] Georg's pick is going to an amusement park with his family. Panelists: Georg Link Sean Goggins Guest: VM (Vicky) Brasseur Links: CHAOSS (https://chaoss.community/) CHAOSS Project X (https://twitter.com/chaossproj?lang=en) CHAOSScast Podcast (https://podcast.chaoss.community/) CHAOSS YouTube (https://www.youtube.com/@CHAOSStube/videos) podcast@chaoss.community (mailto:podcast@chaoss.community) Georg Link Website (https://georg.link/) Sean Goggins X (https://twitter.com/sociallycompute) VM (Vicky) Brasseur Website (https://www.vmbrasseur.com/about/) VM (Vicky) Brasseur Blog (https://blog.vmbrasseur.com/) VM (Vicky) Brasseur LinkedIn (https://www.linkedin.com/in/vmbrasseur/) VM (Vicky) Brasseur Mastodon (https://social.vmbrasseur.com/@vmbrasseur) Project Gutenberg (https://www.gutenberg.org/) LibriVox (https://librivox.org/) Forge Your Future with Open Source by VM (Vicky) Brasseur (Code: VBCHAOSS) (https://pragprog.com/titles/vbopens/forge-your-future-with-open-source/) Business Success with Open Source by VM (Vicky) Brasseur (Code: VBCHAOSS) (https://pragprog.com/titles/vbfoss/business-success-with-open-source/) Nora McDonald (College of Engineering and Computing) (https://computing.gmu.edu/profiles/nmcdona4) Zotero (https://www.zotero.org/) Failure: Why It Happens & How to Benefit from It by VM (Vicky) Brasseur (https://archive.org/details/pdxdevops2017-failure) Script kiddie (https://en.wikipedia.org/wiki/Script_kiddie) Kevin Mitnick (https://en.wikipedia.org/wiki/Kevin_Mitnick) Multiplicity (https://en.wikipedia.org/wiki/Multiplicity_(film)) Spinning wheel (https://en.wikipedia.org/wiki/Spinning_wheel) Special Guest: VM (Vicky) Brasseur.

I am a Mainframer
Mainframe Coven: When Computers Wore Skirts

I am a Mainframer

Play Episode Listen Later Jul 31, 2025 46:08


In this episode of Mainframe Coven, Jessielaine Punongbayan (Product Manager, Dynatrace) and Richelle Anne Craw (Software Engineer, Beta Systems Software) look back at a time when women were central to computing and examine how and why that changed, even though the work didn't. Together they reflect on software engineering, cultural bias, institutional gatekeeping, and the motivation to rewrite the narrative.Mainframe Coven is a 10-part mini-series honoring the past, present, and future women of IT. It's about real stories from the essential yet unseen minds behind the machines.The podcast is sponsored by the Open Mainframe Project, a Linux Foundation project that aims to build community and adoption of Open Source on the mainframe by eliminating barriers to Open Source adoption on the mainframe, demonstrating the value of the mainframe.For a transcript of this episode, visit https://openmainframeproject.org/mainframe-coven/mainframe-coven-when-computers-wore-skirtsLinks and Resources Mentioned in the Episode:- She Was a Computer When Computers Wore Skirts: https://www.nasa.gov/centers-and-facilities/langley/she-was-a-computer-when-computers-wore-skirts/- Zeros and Ones: Digital Women and the New Technoculture by Sadie Plant: https://www.4thestate.co.uk/products/zeros-and-ones-digital-women-and-the-new-technoculture-sadie-plant-9781857026986/- Lovelace & Babbage and the creation of the 1843 'notes' by J. Fuegi and J. Francis, in IEEE Annals of the History of Computing, vol. 25, no. 4, pp. 16-26, Oct.-Dec. 2003: https://doi.org/10.1109/MAHC.2003.1253887- Broad Band: The Untold Story of the Women Who Made the Internet by Claire Evans: https://www.penguinrandomhouse.com/books/545427/broad-band-by-claire-l-evans/- Pioneer Programmer: Jean Jennings Bartik and the Computer That Changed the World by Jean Jennings Bartik: https://www.amazon.com/Pioneer-Programmer-Jennings-Computer-Changed/dp/1612480861/- The women of ENIAC by W. B. Fritz, in IEEE Annals of the History of Computing, vol. 18, no. 3, pp. 13-28, Fall 1996: https://doi.org/10.1109/85.511940- Jean J. Bartik and Frances E. “Betty” Snyder Holberton, interview by Henry Tropp, April 1973, Computer Oral History Collection, Archives Center, National Museum of American History, Smithsonian Institution: https://mads.si.edu/mads/id/NMAH-AC0196_bart730427/- When Computers Were Women by Jennifer S. Light, Technology and Culture, vol. 40, no. 3, 1999: https://www.jstor.org/stable/25147356- ENIAC Programmers Project: https://eniacprogrammers.org/- Great Unsung Women of Computing: The Computers, The Coders and The Future Makers: https://www.wmm.com/catalog/film/great-unsung-women-of-computing-the-computers-the-coders-and-the-future-makers/- The Untold History of Women in Science and Technology (White House Archives): https://obamawhitehouse.archives.gov/women-in-stem/- The Queen of Code, directed by Gillian Jacobs. FiveThirtyEight, 2015: https://vimeo.com/118556349/- “Making Programming Masculine” In Gender Codes: Why Women Are Leaving Computing by Nathan Ensmenger: https://homes.luddy.indiana.edu/nensmeng/posts/2010/09/09/misa2010/- The Computer Boys Take Over: Computers, Programmers, and the Politics of Technical Expertise by Nathan Ensmenger: https://thecomputerboys.com/

I am a Mainframer
Mainframe Coven: Kilogirl

I am a Mainframer

Play Episode Listen Later Jul 30, 2025 28:40


In this episode of Mainframe Coven, Jessielaine Punongbayan (Product Manager, Dynatrace) and Richelle Anne Craw (Software Engineer, Beta Systems Software) dive into the origins of the term "Kilogirl", explore its historical context, and discuss the importance of women's visibility in tech.Together, they reflect on the legacy of women in computing, share personal insights, and answer the powerful question:"Why is women visibility important?"Mainframe Coven is a 10-part mini-series honoring the past, present, and future women of IT. It's about real stories from the essential yet unseen minds behind the machines.The podcast is sponsored by the Open Mainframe Project, a Linux Foundation project that aims to build community and adoption of Open Source on the mainframe by eliminating barriers to Open Source adoption on the mainframe, demonstrating the value of the mainframe.For a transcript of this episode, visit https://openmainframeproject.org/main...Links Mentioned in the Episode:- Radical Software: Women, Art & Computing 1960–1991: https://kunsthallewien.at/ausstellung...Computing Power Used to Be Measured in 'Kilo-Girls': https://www.theatlantic.com/technolog...The Gendered History of Human Computers: https://www.smithsonianmag.com/scienc...The Glass Universe: The Hidden History of the Women Who took the Measure of the Stars by Dava Sobel: https://www.4thestate.co.uk/products/... as mentioned in An astronomical feat: https://www.spectator.co.uk/article/a...Broad Band: The Untold Story of the Women Who Made the Internet by Claire Evans: https://www.penguinrandomhouse.com/bo...Anita B.org: https://anitab.org/The Bletchley Circle (2012–2014, ITV): https://www.world-productions.com/pro...Hidden Figures (2016, directed by Theodore Melfi) Based on the book by Margot Lee Shetterly: https://family.20thcenturystudios.com...Re-writing the code: https://rewritingthecode.org/

To The Point - Cybersecurity
Keep People At The Center of it All with Mishi Choudhary Part 2 Rerun

To The Point - Cybersecurity

Play Episode Listen Later Jul 29, 2025 34:25


Joining the podcast this week is Mishi Choudhary, SVP and General Counsel at Virtru. Mishi shares with us some legal perspective on the privacy discussion including freedom of thought, the right to be forgotten, end-to-end encryption for protecting user data, finding a middle ground between meeting customer privacy demands and complying with legal requirements, getting to a federal privacy regulation, and so much more! You won't want to miss what is a truly spirited and candid conversation – in two parts! Mishi Choudhary SVP and General Counsel, Virtru A technology lawyer with over 17 years of legal experience, Mishi has served as a legal representative for many of the world's most prominent free and open source software developers and distributors, including the Free Software Foundation, Cloud Native Computing Foundation, Linux Foundation, Debian, the Apache Software Foundation, and OpenSSL. At Virtru, she leads all legal and compliance activities, builds internal processes to continue to accelerate growth, helps shape Virtru and open source strategy, and activates global business development efforts. For links and resources discussed in this episode, please visit our show notes at https://www.forcepoint.com/govpodcast/e343

To The Point - Cybersecurity
Privacy: Keep People At The Center of it All with Mishi Choudhary Rerun

To The Point - Cybersecurity

Play Episode Listen Later Jul 22, 2025 23:37


Joining the podcast this week is Mishi Choudhary, SVP and General Counsel at Virtru. Mishi shares with us some legal perspective on the privacy discussion including freedom of thought, the right to be forgotten, end-to-end encryption for protecting user data, finding a middle ground between meeting customer privacy demands and complying with legal requirements, getting to a federal privacy regulation, and so much more! You won't want to miss what is a truly spirited and candid conversation – in two parts! Mishi Choudhary, SVP and General Counsel, Virtru A technology lawyer with over 17 years of legal experience, Mishi has served as a legal representative for many of the world's most prominent free and open source software developers and distributors, including the Free Software Foundation, Cloud Native Computing Foundation, Linux Foundation, Debian, the Apache Software Foundation, and OpenSSL. At Virtru, she leads all legal and compliance activities, builds internal processes to continue to accelerate growth, helps shape Virtru and open source strategy, and activates global business development efforts. For links and resources discussed in this episode, please visit our show notes at https://www.forcepoint.com/govpodcast/e342

Paul's Security Weekly
Getting Started with Security Basics on the Way to Finding a Specialization - ASW #339

Paul's Security Weekly

Play Episode Listen Later Jul 15, 2025 67:50


What are some appsec basics? There's no monolithic appsec role. Broadly speaking, appsec tends to branch into engineering or compliance paths, each with different areas of focus despite having shared vocabularies and the (hopefully!) shared goal of protecting software, data, and users. The better question is, "What do you want to secure?" We discuss the Cybersecurity Skills Framework put together by the OpenSSF and the Linux Foundation and how you might prepare for one of its job families. The important basics aren't about memorizing lists or technical details, but demonstrating experience in working with technologies, understanding how they can fail, and being able to express concerns, recommendations, and curiosity about their security properties. Resources: https://cybersecurityframework.io https://owasp.org/www-project-cheat-sheets/ https://blog.cloudflare.com/rfc-8446-aka-tls-1-3/ https://aflplus.plus/ https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ Visit https://www.securityweekly.com/asw for all the latest episodes! Show Notes: https://securityweekly.com/asw-339

Security Now (MP3)
SN 1029: The Illusion of Thinking - Meta Apps and JavaScript Collusion

Security Now (MP3)

Play Episode Listen Later Jun 11, 2025 165:36


In memoriam: Bill Atkinson Meta native apps & JavaScript collude for a localhost local mess. The EU rolls out its own DNS4EU filtered DNS service. Ukraine DDoS's Russia's Railway DNS ... and... so what? The Linux Foundation creates an alternative Wordpress package manager. Court tells OpenAI it must NOT delete ANYONE's chats. Period! :( A CVSS 10.0 in Erlang/OTP's SSH library. Can Russia intercept Telegram? Perhaps. Spain's ISPs mistakenly block Google sites. Reddit sues Anthropic. Twitter's new encrypted DM's are as lame as the old ones. The Login.gov site may not have any backups. Apple explores the question of recent Large Reasoning Models "thinking" Show Notes - https://www.grc.com/sn/SN-1029-Notes.pdf Hosts: Steve Gibson and Leo Laporte Download or subscribe to Security Now at https://twit.tv/shows/security-now. You can submit a question to Security Now at the GRC Feedback Page. For 16kbps versions, transcripts, and notes (including fixes), visit Steve's site: grc.com, also the home of the best disk maintenance and recovery utility ever written Spinrite 6. Join Club TWiT for Ad-Free Podcasts! Support what you love and get ad-free shows, a members-only Discord, and behind-the-scenes access. Join today: https://twit.tv/clubtwit Sponsors: hoxhunt.com/securitynow threatlocker.com for Security Now uscloud.com canary.tools/twit - use code: TWIT

SANS Internet Stormcenter Daily Network/Cyber Security and Information Security Stormcast
SANS Stormcast June, Tuesday, June 10th, 2025: Octosql; Mirai vs. Wazuh DNS4EU; Wordpress Fair Package Manager

SANS Internet Stormcenter Daily Network/Cyber Security and Information Security Stormcast

Play Episode Listen Later Jun 10, 2025 6:09


OctoSQL & Vulnerability Data OctoSQL is a neat tool to query files in different formats using SQL. This can, for example, be used to query the JSON vulnerability files from CISA or NVD and create interesting joins between different files. https://isc.sans.edu/diary/OctoSQL+Vulnerability+Data/32026 Mirai vs. Wazuh The Mirai botnet has now been observed exploiting a vulnerability in the open-source EDR tool Wazuh. https://www.akamai.com/blog/security-research/botnets-flaw-mirai-spreads-through-wazuh-vulnerability DNS4EU The European Union created its own public recursive resolver to offer a public resolver compliant with European privacy laws. This resolver is currently operated by ENISA, but the intent is to have a commercial entity operate and support it by a commercial entity. https://www.joindns4.eu/ WordPress FAIR Package Manager Recent legal issues around different WordPress-related entities have made it more difficult to maintain diverse sources of WordPress plugins. With WordPress plugins usually being responsible for many of the security issues, the Linux Foundation has come forward to support the FAIR Package Manager, a tool intended to simplify the management of WordPress packages. https://github.com/fairpm