POPULARITY
This episode features Dianne Na Penn, a senior product leader at Anthropic, discussing the launch of Claude Opus 4.5 and the evolution of frontier AI models. The conversation explores how Anthropic approaches model development—balancing ambitious capability roadmaps with user feedback, making strategic bets on areas like agentic coding and computer use while deliberately avoiding others like image generation. Dianne shares insights on the shifting nature of AI evaluation (moving beyond saturated benchmarks like SWE-bench toward more open-ended measures), the evolution of scaffolding from "training wheels" to intelligence amplifiers, and why she believes we're closer to transformative long-running AI than most people think. She also discusses Anthropic's distinctive culture of authenticity, the under appreciated benefits of model alignment for producing independent-thinking AI, and why the real bottleneck to AI agents isn't model capability anymore but product innovation. (0:00) Intro(0:57) Starting the Work on Opus 4.5(2:04) Model Capabilities and Surprises(5:59) Computer Use and Practical Applications(7:21) Pricing and Positioning(10:02) Customer Feedback and Early Access(16:44) The Reality of Enterprise Agents(18:47) Future of AI and Long-Running Intelligence(28:06) Anthropic's Culture and Decision Making(30:31) Key Decisions and Fun Moments(33:45) Quickfire With your co-hosts: @jacobeffron - Partner at Redpoint, Former PM Flatiron Health @patrickachase - Partner at Redpoint, Former ML Engineer LinkedIn @ericabrescia - Former COO Github, Founder Bitnami (acq'd by VMWare) @jordan_segall - Partner at Redpoint
Welcome to Episode 280, and all the listeners from the edge of the bell curveAs normal we kick off by rambling, with a bit of discussion over the number 280, and learning it has nothing special about it, we also work out which fantasy race's map to real world occupation'sWe do eventually get onto games. Ram has been playing the latest in Frictional Amnesia series; Amnesia: The Bunker. Ram talks about his weird take on how he "enjoys" horror games and what make this one a little different from previous entries in the series, along with related games. We also discuss the world toilet day, Audio recording problems, proving the earth is not flat and Valve's major mistake NotesHow many descriptors can a bullet get? The experimental rimless bottlenecked intermediate rifle cartridge the .280 BritishDo you give a sh*t? If so make sure World Toilet Day is in your calendarBe careful not to slide, after we've changed the tilt of the earthA slightly different style of game from Frictional in Amnesia: The BunkerHard to find the answer, but it does not look like grenades can destroy a doorFrom the same developers of Amnesia, but a sci-fi take on it, SOMANot sure if your going to like Amnesia? Give Penumbra a try We look forward to seeing you all on the next podcast on December 4th 2025, at 18:30 GMT either on YouTube or Twitch
Hey ya'll, Happy Thanskgiving to everyone who celebrates and thank you for being a subscriber, I truly appreciate each and every one of you!Just wrapped up the third (1, 2) Thanksgiving special Episode of ThursdAI, can you believe November is almost over? We had another banger week in AI, with a full feast of AI released, Anthropic dropped the long awaited Opus 4.5, which quickly became the top coding LLM, DeepSeek resurfaced with a math model, BFL and Tongyi both tried to take on Nano Banana, and Microsoft dropped a 7B computer use model in Open Source + Intellect 3 from Prime Intellect! With so much news to cover, we also had an interview with Ido Sal & Liad Yosef (their second time on the show!) about MCP-Apps, the new standard they are spearheading together with Anthropic, OpenAI & more! Exciting episode, let's get into it! (P.S - I started generating infographics, so the show became much more visual, LMK if you like them) ThursdAI - I put a lot of work on a weekly basis to bring you the live show, podcast and a sourced newsletter! Please subscribe if you find this content valuable!Anthropic's Opus 4.5: The “Premier Intelligence” Returns (Blog)Folks, Anthropic absolutely cooked. After Sonnet and Haiku had their time in the sun, the big brother is finally back. Opus 4.5 launched this week, and it is reclaiming the throne for coding and complex agentic tasks.First off, the specs are monstrous. It hits 80.9% on SWE-bench Verified, topping GPT-5.1 (77.9%) and Gemini 3 Pro (76.2%). But the real kicker? The price! It is now $5 per million input tokens and $25 per million output—literally one-third the cost of the previous Opus.Yam, our resident coding wizard, put it best during the show: “Opus knows a lot of tiny details about the stack that you didn't even know you wanted... It feels like it can go forever.” Unlike Sonnet, which sometimes spirals or loses context on extremely long tasks, Opus 4.5 maintains coherence deep into the conversation.Anthropic also introduced a new “Effort” parameter, allowing you to control how hard the model thinks (similar to o1 reasoning tokens). Set it to high, and you get massive performance gains; set it to medium, and you get Sonnet-level performance at a fraction of the token cost. Plus, they've added Tool Search (cutting enormous token overhead for agents with many tools) and Programmatic Tool Calling, which effectively lets Opus write and execute code loops to manage data.If you are doing heavy software engineering or complex automations, Opus 4.5 is the new daily driver.
The common advice for career growth is to “move up” into management — but what if your true passion lies in staying close to the technology itself? In this episode, host Sam East speaks with Deb Whitis, Ph.D., and Amrita Maguire, both of the SWE Technical Career Path Affinity Group, about what it means to grow, lead, and make an impact as engineers while staying on the technical career path. From developing nickel-based superalloys that power jet engines to advancing ergonomic standards and AI-enabled design, Deb and Amrita reflect on their careers and share how technical leadership can be just as influential as managing people. They also highlight the work of SWE's Technical Career Path Affinity Group, including a new mentorship program helping women chart their own path as innovators, inventors, and subject matter experts. Get involved with the SWE Technical Career Path Affinity Group: https://affinitygroups.swe.org/technical-career-path/ — The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Google just released Gemini 3, and I tested it with 3 real business use cases: prepping for a $200K sales call, building an interactive sales dashboard, and creating a complete website from scratch—all in minutes.In this video, I show you LIVE examples of:✅ Gemini Agent prepping an entire sales call (research, pitch angles, objection handling, follow-ups)✅ Dynamic dashboards with real-time calculations and interactive sliders✅ Full website generation with 921 lines of working code in under 60 seconds✅ Custom image generation and prompt engineeringThis isn't theory—I'm screen recording everything as it happens so you can see the actual speed and quality.⏱️ TIMESTAMPS:0:00 - Intro: Why Gemini 3 is a Big Deal1:15 - Benchmark Breakdown (Why This Matters)2:27 - Use Case #1: $200K Sales Call Prep4:46 - Visual Layout & Interactive Infographic Demo7:03 - Use Case #2: Building a Website from Scratch (Live Code)9:27 - Use Case #3: Interactive Q4 Sales Dashboard11:51 - Testing the Prompt Generator Live12:45 - Final Thoughts & Why This Changes Everything
Grappling Rewind: Breakdowns of Professional BJJ and Grappling Events
This week on the show Maine recaps the 2025 ADCC North American trials live from Orlando Florida. We recap all the divisions starting with the Men'sWe discuss the -66.0 kg Dorian Olivarez-77.0 kg Jacob Bornemann-88.0 kg Jon Blank-99.0 kg Achilles Rocha+99.0 kg Brandon ReedThen move into the recap of the womens division-55.0 kgAna Mayordomo-65.0 kg Morgan "Mo" Black+65.0 kg Maia MatalonRecorded 11-17-2025
Dans cet épisode, Emmanuel, Katia et Guillaume discutent de Spring 7, Quarkus, d'Infinispan et Keycloak. On discute aussi de projets sympas comme Javelit, de comment démarre une JVM, du besoin d'argent de NTP. Et puis on discute du changement de carrière d'Emmanuel. Enregistré le 14 novembre 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-332.mp3 ou en vidéo sur YouTube. News Emmanuel quitte Red Hat après 20 ans https://emmanuelbernard.com/blog/2025/11/13/leaving-redhat/ Langages Support HTTP/3 dans le HttpClient de JDK 26 - https://inside.java/2025/10/22/http3-support/ JDK 26 introduit le support de HTTP/3 dans l'API HttpClient existante depuis Java 11 HTTP/3 utilise le protocole QUIC sur UDP au lieu de TCP utilisé par HTTP/2 Par défaut HttpClient préfère HTTP/2, il faut explicitement configurer HTTP/3 avec Version.HTTP_3 Le client effectue automatiquement un downgrade vers HTTP/2 puis HTTP/1.1 si le serveur ne supporte pas HTTP/3 On peut forcer l'utilisation exclusive de HTTP/3 avec l'option H3_DISCOVERY en mode HTTP_3_URI_ONLY HttpClient apprend qu'un serveur supporte HTTP/3 via le header alt-svc (RFC 7838) et utilise cette info pour les requêtes suivantes La première requête peut utiliser HTTP/2 même avec HTTP/3 préféré, mais la seconde utilisera HTTP/3 si le serveur l'annonce L'équipe OpenJDK encourage les tests et retours d'expérience sur les builds early access de JDK 26 Librairies Eclispe Jetty et CometD changent leurs stratégie de support https://webtide.com/end-of-life-changes-to-eclipse-jetty-and-cometd/ À partir du 1er janvier 2026, Webtide ne publiera plus Jetty 9/10/11 et CometD 5/6/7 sur Maven Central Pendant 20 ans, Webtide a financé les projets Jetty et CometD via services et support, publiant gratuitement les mises à jour EOL Le comportement des entreprises a changé : beaucoup cherchent juste du gratuit plutôt que du véritable support Des sociétés utilisent des versions de plus de 10 ans sans migrer tant que les correctifs CVE sont gratuits Cette politique gratuite a involontairement encouragé la complaisance et retardé les migrations vers versions récentes MITRE développe des changements au système CVE pour mieux gérer les concepts d'EOL Webtide lance un programme de partenariat avec TuxCare et HeroDevs pour distribuer les résolutions CVE des versions EOL Les binaires EOL seront désormais distribués uniquement aux clients commerciaux et via le réseau de partenaires Webtide continue le support standard open-source : quand Jetty 13 sortira, Jetty 12.1 recevra des mises à jour pendant 6 mois à un an Ce changement vise à clarifier la politique EOL avec une terminologie industrielle établie Améliorations cloud du SDK A2A Java https://quarkus.io/blog/quarkus-a2a-cloud-enhancements/ Version 0.3.0.Final du SDK A2A Java apporte des améliorations pour les environnements cloud et distribués Composants en mémoire remplacés par des implémentations persistantes et répliquées pour environnements multi-instances JpaDatabaseTaskStore et JpaDatabasePushNotificationConfigStore permettent la persistance des tâches et configurations en base PostgreSQL ReplicatedQueueManager assure la réplication des événements entre instances A2A Agent via Kafka et MicroProfile Reactive Messaging Exemple complet de déploiement Kubernetes avec Kind incluant PostgreSQL, Kafka via Strimzi, et load balancing entre pods Démonstration pratique montrant que les messages peuvent être traités par différents pods tout en maintenant la cohérence des tâches Architecture inspirée du SDK Python A2A, permettant la gestion de tâches asynchrones longues durée en environnement distribué Quarkus 3.29 sort avec des backends de cache multiples et support du débogueur Qute https://quarkus.io/blog/quarkus-3-29-released/ Possibilité d'utiliser plusieurs backends de cache simultanément dans une même application Chaque cache peut être associé à un backend spécifique (par exemple Caffeine et Redis ou Infinispan) Support du Debug Adapter Protocol (DAP) pour déboguer les templates Qute directement dans l'IDE et dans la version 3.28 Configuration programmatique de la protection CSRF via une API fluent Possibilité de restreindre les filtres OIDC à des flux d'authentification spécifiques avec annotations Support des dashboards Grafana personnalisés via fichiers JSON dans META-INF/grafana/ Extension Liquibase MongoDB supporte désormais plusieurs clients simultanés Amélioration significative des performances de build avec réduction des allocations mémoire Parallélisation de tâches comme la génération de proxies Hibernate ORM et la construction des Jar Et l'utilisation des fichiers .proto est plus simple dans Quarkus avbec Quarkus gRPC Zero https://quarkus.io/blog/grpc-zero/ c'est toujours galere des fichiers .proto car les generateurs demandent des executables natifs maintenant ils sont bundlés dans la JVM et vous n'avez rien a configurer cela utilise Caffeine pour faire tourner cela en WASM dans la JVM Spring AI 1.1 est presque là https://spring.io/blog/2025/11/08/spring-ai-1-1-0-RC1-available-now support des MCP tool caching pour les callback qui reduit les iooerations redondantes Access au contenu de raisonnement OpenAI Un modele de Chat MongoDB Support du modele de penser Ollama Reessaye sur les echec de reseau OpenAI speech to text Spring gRPC Les prochaines étapes pour la 1.0.0 https://spring.io/blog/2025/11/05/spring-grpc-next-steps Spring gRPC 1.0 arrive prochainement avec support de Spring Boot 4 L'intégration dans Spring Boot 4.0 est reportée, prévue pour Spring Boot 4.1 Les coordonnées Maven restent sous org.springframework.grpc pour la version 1.0 Le jar spring-grpc-test est renommé en spring-grpc-test-spring-boot-autoconfigure Les packages d'autoconfiguration changent de nom nécessitant de modifier les imports Les dépendances d'autoconfiguration seront immédiatement dépréciées après la release 1.0 Migration minimale attendue pour les projets utilisant déjà la version 0.x La version 1.0.0-RC1 sera publiée dès que possible avant la version finale Spring arrete le support reactif d'Apache Pulsar https://spring.io/blog/2025/10/29/spring-pulsar-reactive-discontinued logique d'évaluer le temps passé vs le nombre d'utilisateurs c'est cependant une tendance qu'on a vu s'accélerer Spring 7 est sorti https://spring.io/blog/2025/11/13/spring-framework-7-0-general-availability Infrastructure Infinispan 16.0 https://infinispan.org/blog/2025/11/10/infinispan-16-0 Ajout majeur : migration en ligne sans interruption pour les nœuds d'un cluster (rolling upgrades) (infinispan.org) Messages de clustering refaits avec Protocol Buffers + ProtoStream : meilleure compatibilité, schéma évolutif garanti (infinispan.org) Console Web améliorée API dédiée de gestion des schémas (SchemasAdmin) pour gérer les schémas ProtoStream à distance (infinispan.org) Module de requête (query) optimisé : support complet des agrégations (sum, avg …) dans les requêtes indexées en cluster grâce à l'intégration de Hibernate Search 8.1 (infinispan.org) Serveur : image conteneur minimalisée pour réduire la surface d'attaque (infinispan.org) démarrage plus rapide grâce à séparation du démarrage cache/serveur (infinispan.org) caches pour connecteurs (Memcached, RESP) créés à la demande (on-demand) et non à l'initiaton automatique (infinispan.org) moteur Lua 5.1 mis à jour avec corrections de vulnérabilités et opérations dangereuses désactivées (infinispan.org) Support JDK : version minimale toujours JDK 17 (infinispan.org) prise en charge des threads virtuels (virtual threads) et des fonctionnalités AOT (Ahead-of-Time) de JDK plus récentes (infinispan.org) Web Javelit, une nouvelle librairie Java inspirée de Streamlit pour faire facilement et rapidement des petites interfaces web https://glaforge.dev/posts/2025/10/24/javelit-to-create-quick-interactive-app-frontends-in-java/ Site web du projet : https://javelit.io/ Javelit : outil pour créer rapidement des applications de données (mais pas que) en Java. Simplifie le développement : élimine les tracas du frontend et de la gestion des événements. Transforme une classe Java en application web en quelques minutes. Inspiré par la simplicité de Streamlit de l'écosystème Python (ou Gradio et Mesop), mais pour Java. Développement axé sur la logique : pas de code standard répétitif (boilerplate), rechargement à chaud. Interactions faciles : les widgets retournent directement leur valeur, sans besoin de HTML/CSS/JS ou gestion d'événements. Déploiement flexible : applications autonomes ou intégrables dans des frameworks Java (Spring, Quarkus, etc.). L'article de Guillaume montre comment créer une petite interface pour créer et modifier des images avec le modèle génératif Nano Banana Un deuxième article montre comment utiliser Javelit pour créer une interface de chat avec LangChain4j https://glaforge.dev/posts/2025/10/25/creating-a-javelit-chat-interface-for-langchain4j/ Améliorer l'accessibilité avec les applis JetPack Compose https://blog.ippon.fr/2025/10/29/rendre-son-application-accessible-avec-jetpack-compose/ TalkBack est le lecteur d'écran Android qui vocalise les éléments sélectionnés pour les personnes malvoyantes Accessibility Scanner et les outils Android Studio détectent automatiquement les problèmes d'accessibilité statiques Les images fonctionnelles doivent avoir un contentDescription, les images décoratives contentDescription null Le contraste minimum requis est de 4.5:1 pour le texte normal et 3:1 pour le texte large ou les icônes Les zones cliquables doivent mesurer au minimum 48dp x 48dp pour faciliter l'interaction Les formulaires nécessitent des labels visibles permanents et non de simples placeholders qui disparaissent Modifier.semantics permet de définir l'arbre sémantique lu par les lecteurs d'écran Les propriétés mergeDescendants et traversalIndex contrôlent l'ordre et le regroupement de la lecture Diriger le navigateur Chrome avec le modèle Gemini Computer Use https://glaforge.dev/posts/2025/11/03/driving-a-web-browser-with-gemini-computer-use-model-in-java/ Objectif : Automatiser la navigation web en Java avec le modèle "Computer Use" de Gemini 2.5 Pro. Modèle "Computer Use" : Gemini analyse des captures d'écran et génère des actions d'interface (clic, saisie, etc.). Outils : Gemini API, Java, Playwright (pour l'interaction navigateur). Fonctionnement : Boucle agent où Gemini reçoit une capture, propose une action, Playwright l'exécute, puis une nouvelle capture est envoyée à Gemini. Implémentation clé : Toujours envoyer une capture d'écran à Gemini après chaque action pour qu'il comprenne l'état actuel. Défis : Lenteur, gestion des CAPTCHA et pop-ups (gérables). Potentiel : Automatisation des tâches web répétitives, création d'agents autonomes. Data et Intelligence Artificielle Apicurio ajoute le support de nouveaux schema sans reconstruire Apicurio https://www.apicur.io/blog/2025/10/27/custom-artifact-types Apicurio Registry 3.1.0 permet d'ajouter des types d'artefacts personnalisés au moment du déploiement sans recompiler le projet Supporte nativement OpenAPI, AsyncAPI, Avro, JSON Schema, Protobuf, GraphQL, WSDL et XSD Trois approches d'implémentation disponibles : classes Java pour la performance maximale, JavaScript/TypeScript pour la facilité de développement, ou webhooks pour une flexibilité totale Configuration via un simple fichier JSON pointant vers les implémentations des composants personnalisés Les scripts JavaScript sont exécutés via QuickJS dans un environnement sandboxé sécurisé Un package npm TypeScript fournit l'autocomplétion et la sécurité de type pour le développement Six composants optionnels configurables : détection automatique de type, validation, vérification de compatibilité, canonicalisation, déréférencement et recherche de références Cas d'usage typiques : formats propriétaires internes, support RAML, formats legacy comme WADL, schémas spécifiques à un domaine métier Déploiement simple via Docker en montant les fichiers de configuration et scripts comme volumes Les performances varient selon l'approche : Java offre les meilleures performances, JavaScript un bon équilibre, webhooks la flexibilité maximale Le truc interessant c'est que c'est Quarkus based et donc demandait le rebuilt donc pour eviter cela, ils ont ajouter QuickJS via Chicorey un moteur WebAssembly GPT 5.1 pour les développeurs est sorti. https://openai.com/index/gpt-5-1-for-developers/ C'est le meilleur puisque c'est le dernier :slightly_smiling_face: Raisonnement Adaptatif et Efficace : GPT-5.1 ajuste dynamiquement son temps de réflexion en fonction de la complexité de la tâche, le rendant nettement plus rapide et plus économique en jetons pour les tâches simples, tout en maintenant des performances de pointe sur les tâches difficiles. Nouveau Mode « Sans Raisonnement » : Un mode (reasoning_effort='none') a été introduit pour les cas d'utilisation sensibles à la latence, permettant une réponse plus rapide avec une intelligence élevée et une meilleure exécution des outils. Cache de Prompt Étendu : La mise en cache des invites est étendue jusqu'à 24 heures (contre quelques minutes auparavant), ce qui réduit la latence et le coût pour les interactions de longue durée (chats multi-tours, sessions de codage). Les jetons mis en cache sont 90 % moins chers. Améliorations en Codage : Le modèle offre une meilleure personnalité de codage, une qualité de code améliorée et de meilleures performances sur les tâches d'agenticité de code, atteignant 76,3 % sur SWE-bench Verified. Nouveaux Outils pour les Développeurs : Deux nouveaux outils sont introduits ( https://cookbook.openai.com/examples/build_a_coding_agent_with_gpt-5.1 ) : L'outil apply_patch pour des modifications de code plus fiables via des diffs structurés. L'outil shell qui permet au modèle de proposer et d'exécuter des commandes shell sur une machine locale, facilitant les boucles d'inspection et d'exécution. Disponibilité : GPT-5.1 (ainsi que les modèles gpt-5.1-codex) est disponible pour les développeurs sur toutes les plateformes API payantes, avec les mêmes tarifs et limites de débit que GPT-5. Comparaison de similarité d'articles et de documents avec les embedding models https://glaforge.dev/posts/2025/11/12/finding-related-articles-with-vector-embedding-models/ Principe : Convertir les articles en vecteurs numériques ; la similarité sémantique est mesurée par la proximité de ces vecteurs. Démarche : Résumé des articles via Gemini-2.5-flash. Conversion des résumés en vecteurs (embeddings) par Gemini-embedding-001. Calcul de la similarité entre vecteurs par similarité cosinus. Affichage des 3 articles les plus pertinents (>0.75) dans le frontmatter Hugo. Bilan : Approche "résumé et embedding" efficace, pragmatique et améliorant l'engagement des lecteurs. Outillage Composer : Nouveau modèle d'agent rapide pour l'ingénierie logicielle - https://cursor.com/blog/composer Composer est un modèle d'agent conçu pour l'ingénierie logicielle qui génère du code quatre fois plus rapidement que les modèles similaires Le modèle est entraîné sur de vrais défis d'ingénierie logicielle dans de grandes bases de code avec accès à des outils de recherche et d'édition Il s'agit d'un modèle de type mixture-of-experts optimisé pour des réponses interactives et rapides afin de maintenir le flux de développement L'entraînement utilise l'apprentissage par renforcement dans divers environnements de développement avec des outils comme la lecture de fichiers, l'édition, les commandes terminal et la recherche sémantique Cursor Bench est un benchmark d'évaluation basé sur de vraies demandes d'ingénieurs qui mesure la correction et le respect des abstractions du code existant Le modèle apprend automatiquement des comportements utiles comme effectuer des recherches complexes, corriger les erreurs de linter et écrire des tests unitaires L'infrastructure d'entraînement utilise PyTorch et Ray avec des kernels MXFP8 pour entraîner sur des milliers de GPUs NVIDIA Le système exécute des centaines de milliers d'environnements de codage sandboxés concurrents dans le cloud pour l'entraînement Composer est déjà utilisé quotidiennement par les développeurs de Cursor pour leur propre travail Le modèle se positionne juste derrière GPT-5 et Sonnet 4.5 en termes de performance sur les benchmarks internes Rex sur l'utilisation de l'IA pour les développeurs, un gain de productivité réel et des contextes adaptés https://mcorbin.fr/posts/2025-10-17-genai-dev/ Un développeur avec 18 ans d'expérience partage son retour sur l'IA générative après avoir changé d'avis Utilise exclusivement Claude Code dans le terminal pour coder en langage naturel Le "vibe coding" permet de générer des scripts et interfaces sans regarder le code généré Génération rapide de scripts Python pour traiter des CSV, JSON ou créer des interfaces HTML Le mode chirurgien résout des bugs complexes en one-shot, exemple avec un plugin Grafana fixé en une minute Pour le code de production, l'IA génère les couches repository, service et API de manière itérative, mais le dev controle le modele de données Le développeur relit toujours le code et ajuste manuellement ou via l'IA selon le besoin L'IA ne remplacera pas les développeurs car la réflexion, conception et expertise technique restent essentielles La construction de produits robustes, scalables et maintenables nécessite une expérience humaine L'IA libère du temps sur les tâches répétitives et permet de se concentrer sur les aspects complexes ce que je trouve interessant c'est la partie sur le code de prod effectivement, je corrige aussi beaucoup les propositions de l'IA en lui demandant de faire mieux dans tel ou tel domaine Sans guide, tout cela serait perdu Affaire a suivre un article en parallele sur le métier de designer https://blog.ippon.fr/2025/11/03/lia-ne-remplace-pas-un-designer-elle-amplifie-la-difference-entre-faire-et-bien-faire/ Plus besoin de se rappeler les racourcis dans IntelliJ idea avec l'universal entry point https://blog.jetbrains.com/idea/2025/11/universal-entry-point-a-single-entry-point-for-context-aware-coding-assistance/ IntelliJ IDEA introduit Command Completion, une nouvelle façon d'accéder aux actions de l'IDE directement depuis l'éditeur Fonctionne comme la complétion de code : tapez point (.) pour voir les actions contextuelles disponibles Tapez double point (..) pour filtrer et n'afficher que les actions disponibles Propose des corrections, refactorings, génération de code et navigation selon le contexte Complète les fonctionnalités existantes sans les remplacer : raccourcis, Alt+Enter, Search Everywhere Facilite la découverte des fonctionnalités de l'IDE sans interrompre le flux de développement En Beta dans la version 2025.2, sera activé par défaut dans 2025.3 Support actuel pour Java et Kotlin, avec actions spécifiques aux frameworks comme Spring et Hibernate Homebrew, package manage pour macOS et Linux passe en version 5 https://brew.sh/2025/11/12/homebrew-5.0.0/ Téléchargements Parallèles par Défaut : Le paramètre HOMEBREW_DOWNLOAD_CONCURRENCY=auto est activé par défaut, permettant des téléchargements concurrents pour tous les utilisateurs, avec un rapport de progression. Support Linux ARM64/AArch64 en Tier 1 : Le support pour Linux ARM64/AArch64 a été promu au niveau "Tier 1" (support officiel de premier plan). Feuille de Route pour les Dépréciations macOS : Septembre 2026 (ou plus tard) : Homebrew ne fonctionnera plus sur macOS Catalina (10.15) et versions antérieures. macOS Intel (x86_64) passera en "Tier 3" (fin du support CI et des binaires précompilés/bottles). Septembre 2027 (ou plus tard) : Homebrew ne fonctionnera plus sur macOS Big Sur (11) sur Apple Silicon ni du tout sur Intel (x86_64). Sécurité et Casks : Dépréciation des Casks sans signature de code. Désactivation des Casks échouant aux vérifications Gatekeeper en septembre 2026. Les options --no-quarantine et --quarantine sont dépréciés pour ne plus faciliter le contournement des fonctionnalités de sécurité de macOS. Nouvelles Fonctionnalités & Améliorations : Support officiel pour macOS 26 (Tahoe). brew bundle supporte désormais l'installation de packages Go via un Brewfile. Ajout de la commande brew info --sizes pour afficher la taille des formulae et casks. La commande brew search --alpine permet de chercher des packages Alpine Linux. Architecture Selon l'analyste RedMonk, Java reste très pertinent dans l'aire de l'IA et des agents https://redmonk.com/jgovernor/java-relevance-in-the-ai-era-agent-frameworks-emerge/ Java reste pertinent à l'ère de l'IA, pas besoin d'apprendre une pile technique entièrement nouvelle. Capacité d'adaptation de Java ("anticorps") aux innovations (Big Data, cloud, IA), le rendant idéal pour les contextes d'entreprise. L'écosystème JVM offre des avantages sur Python pour la logique métier et les applications sophistiquées, notamment en termes de sécurité et d'évolutivité. Embabel (par Rod Johnson, créateur de Spring) : un framework d'agents fortement typé pour JVM, visant le déterminisme des projets avant la génération de code par LLM. LangChain4J : facilite l'accès aux capacités d'IA pour les développeurs Java, s'aligne sur les modèles d'entreprise établis et permet aux LLM d'appeler des méthodes Java. Koog (Jetbrains) : framework d'agents basé sur Kotlin, typé et spécifique aux développeurs JVM/Kotlin. Akka : a pivoté pour se concentrer sur les flux de travail d'agents IA, abordant la complexité, la confiance et les coûts des agents dans les systèmes distribués. Le Model Context Protocol (MCP) est jugé insuffisant, manquant d'explicabilité, de découvrabilité, de capacité à mélanger les modèles, de garde-fous, de gestion de flux, de composabilité et d'intégration sécurisée. Les développeurs Java sont bien placés pour construire des applications compatibles IA et intégrer des agents. Des acteurs majeurs comme IBM, Red Hat et Oracle continuent d'investir massivement dans Java et son intégration avec l'IA. Sécurité AI Deepfake, Hiring … A danger réel https://www.eu-startups.com/2025/10/european-startups-get-serious-about-deepfakes-as-ai-fraud-losses-surpass-e1-3-billion/ Pertes liées aux deepfakes en Europe : > 1,3 milliard € (860 M € rien qu'en 2025). Création de deepfakes désormais possible pour quelques euros. Fraudes : faux entretiens vidéo, usurpations d'identité, arnaques diverses. Startups actives : Acoru, IdentifAI, Trustfull, Innerworks, Keyless (détection et prévention). Réglementation : AI Act et Digital Services Act imposent transparence et contrôle. Recommandations : vérifier identités, former employés, adopter authentification multi-facteurs. En lien : https://www.techmonitor.ai/technology/cybersecurity/remote-hiring-cybersecurity 1 Candidat sur 4 sera Fake en 2028 selon Gartner research https://www.gartner.com/en/newsroom/press-releases/2025-07-31-gartner-survey-shows-j[…]-percent-of-job-applicants-trust-ai-will-fairly-evaluate-them Loi, société et organisation Amazon - prévoit supprimer 30.000 postes https://www.20minutes.fr/economie/4181936-20251028-amazon-prevoit-supprimer-30-000-emplois-bureau-selon-plusieurs-medias Postes supprimés : 30 000 bureaux Part des effectifs : ~10 % des employés corporatifs Tranche confirmée : 14 000 postes Divisions touchées : RH, Opérations, Devices & Services, Cloud Motifs : sur-recrutement, bureaucratie, automatisation/IA Accompagnement : 90 jours pour poste interne + aides Non concernés : entrepôts/logistique Objectif : concentrer sur priorités stratégiques NTP a besoin d'argent https://www.ntp.org/ Il n'est que le protocole qui synchronise toutes les machines du monde La fondation https://www.nwtime.org/ recherche 11000$ pour maintenir son activité Rubrique débutant Une plongée approfondie dans le démarrage de la JVM https://inside.java/2025/01/28/jvm-start-up La JVM effectue une initialisation complexe avant d'exécuter le code : validation des arguments, détection des ressources système et sélection du garbage collector approprié Le chargement de classes suit une stratégie lazy où chaque classe charge d'abord ses dépendances dans l'ordre de déclaration, créant une chaîne d'environ 450 classes même pour un simple Hello World La liaison de classes comprend trois sous-processus : vérification de la structure, préparation avec initialisation des champs statiques à leurs valeurs par défaut, et résolution des références symboliques du Constant Pool Le CDS améliore les performances au démarrage en fournissant des classes pré-vérifiées, réduisant le travail de la JVM L'initialisation de classe exécute les initialiseurs statiques via la méthode spéciale clinit générée automatiquement par javac Le Project Leyden introduit la compilation AOT dans JDK 24 pour réduire le temps de démarrage en effectuant le chargement et la liaison de classes en avance de phase Pas si débutant finalement Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19-21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 24 novembre 2025 : Forward Data & AI Conference - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9-11 décembre 2025 : APIdays Paris - Paris (France) 9-11 décembre 2025 : Green IO Paris - Paris (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France) 22 janvier 2026 : DevCon #26 : sécurité / post-quantique / hacking - Paris (France) 29-31 janvier 2026 : Epitech Summit 2026 - Paris - Paris (France) 2-5 février 2026 : Epitech Summit 2026 - Moulins - Moulins (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 3-4 février 2026 : Epitech Summit 2026 - Lille - Lille (France) 3-4 février 2026 : Epitech Summit 2026 - Mulhouse - Mulhouse (France) 3-4 février 2026 : Epitech Summit 2026 - Nancy - Nancy (France) 3-4 février 2026 : Epitech Summit 2026 - Nantes - Nantes (France) 3-4 février 2026 : Epitech Summit 2026 - Marseille - Marseille (France) 3-4 février 2026 : Epitech Summit 2026 - Rennes - Rennes (France) 3-4 février 2026 : Epitech Summit 2026 - Montpellier - Montpellier (France) 3-4 février 2026 : Epitech Summit 2026 - Strasbourg - Strasbourg (France) 3-4 février 2026 : Epitech Summit 2026 - Toulouse - Toulouse (France) 4-5 février 2026 : Epitech Summit 2026 - Bordeaux - Bordeaux (France) 4-5 février 2026 : Epitech Summit 2026 - Lyon - Lyon (France) 4-6 février 2026 : Epitech Summit 2026 - Nice - Nice (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 26-27 mars 2026 : SymfonyLive Paris 2026 - Paris (France) 27-29 mars 2026 : Shift - Nantes (France) 31 mars 2026 : ParisTestConf - Paris (France) 16-17 avril 2026 : MiXiT 2026 - Lyon (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 6-7 mai 2026 : Devoxx UK 2026 - London (UK) 22 mai 2026 : AFUP Day 2026 Lille - Lille (France) 22 mai 2026 : AFUP Day 2026 Paris - Paris (France) 22 mai 2026 : AFUP Day 2026 Bordeaux - Bordeaux (France) 22 mai 2026 : AFUP Day 2026 Lyon - Lyon (France) 17 juin 2026 : Devoxx Poland - Krakow (Poland) 11-12 juillet 2026 : DevLille 2026 - Lille (France) 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France) 17-18 septembre 2026 : API Platform Conference 2026 - Lille (France) 5-9 octobre 2026 : Devoxx Belgium - Antwerp (Belgium) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
Hey, this is Alex! We're finally so back! Tons of open source releases, OpenAI updates GPT and a few breakthroughs in audio as well, makes this a very dense week! Today on the show, we covered the newly released GPT 5.1 update, a few open source releases like Terminal Bench and Project AELLA (renamed OASSAS), and Baidu's Ernie 4.5 VL that shows impressive visual understanding! Also, chatted with Paul from 11Labs and Dima Duev from the wandb SDK team, who brought us a delicious demo of LEET, our new TUI for wandb! Tons of news coverage, let's dive in
Hey, Alex here! Quick note, while preparing for this week, I posted on X that I don't remember such a quiet week in AI since I started doing ThursdAI regularly, but then 45 min before the show started, Kimi dropped a SOTA oss reasoning model, turning a quiet week into an absolute banger. Besides Kimi, we covered the updated MCP thinking from Anthropic, and had Kenton Varda from cloudflare as a guest to talk about Code Mode, chatted about Windsurf and Cursor latest updates and covered OpenAI's insane deals. Also, because it was a quiet week, I figured I'd use the opportunity to create an AI powered automation, and used N8N for that, and shared it on the stream, so if you're interested in automating with AI with relatively low code, this episode is for you. Let's dive inThursdAI - Recaps of the most high signal AI weekly spaces is a reader-supported publication. To receive new posts and support my work, consider becoming a free or paid subscriber.Kimi K2 Thinking is Here and It's a 1 Trillion Parameter Beast! (X, HF, Tech Blog)Let's start with the news that got everyone's energy levels skyrocketing right as we went live. Moonshot AI dropped Kimi K2 Thinking, an open-source, 1 trillion-parameter Mixture-of-Experts (MoE) model, and it's an absolute monster.This isn't just a numbers game; Kimi K2 Thinking is designed from the ground up to be a powerful agent. With just around 32 billion active parameters during inference, a massive 256,000 token context window, and an insane tool-calling capacity. They're claiming it can handle 200-300 sequential tool calls without any human intervention. The benchmarks are just as wild. On the Humanities Last Exam (HLE), they're reporting a score of 44.9%, beating out both GPT-5 and Claude 4.5 Thinking. While it doesn't quite top the charts on SWE-bench verified, it's holding its own against the biggest closed-source models out there. Seeing an open-source model compete at this level is incredibly exciting.During the show, we saw some truly mind-blowing demos, from a beautiful interactive visualization of gradient descent to a simulation of a virus attacking cells, all generated by the model. The model's reasoning traces, which are exposed through the API, also seem qualitatively different from other models, showing a deep and thoughtful process. My co-hosts and I were blown away. The weights and a very detailed technical report are available on Hugging Face, so you can dive in and see for yourself. Shout out to the entire Moonshot AI team for this incredible release!Other open source updates from this week* HuggingFace released an open source “Smol Training Playbook” on training LLMs, it's a 200+ interactive beast with visualizations, deep dives into pretraining, dataset, postraining and more! (HF)* Ai2 launches OlmoEarth — foundation models + open, end-to-end platform for fast, high-resolution Earth intelligence (X, Blog)* LongCat-Flash-Omni — open-source omni-modal system with millisecond E2E spoken interaction, 128K context and a 560B ScMoE backbone (X, HF, Announcement)Big Tech's Big Moves: Apple, Amazon, and OpenAIThe big companies were making waves this week, starting with a blockbuster deal that might finally make Siri smart. Apple is reportedly will be paying Google around $1 billion per year to license a custom 1.2 trillion-parameter version of Gemini to power a revamped Siri.This is a massive move. The Gemini model will run on Apple's Private Cloud Compute, keeping user data walled off from Google, and will handle Siri's complex summarizer and planner functions. After years of waiting for Apple to make a significant move in GenAI, it seems they're outsourcing the heavy lifting for now while they work to catch up with their own in-house models. As a user, I don't really care who builds the model, as long as Siri stops being dumb!In more dramatic news, Perplexity revealed that Amazon sent them a legal threat to block their Comet AI assistant from shopping on Amazon.com. This infuriated me. My browser is my browser, and I should be able to use whatever tools I want to interact with the web. Perplexity took a strong stand with their blog post, “Bullying is Not Innovation,” arguing that user agents are distinct from scrapers and act on behalf of the user with their own credentials. An AI assistant is just that—an assistant. It shouldn't matter if I ask my wife or my AI to buy something for me on Amazon. This feels like a move by Amazon to protect its ad revenue at the expense of user choice and innovation, and I have to give major props to Perplexity for being so transparent and fighting back.Finally, OpenAI continues its quest for infinite compute, announcing a multi-year strategic partnership with AWS. This comes on top of massive deals with NVIDIA, Microsoft, Oracle, and others, bringing their total commitment to compute into the trillions of dollars. It's getting to a point where OpenAI seems “too big to fail,” as any hiccup could have serious repercussions for the entire tech economy, which is now heavily propped up by AI investment. Sam has clarified that they don't think OpenAI wants to be too big to fail in a recent post on X, and that the recent miscommunications around the US government backstopping OpenAI's infrastructure bailouts were taken out of context.
In honor of National Native American Heritage Month, SWE CEO and Executive Director Karen Horting sits down with Sarah EchoHawk, president and CEO of Advancing Indigenous People in STEM (AISES), to discuss visibility, allyship, and access for Indigenous engineers. Sarah shares her family's deep legacy of public service, the role of tribal colleges in reclaiming education, and how Indigenous knowledge systems — from fire science to environmental stewardship — can help solve global challenges. Plus, hear how employers, educators, and organizations like SWE can strengthen partnerships with AISES to ensure Indigenous voices are included in the future of STEM. — The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Hey, it's Alex! Happy Halloween friends! I'm excited to bring you this weeks (spooky) AI updates! We started the show today with MiniMax M2, the currently top Open Source LLM, with an interview with their head of eng, Skyler Miao, continued to dive into OpenAIs completed restructuring into a non-profit and a PBC, including a deep dive into a live stream Sam Altman had, with a ton of spicy details, and finally chatted with Arjun Desai from Cartesia, following a release of Sonic 3, a sub 49ms voice model! So, 2 interviews + tons of news, let's dive in! (as always, show notes in the end)Hey, if you like this content, it would mean a lot if you subscribe as a paid subscriber.Open Source AIMiniMax M2: open-source agentic model at 8% of Claude's price, 2× speed (X, Hugging Face )We kicked off our open-source segment with a banger of an announcement and a special guest. The new king of open-source LLMs is here, and it's called MiniMax M2. We were lucky enough to have Skyler Miao, Head of Engineering at Minimax, join us live to break it all down.M2 is an agentic model built for code and complex workflows, and its performance is just staggering. It's already ranked in the top 5 globally on the Artificial Analysis benchmark, right behind giants like OpenAI and Anthropic. But here's the crazy part: it delivers nearly twice the speed of Claude 3.5 Sonnet at just 8% of the price. This is basically Sonnet-level performance, at home, in open source.Skylar explained that their team saw an “impossible triangle” in the market between performance, cost, and speed—you could only ever get two. Their goal with M2 was to build a model that could solve this, and they absolutely nailed it. It's a 200B parameter Mixture-of-Experts (MoE) model, but with only 10B active parameters per inference, making it incredibly efficient.One key insight Skylar shared was about getting the best performance. M2 supports multiple APIs, but to really unlock its reasoning power, you need to use an API that passes the model's “thinking” tokens back to it on the next turn, like the Anthropic API. Many open-source tools don't support this yet, so it's something to watch out for.Huge congrats to the MiniMax team on this Open Weights (MIT licensed) release, you can find the model on HF! MiniMax had quite a week, with 3 additional releases, MiniMax speech 2.6, an update to their video model Hailuo 2.3 and just after the show, they released a music 2.0 model as well! Congrats on the shipping folks! OpenAI drops gpt-oss-safeguard - first open-weight safety reasoning models for classification ( X, HF )OpenAI is back on the open weights bandwagon, with a finetune release of their previously open weighted gpt-oss models, with gpt-oss-safeguard. These models were trained exclusively to help companies build safeguarding policies to make sure their apps remains safe! With gpt-oss-safeguards 20B and 120B, OpenAI is achieving near parity with their internal safety models, and as Nisten said on the show, if anyone knows about censorship and safety, it's OpenAI! The highlight of this release is, unlike traditional pre-trained classifiers, these models allow for updates to policy via natural language!These models will be great for businesses that want to safeguard their products in production, and I will advocate to bring these models to W&B Inference soon! A Humanoid Robot in Your Home by 2026? 1X NEO announcement ( X, Order page, Keynote )Things got really spooky when we started talking about robotics. The company 1X, which has been on our radar for a while, officially launched pre-orders for NEO, the world's first consumer humanoid robot designed for your home. And yes, you can order one right now for $20,000, with deliveries expected in early 2026.The internet went crazy over this announcement, with folks posting receipts of getting one, other folks stoking the uncanny valley fears that Sci-fi has built into many people over the years, of the Robot uprising and talking about the privacy concerns of having a human tele-operate this Robot in your house to do chores. It can handle chores like cleaning and laundry, and for more complex tasks that it hasn't learned yet, it uses a teleoperation system where a human “1X Expert” can pilot the robot remotely to perform the task. This is how it collects the data to learn to do these tasks autonomously in your specific home environment.The whole release is very interesting, from the “soft and quiet” approach 1X is taking, making their robot a 66lbs short king, draped in a knit sweater, to the $20K price point (effectively at loss given how much just the hands cost), the teleoperated by humans addition, to make sure the Robot learns about your unique house layout. The conversation on the show was fascinating. We talked about all the potential use cases, from having it water your plants and look after your pets while you're on vacation to providing remote assistance for elderly relatives. Of course, there are real privacy concerns with having a telepresence device in your home, but 1X says these sessions are scheduled by you and have strict no-go zones.Here's my prediction: by next Halloween, we'll see videos of these NEO robots dressed up in costumes, helping out at parties. The future is officially here. Will you be getting one? If not this one, when will you think you'll get one? OpenAI's Grand Plan: From Recapitalization to ASIThis was by far the biggest update about the world of AI for me this week! Sam Altman was joined by Jakub Pachocki, chief scientist and Wojciech Zaremba, a co-founder, on a live stream to share an update about their corporate structure, plans for the future, and ASI goals (Artificial Superintelligence) First, the company now has a new structure: a non-profit OpenAI Foundation governs the for-profit OpenAI Group. The foundation starts with about 26% equity and has a mission to use AI for public good, including an initial $25 billion commitment to curing diseases and building an “AI Resilience” ecosystem.But the real bombshells were about their research timeline. Chief Scientist Jakub Pachocki stated that they believe deep learning systems are less than a decade away from superintelligence (ASI). He said that at this point, AGI isn't even the right goal anymore. To get there, they're planning to have an “AI research intern” by September 2026 and a fully autonomous AI researcher comparable to their human experts by March 2028. This is insane if you think about it. As Yam mentioned, OpenAI is already shipping at an insane speed, releasing Models and Products, Sora, Atlas, Pulse, ChatGPT app store, and this is with humans, assisted by AI. And here, they are talking about complete and fully autonomous researchers, that will be infinitely more scalable than humans, in the next 2 years. The outcomes of this are hard to imagine and are honestly mindblowing. To power all this innovation, Sam revealed they have over $1.4 trillion in obligations for compute (over 30 GW). And said even that's not enough. Their aspiration is to build a “compute factory” capable of standing up one gigawatt of new compute per week, and he hinted they may need to “rethink their robotics strategy” to build the data centers fast enough. Does this mean OpenAI humanoid robots building factories?
This episode is sponsored by Resideo. In this episode, two engineers share how curiosity, empathy, and innovation shape their work creating smart home technologies. Helen Meza, systems integration lead engineer at Resideo, shares her inspiring path from Peru to the U.S. and discusses how she leads global teams with empathy and adaptability. Kyra Neal, mechanical design engineer at Resideo, reflects on how she went from designing 3D printers to designing thermostats and dehumidifiers that make tangible differences in people's lives — and how curiosity played a role in her STEM career. In conversation with Larry Guthrie, director of content strategy at SWE, hear Helen's insights on incorporating cultural awareness into leadership, Kyra's lessons on finding growth through every challenge, and how Resideo fosters an environment where engineers can make an impact. — The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
¿Cómo de buena es la experiencia de cliente #5g en #esp ? Según el último ranking de Opensignal #esp ocupa la posición 41 en el mundo. A bastantes posiciones de los líderes #KOR y #DNK. Pero la respuesta es mucho más complicada siempre. Y eso hacemos hoy en el EP219 de #telco #superligero: mirar los números con cierta profundidad y ordenarlos de alguna manera. La calidad de #experiencia #Móvil a nivel global está dominada por los países #Nórdicos con #DNK, #SWE y #NOR a la cabeza. A continuación, teniendo en cuenta países de superficie grande, encontramos un grupo bastante compacto donde están #ESP y el resto de países #EU4. En esa misma zona podríamos incluir a países como #USA o #JPN y también a #ROU o #POL. Sin embargo, y si se atiende al parámetro clave de la metodología de Opensignal, la consistencia #ESP no ocupa una posición destacada en ese grupo. Tenemos el caso de #GRB que se ha alejado notablemente de las posiciones de los que hasta hace muy poco eran sus pares y que es el único país que está por detrás de #ESP en el ranking y eso nos hace preguntarnos si existe riesgo de que nos ocurra lo mismo.
What is it like to navigate STEM while living with a visible or invisible disability? In this episode, Haylee Mota, a recent engineering graduate who is blind, shares how she found her path to aerospace through robotics, hands-on research, and self-advocacy — overcoming barriers like inaccessible course materials. Angelie Vincent, a mid-career aerospace engineer living with autism, diabetes, and celiac disease, reflects on lessons learned from a late diagnosis, masking in the workplace, and the power of mentorship. In conversation with Jenevieve Surkin, lead of SWE's DisAbility Inclusion Affinity Group (DIAG), hear how universities and workplaces can do better and why requesting accommodations is about creating equal access and opportunity. DIAG was formed to build a supportive, safe community for differently abled/disabled engineers, caregivers, and allies to network and develop themselves professionally. Get involved and find out about upcoming events at sites.swe.org/diag/. — The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Jessica reports LIVE from Jakarta on all the details from day two of women's podium training. World Championships Headquarters Videos, Interviews, Podcasts, Fantasy, Guides Extended Episode + Live Q&A (Members) +30 extra minutes of analysis, behind-the-scenes secret stories, plus member questions. Here's how to ask questions live. Can't make it live? Add Club bonus episodes to your favorite podcast player (instructions here). Chapters 00:00 – Show Intro 01:02 – Zhang Qingying beam world champion prediction 03:00 – FIG Press Conference recap: AI D-scores and visa issue 08:40 – Spencer's updates: where to watch & fantasy game deadlines 11:45 – U.S. Women's Team podium training report (Josc, Skye, Dulcy, Leanne) 17:20 – Can Josc vault? Exclusive Olympic Channel interview 19:45 – Equipment update: white mats and “China mat overlay” 22:10 – Mixed Zone highlights (Malabuyo, South Africa, Asia's coach impression) 25:05 – Italy updates: Perotti, Asia D'Amato, Fioravanti AA potential 29:45 – Melnikova and Russia (AIN) podium impressions 31:30 – Flavia Saraiva's 10.0 leotard and Brazilian updates 33:10 – Funniest & coolest skills of the day (Chile, India, Portugal) 33:55 – BTS Teaser begins 34:00 – Embarrassing moments & Watanabe press conference story 36:40 – Beam fall hilarity (NZL gymnast) 38:15 – Opposite of Canadian medical intervention 40:00 – The great Indonesian tampon saga 42:25 – Sub 4: NZL, LIE, USA, CRO, BAN, GBR, POL 45:10 – Ruby Evans Amanar, GB bars, Alia Leat injury update 47:05 – Sub 5: MAS, SUI, ITA, FRA, VIE, ISL, MAR 49:00 – Thelma's floor, Osyssek's beam, Ming Van Eijken vaults 51:05 – Sub 6: AUS, EGY, BEL, LAT, ROU, MGL, SWE, CRC 53:00 – Voinea full Gothic mode, Golgota AA, Romanian updates 56:20 – Sub 7: INA, TUN, COL, PHI, MEX, SYR 58:00 – Finnegan & Malabuyo AA, Seema Tello debut 1:00:10 – Sub 8: NOR, BRA, QAT, IND, RSA, CHI 1:02:15 – Flavia & Brazil updates, Rooskrantz, Chilean grandmas 1:05:00 – Sub 9: AIN, NAM, POR, THA, BUL, SLO, CMR 1:07:25 – Melnikova Cheng, Cameroon floor joy, AIN medal watch 1:10:10 – Sub 10: ESP, AIN, HUN, HKG, CHN, KZN, CZE 1:12:25 – Zhou Yaqin & Zhang Qingying on beam, Deng Yalan vault 1:15:30 – Alba Petisco all-around standout 1:17:10 – Feedback: listener comments from Dr. Ben & Absolutely Not 1:21:20 – Show Close: Women's qualifying preview & thanks How Do I Watch the Competition? All sessions of the competition will be streamed on Eurovision Sport. Follow along here! Gymnastics Indonesia's YouTube channel will stream all qualification sessions Live scores from the FIG and Swiss Timing Check out NBC's behind-the-scenes mini-doc on the US Women's World Trials Headlines What happened at podium training today? Should we be worried about the US women? From the Olympic Channel: Joscelyn Roberson has been struggling to "find her block" on vault Skye's HUGE front-handspring front on beam Who else from Florida came to join the 2025 World Championships party? Giulia Perotti (Italy) looks ready to win all the medals Who will be the second Italian competing all-around? The D'Amato vs. Fioravanti dilemma Angelina Melnikova is so back How did her vaults look? WE NEED TO TALK ABOUT BRAZIL'S GENIUS LEOS Flavia showed beam and floor - how'd it go? Who wins the award for coolest/best/most fun skill from podium training? What were Jessica's mixed zone highlights? The FIG held a press conference today. What information did we learn? The FIG announced that "spectators will be able to see AI D-scores," but what does this mean? The FIG addressed the visa vs. FIG rules issue. What did FIG president Watanabe have to say? Jakarta Updates GymCastic Updates Subscribe to our YouTube Channel Coming Up 6 days of LIVE podcasts at World Championships in Jakarta Club members get extended coverage and can join us live to ask questions immediately after the meet Play our World Championships Fantasy Game! Win a Club Gym Nerd Scholarship: Go to our Forum > Show Stuff > GymCastic Scholarship We are matching every new sponsorship If you would like access to the club content, but aren't currently in a position to purchase a membership, all you need to do is fill out the form that's linked in our message board If you would also like to sponsor a scholarship, please email editor@gymcastic.com. Thank you! Support Our Work Club Gym Nerd: Join Here Become a Sponsor: GymCastic is matching all donations Nearly 50 scholarships have been awarded so far Learn More Headstand Game: Play Now Forum: Start Chatting Merch: Shop Now Thank you to our Sponsors Gymnastics Medicine Beam Queen Bootcamp's Overcoming Fear Workshop Resources Jakarta schedule & times: See our live podcast times on the Worlds HQ schedule Guides: Download the quick-reference guide on the Jakarta Headquarters page The Balance Beam Situation: Spencer's GIF Code of Points Gymnastics History and Code of Points Archive from Uncle Tim Kensley's men's gymnastics site Neutral Deductions Unlock the Extended Episode Join Club Gym Nerd → Choose a plan Complete checkout — your site account is created. Log in here → /my-account/ Return to this page and refresh. The extended player appears automatically.
Hey folks, Alex here. Can you believe it's already the middle of October? This week's show was a special one, not just because of the mind-blowing news, but because we set a new ThursdAI record with four incredible interviews back-to-back!We had Jessica Gallegos from Google DeepMind walking us through the cinematic new features in VEO 3.1. Then we dove deep into the world of Reinforcement Learning with my new colleague Kyle Corbitt from OpenPipe. We got the scoop on Amp's wild new ad-supported free tier from CEO Quinn Slack. And just as we were wrapping up, Swyx ( from Latent.Space , now with Cognition!) jumped on to break the news about their blazingly fast SWE-grep models. But the biggest story? An AI model from Google and Yale made a novel scientific discovery about cancer cells that was then validated in a lab. This is it, folks. This is the “let's f*****g go” moment we've been waiting for. So buckle up, because this week was an absolute monster. Let's dive in!ThursdAI - Recaps of the most high signal AI weekly spaces is a reader-supported publication. To receive new posts and support my work, consider becoming a free or paid subscriber.Open Source: An AI Model Just Made a Real-World Cancer DiscoveryWe always start with open source, but this week felt different. This week, open source AI stepped out of the benchmarks and into the biology lab.Our friends at Qwen kicked things off with new 3B and 8B parameter versions of their Qwen3-VL vision model. It's always great to see powerful models shrink down to sizes that can run on-device. What's wild is that these small models are outperforming last generation's giants, like the 72B Qwen2.5-VL, on a whole suite of benchmarks. The 8B model scores a 33.9 on OS World, which is incredible for an on-device agent that can actually see and click things on your screen. For comparison, that's getting close to what we saw from Sonnet 3.7 just a few months ago. The pace is just relentless.But then, Google dropped a bombshell. A 27-billion parameter Gemma-based model they developed with Yale, called C2S-Scale, generated a completely novel hypothesis about how cancer cells behave. This wasn't a summary of existing research; it was a new idea, something no human scientist had documented before. And here's the kicker: researchers then took that hypothesis into a wet lab, tested it on living cells, and proved it was true.This is a monumental deal. For years, AI skeptics like Gary Marcus have said that LLMs are just stochastic parrots, that they can't create genuinely new knowledge. This feels like the first, powerful counter-argument. Friend of the pod, Dr. Derya Unutmaz, has been on the show before saying AI is going to solve cancer, and this is the first real sign that he might be right. The researchers noted this was an “emergent capability of scale,” proving once again that as these models get bigger and are trained on more complex data—in this case, turning single-cell RNA sequences into “sentences” for the model to learn from—they unlock completely new abilities. This is AI as a true scientific collaborator. Absolutely incredible.Big Companies & APIsThe big companies weren't sleeping this week, either. The agentic AI race is heating up, and we're seeing huge updates across the board.Claude Haiku 4.5: Fast, Cheap Model Rivals Sonnet 4 Accuracy (X, Official blog, X)First up, Anthropic released Claude Haiku 4.5, and it is a beast. It's a fast, cheap model that's punching way above its weight. On the SWE-bench verified benchmark for coding, it hit 73.3%, putting it right up there with giants like GPT-5 Codex, but at a fraction of the cost and twice the speed of previous Claude models. Nisten has already been putting it through its paces and loves it for agentic workflows because it just follows instructions without getting opinionated. It seems like Anthropic has specifically tuned this one to be a workhorse for agents, and it absolutely delivers. The thing to note also is the very impressive jump in OSWorld (50.7%), which is a computer use benchmark, and at this price and speed ($1/$5 MTok input/output) is going to make computer agents much more streamlined and speedy! ChatGPT will loose restrictions; age-gating enables “adult mode” with new personality features coming (X) Sam Altman set X on fire with a thread announcing that ChatGPT will start loosening its restrictions. They're planning to roll out an “adult mode” in December for age-verified users, potentially allowing for things like erotica. More importantly, they're bringing back more customizable personalities, trying to recapture some of the magic of GPT-4.0 that so many people missed. It feels like they're finally ready to treat adults like adults, letting us opt-in to R-rated conversations while keeping strong guardrails for minors. This is a welcome change, and we've been advocating for this for a while, and it's a notable change from the XAI approach I covered last week. Opt in for adults with verification while taking precautions vs engagement bait in the form of a flirty animated waifu with engagement mechanics. Microsoft is making every windows 11 an AI PC with copilot voice input and agentic powers (Blog,X)And in breaking news from this morning, Microsoft announced that every Windows 11 machine is becoming an AI PC. They're building a new Copilot agent directly into the OS that can take over and complete tasks for you. The really clever part? It runs in a secure, sandboxed desktop environment that you can watch and interact with. This solves a huge problem with agents that take over your mouse and keyboard, locking you out of your own computer. Now, you can give the agent a task and let it run in the background while you keep working. This is going to put agentic AI in front of hundreds of millions of users, and it's a massive step towards making AI a true collaborator at the OS level.NVIDIA DGX - the tiny personal supercomputer at $4K (X, LMSYS Blog)NVIDIA finally delivered their promised AI Supercomputer, and while the excitement was in the air with Jensen hand delivering the DGX Spark to OpenAI and Elon (recreating that historical picture when Jensen hand delivered a signed DGX workstation while Elon was still affiliated with OpenAI). The workstation was sold out almost immediately. Folks from LMSys did a great deep dive into specs, all the while, folks on our feeds are saying that if you want to get the maximum possible open source LLMs inference speed, this machine is probably overpriced, compared to what you can get with an M3 Ultra Macbook with 128GB of RAM or the RTX 5090 GPU which can get you similar if not better speeds at significantly lower price points. Anthropic's “Claude Skills”: Your AI Agent Finally Gets a Playbook (Blog)Just when we thought the week couldn't get any more packed, Anthropic dropped “Claude Skills,” a huge upgrade that lets you give your agent custom instructions and workflows. Think of them as expertise folders you can create for specific tasks. For example, you can teach Claude your personal coding style, how to format reports for your company, or even give it a script to follow for complex data analysis.The best part is that Claude automatically detects which “Skill” is needed for a given task, so you don't have to manually load them. This is a massive step towards making agents more reliable and personalized, moving beyond just a single custom instruction and into a library of repeatable, expert processes. It's available now for all paid users, and it's a feature I've been waiting for. Our friend Simon Willison things skills may be a bigger deal than MCPs!
This episode is sponsored by Draper. How do you know when it's the right moment to make a career change? In this episode, Maureen Masiulis, director of space sensing, domain awareness, and control at Draper and acting vice president and general manager of Draper's Space Systems Business Unit, shares her STEM journey from robotics in middle school to leadership roles in the aerospace and defense industries. In conversation with host Sam East, she reflects on the pivotal moments when she had to decide whether to move on and details how her volunteer experiences within SWE shaped her leadership skills. Hear how Maureen balances career growth with family and personal priorities and why Draper's nonprofit model and programs like Draper Scholars make it a unique place for engineers to grow their careers. ----- The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Join us for a thrilling episode as we sit down with Joshua Amen, a seasoned ghost hunter with over 12 years of spine-chilling paranormal investigations. Joshua has encountered everything from full-body apparitions to inexplicable phenomena that defy explanation. With a scientific approach, Joshua and his team explore whether the tools used in paranormal investigations could influence entities from beyond the veil. Could black light be the key to dispersing malevolent spirits? Joshua also shares a jaw-dropping encounter with a mysterious creature—possibly a werewolf or dogman—that challenges our understanding of the unknown. Dive into his riveting experiences, detailed in his compelling book, Tales from a Ghosthunter: The Collective Stories. https://popl.co/card/6RfQR13p/2/sWe are thrilled to announce the official launch of Let's Get Freaky merchandise! Our collection includes hoodies, t-shirts, mugs, stickers, and more. Explore the full range at http://tee.pub/lic/aQprv54kktw.Do you have a paranormal or extraordinary experience to share? We'd love to hear from you! Contact us to be a guest on the Let's Get Freaky podcast. Email us at letsgetfreakypodcast@mail.com or reach out via social media on Facebook, Instagram, X, TikTok, or YouTube at @tcletsgetfreakypodcast. Connect with us at https://linktr.ee/letsgetfreaky.
Gäster: Agnes Matsdotter, Clara Kristiansen, Isidor Olsbjörk För 90SEK/mån får du 5 avsnitt i veckan:4 Vanliga AMK MORGON + AMK FREDAG med Isak Wahlberg Se till att bli Patron via webben och inte direkt i iPhones Patreon-app för att undvika Apples extraavgifter:Öppna istället din browser och gå till www.patreon.com/amkmorgon Gå och kolla på Clara och Marcus föreställning "Nära Vänner"https://gamang.se/nara-vanner/ Pre-savea Agnes nya låt "Comme ci, comme ça":https://link.ninetone.com/r1qdx6pRelevanta länkar: …Falungonghttps://sv.wikipedia.org/wiki/Falungong …kalsongreklamenhttps://static.bonniernews.se/ba/236a2d88-9897-440d-ad01-c668a10667c7.jpeg?crop=889%2C500%2Cx56%2Cy0&width=1920&auto=webp&enable=upscale …fildrinken på röda husethttps://rodahuset.nu/wp-content/uploads/2025/08/Cocktail-experience_WEB_13aug2025-SWE.pdf …Daniela Rathanahttps://www.instagram.com/danielarathana/ …Yung Leanhttps://sv.wikipedia.org/wiki/Yung_Lean…Östermalmskrogenhttps://www.svt.se/nyheter/lokalt/stockholm/tre-gaster-sjuka-i-sepsis-lyxkrog-pa-ostermalm-stangerLåtarna som spelades var:En natt i Köpenhamn - BAO, Helen Sjöholm, Tommy KörbergJumpin' Jack Flash - The Rolling Stones Alla låtar finns i AMK Morgons spellista här:https://open.spotify.com/user/amk.morgon/playlist/6V9bgWnHJMh9c4iVHncF9j?si=so0WKn7sSpyufjg3olHYmg
Suzanna Valdez Wolfe, CEO of the Society of Hispanic Professional Engineers (SHPE), sits down with Karen Horting, CEO and executive director of the Society of Women Engineers (SWE) in honor of Hispanic Heritage Month. Suzanna shares her journey from El Paso, Texas, to leadership roles in Washington, D.C., and now at SHPE, where she champions familia, community, and belonging in STEM. Hear the unique challenges and opportunities facing Latinas in engineering, the importance of mentorship and leadership development, and how SHPE and SWE are working together to strengthen the STEM pipeline. Plus, explore how advocacy at the local and national levels ensures Hispanic voices are represented in shaping the future of STEM. ----- The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Ken Rosenthal's Bad LookLetter From Beyond The GraveHe Must Be Really Good!TEMU For QB'sWe're Not Doing Stonehenge ToniteWe Talkin' About Practice!About That Injury Report ThingHerm Edwards, Your Rant Is SafeAnother Reason To Loathe The ChiefsA Day Later, SorryDo You Even Kicker, Bro?That Play You Saw? No You Didn'tJoe Burrow To The SlaughterGo To the Game, It'll Be Fun!Cracker Barrell Total Surrender!Our Sponsors:* Check out Hims: https://hims.com/CZABE* Check out Indeed: https://indeed.com/CZABEAdvertising Inquiries: https://redcircle.com/brandsPrivacy & Opt-Out: https://redcircle.com/privacy
Kelsea Fitzgerald, director of operations at Chevron's Engineering and Innovation Excellence Center (ENGINE), shares her journey from studying chemical engineering in the U.S. to taking on a global leadership role in Bengaluru, India. In conversation with Larry Guthrie, director of content strategy at SWE, Kelsea encourages women and allies to build self-trust by taking uncomfortable steps out of their comfort zones. Plus, hear what Kelsea loved the most about WE Local Bengaluru, including moderating a panel on self-trust and finding a sense of community with new STEM connections. WE Local conferences events bring together engineers and technologists of all genders for professional development sessions, networking opportunities, and inspirational speakers. Find the next WE Local conference near you at welocal.swe.org ----- The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Join us in this exciting episode of The Edge of Show as we dive deep into the world of Bitcoin DeFi with two industry leaders: MacLane Wilkison, co-founder and CEO of Threshold Labs, and Jameel Khalfan, head of ecosystem development at Sui Foundation.In this episode, we explore:The transformative potential of TBDC (Threshold Bitcoin Decentralized Currency) and how it is powering Bitcoin's breakout moment on the SWE ecosystem.The rapid evolution of Bitcoin DeFi and the seamless bridging and yield strategies that are emerging.Insights into the future of Bitcoin as a dynamic financial asset and its role in the broader DeFi landscape.Discover how the integration of Bitcoin with decentralized finance is reshaping the financial ecosystem, making it more accessible and user-friendly. We also discuss the importance of security, liquidity, and the collaborative efforts between Threshold and SWE to foster innovation and growth in the Bitcoin space.Whether you're a seasoned crypto enthusiast or just starting your journey, this episode is packed with valuable insights and exciting developments in the world of Bitcoin and DeFi.Don't forget to like, subscribe, and hit the notification bell to stay updated on our latest episodes!Support us through our Sponsors! ☕
This episode is sponsored by Jabil. Cassie Gruber, director of sustainability business solutions at Jabil, explores how engineers can shape a more sustainable future in this episode of Diverse. In conversation with Larry Guthrie, director of content strategy at SWE, Cassie explores her unconventional career path from studying art and philosophy to leading global sustainability strategies in manufacturing. Hear the biggest sustainability challenges she is seeing across 16 sectors, the importance of collaboration in the circular economy, and why Jabil is a unique place for engineers to grow and thrive in their careers. ----- The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
• Crustacean talk kicks things off with crawfish boils described as eating cockroaches from ditches while Ross discovers Virginia Beach crab cakes the size of baseballs with zero filler that make landlocked Chicagoland versions look like sad breadcrumb sandwiches• Colton finally pulls the trigger on shop electricity after writing Centerpoint a check though the five to eight week wait has him considering temporary power solutions while exploring contractor work with SWE homes and reconnecting with Rick who just dropped thirteen grand on a laser cleaning machine that can strip paint off drywall across the room• Poison ivy becomes the episode villain attacking Colton in places that shall remain nameless while he channels his grief into songwriting for his grandfather's funeral using Zach Bryan melodies to capture fishing memories and family time themes• Jess returns from New Jersey family time with shirt printing machine connections before discovering his concrete removal nightmare doubled when plumbers demanded another trench for proper drainage while juggling work from home customers who freak out about power outages during electrical upgrades• Built-in cabinet designs meet reality when expensive plantation shutters don't fit the new configuration forcing difficult conversations about seven thousand dollar window treatments versus custom cabinetry dreams while Ashley handles the growing bid workload with professional scripts• Trailer organization becomes an art form as Jess transforms his twenty-four foot beast into a mobile workshop complete with electric jack systems and custom shelving that required cutting sixty-seven degree angles his chop saw couldn't handle until he got creative with wedge blocks• Ross tackles rolling jewelry cabinet construction with locking mechanisms and removable glass tops while figuring out battery-powered LED lighting systems that need magnetic mounting solutions for portable display cases that can roll around retail spaces• Work truck history spans from horse-drawn wagons to Model T runabouts revealing that pickup truck terminology originated in nineteen twenty-five when Ford first offered factory-installed beds instead of chassis-only sales requiring custom carpenter-built wooden cargo areas• Electric vehicle debates explore charging infrastructure challenges and carbon capture gasoline production while non-alcoholic beer production gets explained through fermentation timing and dilution techniques for those maintaining sobriety goals during business building phases• Workshop nuggets include motion-sensor LED strips that charge via USB-C for trailer lighting systems plus Kreg jig depth adjustments for thinner plywood that prevents screw blowout while LED strip connectors save the day when expensive light installations get damaged during installation
In honor of the 10th anniversary of SWENext, this episode of Diverse brings a special mother-daughter conversation. Bharti B., operations manager at Keysight Technologies, reflects on what it was like to be one of the few women in her computer science classes growing up. Aavya B., who is a SWENext influencer as well as Bharti's daughter, shares how she's carrying that legacy forward by founding the first SWENext Club in India and pursuing her dream of becoming a biomedical engineer. In conversation with Sam East, Bharti and Aavya discuss how opportunities for girls in engineering have evolved, the power of role models, and the unique bond that comes from sharing a STEM passion across generations. Know a precollege kid interested in STEM? Join SWENext, the Society's free program that allows students ages 5 through 18 to join the SWE engineering and technology community! Learn more and get involved at swe.org/outreach/swenext/ --- The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
Transitioning from college to the professional world can be difficult, especially when it comes to growing your network and making friends as an adult. Maria Roma-Hossain, systems engineer at Mammotome, shares her personal experience of navigating the college-to-career transition and making meaningful connections in a new city in this episode. In conversation with Sam East, hear how to put yourself out there, whether coworkers should ever become your friends, and how employee resource groups and SWE sections are fostering belonging for women engineers. --- The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Our 216th episode with a summary and discussion of last week's big AI news! Recorded on 07/11/2025 Hosted by Andrey Kurenkov and Jeremie Harris. Feel free to email us your questions and feedback at contact@lastweekinai.com and/or hello@gladstone.ai Read out our text newsletter and comment on the podcast at https://lastweekin.ai/. In this episode: xAI launches Grok 4 with breakthrough performance across benchmarks, becoming the first true frontier model outside established labs, alongside a $300/month subscription tier Grok's alignment challenges emerge with antisemitic responses, highlighting the difficulty of steering models toward "truth-seeking" without harmful biases Perplexity and OpenAI launch AI-powered browsers to compete with Google Chrome, signaling a major shift in how users interact with AI systems Meta study reveals AI tools actually slow down experienced developers by 20% on complex tasks, contradicting expectations and anecdotal reports of productivity gains Timestamps + Links: (00:00:10) Intro / Banter (00:01:02) News Preview Tools & Apps (00:01:59) Elon Musk's xAI launches Grok 4 alongside a $300 monthly subscription | TechCrunch (00:15:28) Elon Musk's AI chatbot is suddenly posting antisemitic tropes (00:29:52) Perplexity launches Comet, an AI-powered web browser | TechCrunch (00:32:54) OpenAI is reportedly releasing an AI browser in the coming weeks | TechCrunch (00:33:27) Replit Launches New Feature for its Agent, CEO Calls it ‘Deep Research for Coding' (00:34:40) Cursor launches a web app to manage AI coding agents (00:36:07) Cursor apologizes for unclear pricing changes that upset users | TechCrunch Applications & Business (00:39:10) Lovable on track to raise $150M at $2B valuation (00:41:11) Amazon built a massive AI supercluster for Anthropic called Project Rainier – here's what we know so far (00:46:35) Elon Musk confirms xAI is buying an overseas power plant and shipping the whole thing to the U.S. to power its new data center — 1 million AI GPUs and up to 2 Gigawatts of power under one roof, equivalent to powering 1.9 million homes (00:48:16) Microsoft's own AI chip delayed six months in major setback — in-house chip now reportedly expected in 2026, but won't hold a candle to Nvidia Blackwell (00:49:54) Ilya Sutskever becomes CEO of Safe Superintelligence after Meta poached Daniel Gross (00:52:46) OpenAI's Stock Compensation Reflect Steep Costs of Talent Wars Projects & Open Source (00:58:04) Hugging Face Releases SmolLM3: A 3B Long-Context, Multilingual Reasoning Model - MarkTechPost (00:58:33) Kimi K2: Open Agentic Intelligence (00:58:59) Kyutai Releases 2B Parameter Streaming Text-to-Speech TTS with 220ms Latency and 2.5M Hours of Training Research & Advancements (01:02:14) Does Math Reasoning Improve General LLM Capabilities? Understanding Transferability of LLM Reasoning (01:07:58) Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity (01:13:03) Mitigating Goal Misgeneralization with Minimax Regret (01:17:01) Correlated Errors in Large Language Models (01:20:31) What skills does SWE-bench Verified evaluate? Policy & Safety (01:22:53) Evaluating Frontier Models for Stealth and Situational Awareness (01:25:49) When Chain of Thought is Necessary, Language Models Struggle to Evade Monitors (01:30:09) Why Do Some Language Models Fake Alignment While Others Don't? (01:34:35) Positive review only': Researchers hide AI prompts in papers (01:35:40) Google faces EU antitrust complaint over AI Overviews (01:36:41) The transfer of user data by DeepSeek to China is unlawful': Germany calls for Google and Apple to remove the AI app from their stores (01:37:30) Virology Capabilities Test (VCT): A Multimodal Virology Q&A Benchmark
On July 1, 2025, Inaas Darrat assumes the role of president of the Society of Women Engineers (SWE), concluding Karen Roth's one-year term as SWE president. In this special episode, Karen shares her personal highlights from the past year, insights on how the theme of “Together We Rise” came to life during her presidency, and words of advice for Inaas as she steps into the role. Inaas introduces the FY26 theme of “Embrace Your Story” and reflects on the key pivots throughout her own engineering journey, along with her goals for the upcoming year as SWE president.
What's it really like to study engineering at a community college, and where can that path take you? Denise Grazielle Cruz, SWE collegiate member at Essex County College, and Maeliz Colon, SWE counselor for the Springfield Technical Community College SWE Affiliate, discuss their STEM experiences at community colleges with SWE President Karen Roth. Hear why they chose the community college path, the stigmas and misperceptions they experienced along the way, advice for women studying engineering, and reflections on how to grow participation within SWE Affiliates at community colleges. --- The Society of Women Engineers is a powerful, global force uniting 50,000 members of all genders spanning 85 countries. We are the world's largest advocate and catalyst for change for women in engineering and technology. To join and access all the exclusive benefits to elevate your professional journey, visit membership.swe.org.
Guest: David French, Staff Adoption Engineer, Google Cloud Topic: Detection as code is one of those meme phrases I hear a lot, but I'm not sure everyone means the same thing when they say it. Could you tell us what you mean by it, and what upside it has for organizations in your model of it? What gets better for security teams and security outcomes when you start managing in a DAC world? What is primary, actual code or using SWE-style process for detection work? Not every SIEM has a good set of APIs for this, right? What's a team to do in a world of no or low API support for this model? If we're talking about as-code models, one of the important parts of regular software development is testing. How should teams think about testing their detection corpus? Where do we even start? Smoke tests? Unit tests? You talk about a rule schema–you might also think of it in code terms as a standard interface on the detection objects–how should organizations think about standardizing this, and why should they? If we're into a world of detection rules as code and detections as code, can we also think about alert handling via code? This is like SOAR but with more of a software engineering approach, right? One more thing that stood out to me in your presentation was the call for sharing detection content. Is this between vendors, vendors and end users? Resources: Can We Have “Detection as Code”? Testing in Detection Engineering (Part 8) “So Good They Can't Ignore You: Why Skills Trump Passion in the Quest for Work You Love” book EP202 Beyond Tiered SOCs: Detection as Code and the Rise of Response Engineering EP181 Detection Engineering Deep Dive: From Career Paths to Scaling SOC Teams EP123 The Good, the Bad, and the Epic of Threat Detection at Scale with Panther Getting Started with Detection-as-Code and Google SecOps Detection Engineering Demystified: Building Custom Detections for GitHub Enterprise From soup to nuts: Building a Detection-as-Code pipeline David French - Medium Blog Detection Engineering Maturity Matrix
1. Past the Mission (10 October 2001 - New York, NY) 2. Way Down (16 December 2011 - Oakland, CA) 3. Sweet Dreams (28 September 2001 - West Palm Beach, FL) 4. Secret Spell (1 August 2015 - Stockholm, SWE) 5. Mountain (19 November 2017 - Denver, CO) 6. Glory of the 80's (18 August 1999 - Fort Lauderdale, FL) 7. Heart of Gold (27 June 2007 - Graz, AUS) 8. Strange Little Girl (27 July 2003 - Eugene, OR) 9. The Place / Crucify (20 January 2003 - Rotterdam, NET) 10. Tear In Your Hand (8 June 1998 - Berlin, GER) 11. Goodbye Improv (28 September 2007 - Perth, AUS) 12. Ribbons Undone (5 May 2014 - Cork, IRE) 13. Ophelia (17 December 2011 - Los Angeles, CA) 14. Climb (1 October 2017 - Vienna, AUS) 15. Cooling (23 October 1996 - Miami, FL) 16. Almost Rosey (27 October 2017 - Chicago, IL) 17. Gold Dust (1 August 2009 - Washington, DC)
Kaitlin makes a bold financial call…peanut butter is officially cut from the budget. We get nostalgic about old-school church hymns and ruin a big SWE secret. Kaitlin opens up about her phobia of jelly. CHICK-FIL-A SAUCE. Kaitlin discovers Scott's hoarder closet, but Scott comes prepared with a defense. Emily needs a step stool to get into bed. Kaitlin tries (and fails) to understand tax write-offs. We rank our favorite haircuts and play a round of “What movie character would you be?” Somehow Kaitlin lands on…well, you'll see. Follow SWE on Insta → @so.what.else Follow Kaitlin on Insta → @kaitlingraceelliott SWE Website
SWe finally have some spare time, to do what we think is important.
The AI Breakdown: Daily Artificial Intelligence News and Discussions
A flood of major AI updates is right around the corner. New models from Anthropic, OpenAI's autonomous coding agent Codex, Windsurf's SWE-1 for end-to-end software engineering, and changes at Salesforce and Walmart all point to a massive shift.Get Ad Free AI Daily Brief: https://patreon.com/AIDailyBriefBrought to you by:KPMG – Go to https://kpmg.com/ai to learn more about how KPMG can help you drive value with our AI solutions.Blitzy.com - Go to https://blitzy.com/ to build enterprise software in days, not months Vertice Labs - Check out http://verticelabs.io/ - the AI-native digital consulting firm specializing in product development and AI agents for small to medium-sized businesses.The Agent Readiness Audit from Superintelligent - Go to https://besuper.ai/ to request your company's agent readiness score.The AI Daily Brief helps you understand the most important news and discussions in AI. Subscribe to the podcast version of The AI Daily Brief wherever you listen: https://pod.link/1680633614Subscribe to the newsletter: https://aidailybrief.beehiiv.com/Join our Discord: https://bit.ly/aibreakdownInterested in sponsoring the show? nlw@breakdown.network
Baby Norah has finally arrived! Matt and Emily recount all the wild, emotional, and chaotic details of Baby Norah's grand entrance into the world. Plus, Norah makes her podcast debut by contributing some of her own sound effects to the story. Welcome to the SWE chaos, baby girl. Follow SWE on Insta → @so.what.else Follow Kaitlin on Insta → @kaitlingraceelliott SWE Website
You've heard this one before: the sexiest quality in the world is confidence. And that's true...but...it's not always easy to muster. Confidence is an inside job, but here's the good news. Once you generate it on your own terms, life - and sex - gets a whole lot easier. So on today's Ask Emily show, I'm joined by my dear friend and former co-host Menace from The Woody Show, as we talk confidence, jealousy, What happens when you adore your partner, but can't stop thinking about their high body count? Or want to have hot phone sex, but don't know where to start? We talk through both. How about when you feel too short to find a great partner, or don't know how to be dominant in bed? We help you think through both. Finally: discovering your partner's can of delay spray. Our listener wonders whether he's sleeping with someone else; we think it's time for open communication. For their buy 1 get 1 50% off deal, head to 3DayBlinds.com/SWE. . Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
We're back for another AITA episode! This time it's all about sexual mismatches. First: they've got a 12-year age difference, and she suspects his sex drive is dwindling. She doesn't want to cheat, but she also wants more sex…what now? Next, he wants sex for pleasure, she was raised to do it only for procreation. Is there any way to meet in the middle? A self-professed "pillow princess" writes in, is she the asshole for wanting to receive pleasure – but not give it? Finally, they're in a dead bedroom of 10 years. “She's repulsed by my touch” he writes, but is he really asserting himself to make healthy changes? You decide For their buy 1 get 1 50% off deal, head to 3DayBlinds.com/SWE. . Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
Ever wondered: Am I the asshole for watching porn without my partner knowing? Am I the asshole for feeling a little misled about our sex life before we walked down the aisle? Or how about: Am I the asshole for just feeling plain bored with our sex life? You're not alone. Today, Producer Erica and I read your AITA questions and let you know if you're approaching asshole territory. In today's episode, you'll learn: How to be a supportive partner to someone with sexual trauma How to get clearer on your sexual desires About the experiences of sex workers Show Notes: Try OSEA Today! Get 10% off your first order sitewide with code SWE at OSEAMalibu.com Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
The Sex With Emily Hotline is open! On this episode, I'm joined by my Producer, Erica, as we talk about disappearing erections, prostate massages, and so much more. First, what do you do when your partner has health issues that cause them to lose their erections? I give one caller ideas for how to work around this issue and thoughts on what might be causing it in the first place. Next, why don't couples fantasize together more often? A couple calls in to share their sexual fantasies, and we give you inspo on how to do the same with your partner. When your partner wants a prostate massage, how do you pull it off? I tell you what to feel for, how to apply pressure and fun toys you can use. Finally, when your partner has never had an orgasm before, how can you help? And should you? In this episode, you'll learn: Why erectile challenges aren't just about the penis—and how you can spice things up while finding solutions How to co-create fantasies with your partner for hotter, more connected sex The secret to unlocking prostate pleasure (and why so many men are missing out) Show Notes: Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Head to MarleySpoon.com/offer/swe and use code SWE for up to 27 FREE meals! Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
Two of your most powerful sex accessories? Your hands. Hands set the tone of your sexual energy. For example, caressing their cheek while you make out versus pinning their hands down while you have sex. And while we talk a lot about what to do with our mouths or genitals on this show, today I'm focusing on a lost art: hand play. Specifically, how to finger, give a hand job, and use your hands with sexual intention. Today, my Producer, Erica, and I first share how to penetrate a vulva with your fingers. We give you tricks to stimulate the labia and clitoris, different forms of pressure and touch, and how to find the G-spot when you finger. Next, we give the penis some love with hand job techniques and upgrades like toy play and perineum stimulation. Finally, we discuss secondary erogenous zones and answer your hand play questions. In this episode, you'll learn: Why hand play—fingering and handjobs—is the underrated pleasure tool you need to master. How to turn up the heat with expert hand techniques for both vulvas and penises. The secret to making manual stimulation feel even better than penetrative sex. Show Notes: Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Try Nutrafol Today! Head to Nutrafol.com and use code "SWE" at checkout for $10 off your first month's subscription and free shipping. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
Dating as an adult is exhausting. While experience comes with age, actually applying that experience is easier said than done…even for professionals. With me today are two therapy professionals who also happen to be partners: John Kim and Vanessa Bennett. Their book “It's Not Me, It's You” offers an anecdotal road map of how to “relationship better,” from overcoming commitment issues, to fanning the sex flames, to breaking the blame cycle. John and Vanessa expertly dissect their own relationship to inspire us to create healthy bonds with the people we love. Listen to learn why “the one” is a myth, how to wean ourselves off codependency and how to replace obligatory sex with erotic collaboration. In this episode, you'll learn: Why “The One” is a myth and what actually makes relationships last How to turn obligatory sex into erotic collaboration The secret to avoiding resentment before it ruins your connection Show Notes: More John Kim: Instagram | Website | Book More Vanessa Bennett: Instagram | Website | Book How to Have the Best Sex of Your Life in 2025- Sign up for my FREE masterclass today! For their buy 1 get 1 50% off deal, head to 3DayBlinds.com/SWE. Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
When you're not turned on by your partner, should you open the relationship? What does it mean when they don't finish during sex? In today's Hotline Calls episode, I'm taking all your pressing sex questions. First, when you want to bring sex toys and lube into the bedroom, but your partner is firmly opposed…what now? I offer communication tips to help bring down defenses. Next, when you're loving sex with your partner but they never orgasm, is that a cause for concern? I talk about delayed ejaculation and why it happens. We also get into non-monogamy: when you're not turned on by your partner, should you open up the relationship? Or is a different, deeper conversation needed? Finally, when you're happily hooking up, how do you keep casual sex from turning into serious relationships? In this episode, you'll learn: Why performative sex is killing your pleasure—and how to stop. How to ditch “porn mode” and tap into real turn-ons. The secret to being fully present (and having better orgasms). Show Notes: To get 6 bottles of wine for $39.99, head to NakedWines.com/SWE and use code SWE for both the code AND PASSWORD. Description automatically generatedSex New Paperback Cover Now! Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
We all experience performance anxiety in bed from time to time. We get in our heads, we worry we're not hot / good / skilled enough, and sometimes we try to be people we're not during sex. That's why today's episode is about identifying different types of performance anxiety, so that we can show up more confident and relaxed for sex. First I talk through O-blockers: common reasons your orgasm and overall pleasure hit a limit. Next I bring up popular “personas” people adopt in bed, like the cool girl/guy who's down for whatever (even when you're actually not) and the super dominant, in-charge lover (even when you're actually more submissive). Finally, I give you strategies to increase your sexual confidence and take all of your sexual anxiety questions. In this episode, you'll learn: Why performative sex is killing your pleasure—and how to stop. How to ditch “porn mode” and tap into real turn-ons. The secret to being fully present (and having better orgasms). Show Notes: For a limited time, Nutrafol is offering $10 off your first month's subscription and free shipping when you go to Nutrafol.com and enter the promo code SWE. Buy The Smart Sex New Paperback Cover Now! Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
There's no such thing as an “easy life” which is why it's SO important to develop the right tools to help you handle everyday chaos. Today, I'm talking with Tal Rabinowitz who's helping people around the world learn to find calm in their daily commotion with her company The DEN Meditation. She gives tips for beginners who've never tried calming their minds and shares how meditation can totally change your outlook on your relationship. We also talk about judgment, specifically how you can stop labeling everything as ‘bad' or ‘good' and simply let things be what they are. It's 2025—and time to meditate, masturbate, and manifest for a better year. In this episode, you'll learn: How meditation can transform your relationship—See your partner clearly and stop the blame game. Why chaos is personal—and powerful—Own it, don't let it own you. The magic of breath—Calm your mind, spark your pleasure. Show Notes: More Tal Rabinowitz & The DEN Meditation: Website | YouTube | Facebook | Instagram | Tal's Instagram Head to MarleySpoon.com/OFFER/SWE and use code SWE for up to 27 FREE meals! Buy The Smart Sex New Paperback Cover Now! Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
Logan Ury, the author of How to Not Die Alone and director of Relationship Science at Hinge, joins me to share her best tips for all things dating. Logan provides practical tips for avoiding dating blindspots, the drawbacks of unrealistic expectations, and algorithms to live by for finding a satisfying relationship. We discuss how ‘dealbreakers' may be an excuse for avoiding connection, how attachment styles affect our dating outcomes, the paradox of choice in the dating world, and how to get out of the checklist mindset. She also breaks down the most common dating tendencies, shares strategies behind making the best decisions, explains why ‘the spark' may be B.S., and even offers how-to advice for creating a powerful dating profile. Even if you're not dating, you will learn techniques that will strengthen all your relationships. In this episode, you'll learn: Why the spark is total BS—and what actually makes a relationship last How your dating type (romanticizer, maximizer, or hesitator) is messing with your love life The secret to making better choices in dating—so you can finally find your person Show Notes: More Logan Ury: Instagram | Twitter | Website For their buy 1 get 1 50% off deal, head to 3DayBlinds.com/SWE. To get 6 bottles of wine for $39.99, head to NakedWines.com/SWE and use code SWE for both the code AND PASSWORD. Buy Smart Sex New Paperback Cover Now! Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
I've heard from a lot of my listeners that they struggle with talking dirty in the bedroom. Today I'm joined by porn star, author, exotic dancer, and dirty talk expert Joanna Angel to break down what to say, how to start if you've never tried it and how to crank your dirty talk up from dusty to undeniably filthy. In this episode, you'll learn: Dirty talk made easy with simple tips to start and spice it up without feeling awkward Sexting secrets to tease, turn on, and build anticipation like a pro Confidence in the bedroom by owning your desires and feeling empowered in and out of bed Show Notes: More Joanna Angel: Linktree | Instagram | Twitter | Book To get 6 bottles of wine for $39.99, head to NakedWines.com/SWE and use code SWE for both the code AND PASSWORD. Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com
Jenny Mollen is the author of City of Likes, a fictional comedy about mommy influencer culture and the intensity of female friendships – especially when one of them is a narcissist. Are they obsessed with each other? Do they want to have sex with each other? And what do you do when someone's perfectly-curated facade finally cracks? Jenny and I met years ago, and I know you'll love her just as much as I do. Besides being a bestselling author, she's also an actor, a mom, and wife to actor Jason Biggs. In this episode, she talks about the personal experiences with social media that inspired her book, why she wants to see a sex therapist, and helps me answer your sex and relationship questions. For example, if you're in a relationship, is it ok to comment on someone else's Instagram telling them how attractive they are? Jenny and I give it to you straight. In this episode, you'll learn: How to navigate the tricky relationship dynamics of long-term partnerships and social media. Why laughter and authenticity are key to maintaining intimacy over the years. The surprising connections between personal vulnerability, desire, and self-discovery. Show Notes: More Jenny Mollen: Instagram | Twitter | Facebook | Website Jenny Mollen's Books For their buy 1 get 1 50% off deal, head to 3DayBlinds.com/SWE. Join the SmartSX Membership: Access exclusive sex coaching, live expert sessions, community building, and tools to enhance your pleasure and relationships with Dr. Emily Morse. Yes! No! Maybe? List & Other Sex With Emily Guides: Explore pleasure, deepen connections, and enhance intimacy using these Sex With Emily downloadable guides. SHOP WITH EMILY! (free shipping on orders over $99) The only sex book you'll ever need: Smart Sex: How to Boost Your Sex IQ and Own Your Pleasure Want more? Visit the Sex With Emily Website Let's get social: Instagram | X | Facebook | TikTok | Threads | YouTube Let's text: Sign up here Want me to slide into your email inbox? Sign Up Here for sex tips on the regular. See the full show notes at sexwithemily.com