Podcasts about capacit

  • 672PODCASTS
  • 1,387EPISODES
  • 22mAVG DURATION
  • 5WEEKLY NEW EPISODES
  • Dec 1, 2025LATEST

POPULARITY

20172018201920202021202220232024

Categories



Best podcasts about capacit

Latest podcast episodes about capacit

Estelle Midi
La colère du jour – Fred Hermel, chroniqueur : "La France a une capacité à se détruire qui est incroyable ! Continuez... écoutez les écolos, faites crever tout le monde" - 01/12

Estelle Midi

Play Episode Listen Later Dec 1, 2025 1:38


Avec : Carine Galli, journaliste. Élise Goldfarb, entrepreneure. Et Frédéric Hermel, journaliste RMC. - Accompagnée de Charles Magnien et sa bande, Estelle Denis s'invite à la table des français pour traiter des sujets qui font leur quotidien. Société, conso, actualité, débats, coup de gueule, coups de cœurs… En simultané sur RMC Story.

Parentalité et Adolescence
REDIFFUSION 213. Comment accompagner son ado qui doute de ses capacités ?

Parentalité et Adolescence

Play Episode Listen Later Nov 28, 2025 25:49


À l'adolescence, il est courant de voir des jeunes manquer de confiance en eux, hésiter sur leur choix ou se sentir incapables de réussir. Ce doute peut avoir plusieurs origines : le regard des autres, l'école, la peur de l'échec… Pourtant, il existe des clés pour les aider à surmonter ces blocagesPour nous éclairer sur ce sujet, j'ai le plaisir d'accueillir Marie Sophie Gauthier, coach professionnelle, certifiée RNCP, et consultante en évolution et orientation pour les 15 - 25 ans. Ensemble, nous allons voir pourquoi certains adolescents doutent d'eux-mêmes, comment les accompagner au quotidien, et quelles solutions concrètes existent pour renforcer leur confiance. Bonne écoute.Ressources cités dans l'épisode : Podcast "Nouvel Oeil " par Victoria GuillomonWilbi : https://wilbi-app.com/Parcours métiers : https://www.parcoursmetiers.tv/Documentaire d'Inoxtag, Kaizen

NBA Extra
INTERVIEW - Sidy Cissoko : "Je peux enfin montrer mes capacités"

NBA Extra

Play Episode Listen Later Nov 26, 2025 10:50


Arrivé l'hiver dernier à Portland, Sidy Cissoko s'est relancé chez les Blazers depuis le début de saison. En intégrant même le cinq de départ grâce aux blessures de certains joueurs de l'effectif, l'ancien des Spurs a enfin du temps de jeu dans la Ligue.Sa place dans la rotation de Portland, l'arrestation de son entraîneur Chauncey Billups, son avenir en Equipe de France : l'ailier de 21 ans, repositionné meneur de jeu dans l'Oregon, a répondu aux questions de NBA Extra.Par Rémi Reverchon.Jacques Monclar, Rémi Reverchon, Mary Patrux, Xavier Vaution, Fred Weis et Chris Singleton décryptent l'actualité de la NBA dans le Podcast NBA Extra, présenté par Nicolas Sarnak et Baptiste Denis.En complément de l'émission lancée en 2012, beIN SPORTS a créé, avec ce podcast, un nouveau format pour revenir en profondeur sur la ligue nord-américaine de basketball. Chaque semaine, les membres de l'émission débattent autour de trois thèmes majeurs, qui font l'actualité de la NBA.Un podcast à retrouver aussi sur Youtube : https://tinyurl.com/y4sabkns Hébergé par Audion. Visitez https://www.audion.fm/fr/privacy-policy pour plus d'informations.

Le Réveil Chérie
Pleurer devant un film signifie que ton cerveau possède une très forte capacité émotionnelle ! - Quoi de neuf, Tiffany ?

Le Réveil Chérie

Play Episode Listen Later Nov 26, 2025 1:46


Tous les matins, à 6h10 et 6h50 sur Chérie FM, Tiffany Bonvoisin nous présente une info qui l''a marquée !

Un passo al giorno
496 - Come nasce la fiducia nelle tue capacità

Un passo al giorno

Play Episode Listen Later Nov 24, 2025 8:02


Credere di potercela fare cambia il modo in cui facciamo le cose. In questa puntata parliamo di autoefficacia e di una delle sue fonti più potenti: osservare qualcuno che ci somiglia fare un passo che vorremmo fare anche noi. Vedremo perché certi modelli ci scoraggiano, altri ci motivano, e come scegliere le persone giuste da osservare può trasformare ciò che pensi possibile per te. Alla fine ti lascerò una domanda semplice ma decisiva: chi stai guardando per capire cosa puoi diventare? Learn more about your ad choices. Visit megaphone.fm/adchoices

Jeff RadioPirate Live
DOLLAR QUÉBÉCOIS: « LE QUÉBEC N'A PAS PROUVÉ SA CAPACITÉ À GÉRER SA PROPRE MONNAIE » -JO HAMEL

Jeff RadioPirate Live

Play Episode Listen Later Nov 22, 2025 48:35


Jeff Fillion et Jo Hamel expliquent pourquoi le Québec n'est pas encore prêt à commencer penser gérer sa propre monnaie et que promesses du Parti Québécois de Paul St-Pierre Plamondon manquent de crédibilité. Enregistré à RadioPirate le 18 novembre 2025. Learn more about your ad choices. Visit megaphone.fm/adchoices

Culture en direct
Critique disque : Avec "Lux", Rosalía confirme une capacité de réinvention hors norme

Culture en direct

Play Episode Listen Later Nov 21, 2025 14:40


durée : 00:14:40 - Les Midis de Culture - par : Marie Labory - Avec "Lux", Rosalía signe un album audacieux et spirituel où orchestre, chœurs et influences religieuses se mêlent pour explorer la transformation et le sacré. Composé en plusieurs mouvements et chanté dans de nombreuses langues, ce nouveau projet révèle une artiste en pleine mue créative. - réalisation : Laurence Malonda - invités : Zoé Sfez Productrice de La Série musicale sur France Culture; Olivier Lamm Journaliste et critique à Libération

Les Cast Codeurs Podcast
LCC 332 - Groquik revient, Emmanuel s'en va

Les Cast Codeurs Podcast

Play Episode Listen Later Nov 18, 2025 92:07


Dans cet épisode, Emmanuel, Katia et Guillaume discutent de Spring 7, Quarkus, d'Infinispan et Keycloak. On discute aussi de projets sympas comme Javelit, de comment démarre une JVM, du besoin d'argent de NTP. Et puis on discute du changement de carrière d'Emmanuel. Enregistré le 14 novembre 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-332.mp3 ou en vidéo sur YouTube. News Emmanuel quitte Red Hat après 20 ans https://emmanuelbernard.com/blog/2025/11/13/leaving-redhat/ Langages Support HTTP/3 dans le HttpClient de JDK 26 - https://inside.java/2025/10/22/http3-support/ JDK 26 introduit le support de HTTP/3 dans l'API HttpClient existante depuis Java 11 HTTP/3 utilise le protocole QUIC sur UDP au lieu de TCP utilisé par HTTP/2 Par défaut HttpClient préfère HTTP/2, il faut explicitement configurer HTTP/3 avec Version.HTTP_3 Le client effectue automatiquement un downgrade vers HTTP/2 puis HTTP/1.1 si le serveur ne supporte pas HTTP/3 On peut forcer l'utilisation exclusive de HTTP/3 avec l'option H3_DISCOVERY en mode HTTP_3_URI_ONLY HttpClient apprend qu'un serveur supporte HTTP/3 via le header alt-svc (RFC 7838) et utilise cette info pour les requêtes suivantes La première requête peut utiliser HTTP/2 même avec HTTP/3 préféré, mais la seconde utilisera HTTP/3 si le serveur l'annonce L'équipe OpenJDK encourage les tests et retours d'expérience sur les builds early access de JDK 26 Librairies Eclispe Jetty et CometD changent leurs stratégie de support https://webtide.com/end-of-life-changes-to-eclipse-jetty-and-cometd/ À partir du 1er janvier 2026, Webtide ne publiera plus Jetty 9/10/11 et CometD 5/6/7 sur Maven Central Pendant 20 ans, Webtide a financé les projets Jetty et CometD via services et support, publiant gratuitement les mises à jour EOL Le comportement des entreprises a changé : beaucoup cherchent juste du gratuit plutôt que du véritable support Des sociétés utilisent des versions de plus de 10 ans sans migrer tant que les correctifs CVE sont gratuits Cette politique gratuite a involontairement encouragé la complaisance et retardé les migrations vers versions récentes MITRE développe des changements au système CVE pour mieux gérer les concepts d'EOL Webtide lance un programme de partenariat avec TuxCare et HeroDevs pour distribuer les résolutions CVE des versions EOL Les binaires EOL seront désormais distribués uniquement aux clients commerciaux et via le réseau de partenaires Webtide continue le support standard open-source : quand Jetty 13 sortira, Jetty 12.1 recevra des mises à jour pendant 6 mois à un an Ce changement vise à clarifier la politique EOL avec une terminologie industrielle établie Améliorations cloud du SDK A2A Java https://quarkus.io/blog/quarkus-a2a-cloud-enhancements/ Version 0.3.0.Final du SDK A2A Java apporte des améliorations pour les environnements cloud et distribués Composants en mémoire remplacés par des implémentations persistantes et répliquées pour environnements multi-instances JpaDatabaseTaskStore et JpaDatabasePushNotificationConfigStore permettent la persistance des tâches et configurations en base PostgreSQL ReplicatedQueueManager assure la réplication des événements entre instances A2A Agent via Kafka et MicroProfile Reactive Messaging Exemple complet de déploiement Kubernetes avec Kind incluant PostgreSQL, Kafka via Strimzi, et load balancing entre pods Démonstration pratique montrant que les messages peuvent être traités par différents pods tout en maintenant la cohérence des tâches Architecture inspirée du SDK Python A2A, permettant la gestion de tâches asynchrones longues durée en environnement distribué Quarkus 3.29 sort avec des backends de cache multiples et support du débogueur Qute https://quarkus.io/blog/quarkus-3-29-released/ Possibilité d'utiliser plusieurs backends de cache simultanément dans une même application Chaque cache peut être associé à un backend spécifique (par exemple Caffeine et Redis ou Infinispan) Support du Debug Adapter Protocol (DAP) pour déboguer les templates Qute directement dans l'IDE et dans la version 3.28 Configuration programmatique de la protection CSRF via une API fluent Possibilité de restreindre les filtres OIDC à des flux d'authentification spécifiques avec annotations Support des dashboards Grafana personnalisés via fichiers JSON dans META-INF/grafana/ Extension Liquibase MongoDB supporte désormais plusieurs clients simultanés Amélioration significative des performances de build avec réduction des allocations mémoire Parallélisation de tâches comme la génération de proxies Hibernate ORM et la construction des Jar Et l'utilisation des fichiers .proto est plus simple dans Quarkus avbec Quarkus gRPC Zero https://quarkus.io/blog/grpc-zero/ c'est toujours galere des fichiers .proto car les generateurs demandent des executables natifs maintenant ils sont bundlés dans la JVM et vous n'avez rien a configurer cela utilise Caffeine pour faire tourner cela en WASM dans la JVM Spring AI 1.1 est presque là https://spring.io/blog/2025/11/08/spring-ai-1-1-0-RC1-available-now support des MCP tool caching pour les callback qui reduit les iooerations redondantes Access au contenu de raisonnement OpenAI Un modele de Chat MongoDB Support du modele de penser Ollama Reessaye sur les echec de reseau OpenAI speech to text Spring gRPC Les prochaines étapes pour la 1.0.0 https://spring.io/blog/2025/11/05/spring-grpc-next-steps Spring gRPC 1.0 arrive prochainement avec support de Spring Boot 4 L'intégration dans Spring Boot 4.0 est reportée, prévue pour Spring Boot 4.1 Les coordonnées Maven restent sous org.springframework.grpc pour la version 1.0 Le jar spring-grpc-test est renommé en spring-grpc-test-spring-boot-autoconfigure Les packages d'autoconfiguration changent de nom nécessitant de modifier les imports Les dépendances d'autoconfiguration seront immédiatement dépréciées après la release 1.0 Migration minimale attendue pour les projets utilisant déjà la version 0.x La version 1.0.0-RC1 sera publiée dès que possible avant la version finale Spring arrete le support reactif d'Apache Pulsar https://spring.io/blog/2025/10/29/spring-pulsar-reactive-discontinued logique d'évaluer le temps passé vs le nombre d'utilisateurs c'est cependant une tendance qu'on a vu s'accélerer Spring 7 est sorti https://spring.io/blog/2025/11/13/spring-framework-7-0-general-availability Infrastructure Infinispan 16.0 https://infinispan.org/blog/2025/11/10/infinispan-16-0 Ajout majeur : migration en ligne sans interruption pour les nœuds d'un cluster (rolling upgrades) (infinispan.org) Messages de clustering refaits avec Protocol Buffers + ProtoStream : meilleure compatibilité, schéma évolutif garanti (infinispan.org) Console Web améliorée API dédiée de gestion des schémas (SchemasAdmin) pour gérer les schémas ProtoStream à distance (infinispan.org) Module de requête (query) optimisé : support complet des agrégations (sum, avg …) dans les requêtes indexées en cluster grâce à l'intégration de Hibernate Search 8.1 (infinispan.org) Serveur : image conteneur minimalisée pour réduire la surface d'attaque (infinispan.org) démarrage plus rapide grâce à séparation du démarrage cache/serveur (infinispan.org) caches pour connecteurs (Memcached, RESP) créés à la demande (on-demand) et non à l'initiaton automatique (infinispan.org) moteur Lua 5.1 mis à jour avec corrections de vulnérabilités et opérations dangereuses désactivées (infinispan.org) Support JDK : version minimale toujours JDK 17 (infinispan.org) prise en charge des threads virtuels (virtual threads) et des fonctionnalités AOT (Ahead-of-Time) de JDK plus récentes (infinispan.org) Web Javelit, une nouvelle librairie Java inspirée de Streamlit pour faire facilement et rapidement des petites interfaces web https://glaforge.dev/posts/2025/10/24/javelit-to-create-quick-interactive-app-frontends-in-java/ Site web du projet : https://javelit.io/ Javelit : outil pour créer rapidement des applications de données (mais pas que) en Java. Simplifie le développement : élimine les tracas du frontend et de la gestion des événements. Transforme une classe Java en application web en quelques minutes. Inspiré par la simplicité de Streamlit de l'écosystème Python (ou Gradio et Mesop), mais pour Java. Développement axé sur la logique : pas de code standard répétitif (boilerplate), rechargement à chaud. Interactions faciles : les widgets retournent directement leur valeur, sans besoin de HTML/CSS/JS ou gestion d'événements. Déploiement flexible : applications autonomes ou intégrables dans des frameworks Java (Spring, Quarkus, etc.). L'article de Guillaume montre comment créer une petite interface pour créer et modifier des images avec le modèle génératif Nano Banana Un deuxième article montre comment utiliser Javelit pour créer une interface de chat avec LangChain4j https://glaforge.dev/posts/2025/10/25/creating-a-javelit-chat-interface-for-langchain4j/ Améliorer l'accessibilité avec les applis JetPack Compose https://blog.ippon.fr/2025/10/29/rendre-son-application-accessible-avec-jetpack-compose/ TalkBack est le lecteur d'écran Android qui vocalise les éléments sélectionnés pour les personnes malvoyantes Accessibility Scanner et les outils Android Studio détectent automatiquement les problèmes d'accessibilité statiques Les images fonctionnelles doivent avoir un contentDescription, les images décoratives contentDescription null Le contraste minimum requis est de 4.5:1 pour le texte normal et 3:1 pour le texte large ou les icônes Les zones cliquables doivent mesurer au minimum 48dp x 48dp pour faciliter l'interaction Les formulaires nécessitent des labels visibles permanents et non de simples placeholders qui disparaissent Modifier.semantics permet de définir l'arbre sémantique lu par les lecteurs d'écran Les propriétés mergeDescendants et traversalIndex contrôlent l'ordre et le regroupement de la lecture Diriger le navigateur Chrome avec le modèle Gemini Computer Use https://glaforge.dev/posts/2025/11/03/driving-a-web-browser-with-gemini-computer-use-model-in-java/ Objectif : Automatiser la navigation web en Java avec le modèle "Computer Use" de Gemini 2.5 Pro. Modèle "Computer Use" : Gemini analyse des captures d'écran et génère des actions d'interface (clic, saisie, etc.). Outils : Gemini API, Java, Playwright (pour l'interaction navigateur). Fonctionnement : Boucle agent où Gemini reçoit une capture, propose une action, Playwright l'exécute, puis une nouvelle capture est envoyée à Gemini. Implémentation clé : Toujours envoyer une capture d'écran à Gemini après chaque action pour qu'il comprenne l'état actuel. Défis : Lenteur, gestion des CAPTCHA et pop-ups (gérables). Potentiel : Automatisation des tâches web répétitives, création d'agents autonomes. Data et Intelligence Artificielle Apicurio ajoute le support de nouveaux schema sans reconstruire Apicurio https://www.apicur.io/blog/2025/10/27/custom-artifact-types Apicurio Registry 3.1.0 permet d'ajouter des types d'artefacts personnalisés au moment du déploiement sans recompiler le projet Supporte nativement OpenAPI, AsyncAPI, Avro, JSON Schema, Protobuf, GraphQL, WSDL et XSD Trois approches d'implémentation disponibles : classes Java pour la performance maximale, JavaScript/TypeScript pour la facilité de développement, ou webhooks pour une flexibilité totale Configuration via un simple fichier JSON pointant vers les implémentations des composants personnalisés Les scripts JavaScript sont exécutés via QuickJS dans un environnement sandboxé sécurisé Un package npm TypeScript fournit l'autocomplétion et la sécurité de type pour le développement Six composants optionnels configurables : détection automatique de type, validation, vérification de compatibilité, canonicalisation, déréférencement et recherche de références Cas d'usage typiques : formats propriétaires internes, support RAML, formats legacy comme WADL, schémas spécifiques à un domaine métier Déploiement simple via Docker en montant les fichiers de configuration et scripts comme volumes Les performances varient selon l'approche : Java offre les meilleures performances, JavaScript un bon équilibre, webhooks la flexibilité maximale Le truc interessant c'est que c'est Quarkus based et donc demandait le rebuilt donc pour eviter cela, ils ont ajouter QuickJS via Chicorey un moteur WebAssembly GPT 5.1 pour les développeurs est sorti. https://openai.com/index/gpt-5-1-for-developers/ C'est le meilleur puisque c'est le dernier :slightly_smiling_face: Raisonnement Adaptatif et Efficace : GPT-5.1 ajuste dynamiquement son temps de réflexion en fonction de la complexité de la tâche, le rendant nettement plus rapide et plus économique en jetons pour les tâches simples, tout en maintenant des performances de pointe sur les tâches difficiles. Nouveau Mode « Sans Raisonnement » : Un mode (reasoning_effort='none') a été introduit pour les cas d'utilisation sensibles à la latence, permettant une réponse plus rapide avec une intelligence élevée et une meilleure exécution des outils. Cache de Prompt Étendu : La mise en cache des invites est étendue jusqu'à 24 heures (contre quelques minutes auparavant), ce qui réduit la latence et le coût pour les interactions de longue durée (chats multi-tours, sessions de codage). Les jetons mis en cache sont 90 % moins chers. Améliorations en Codage : Le modèle offre une meilleure personnalité de codage, une qualité de code améliorée et de meilleures performances sur les tâches d'agenticité de code, atteignant 76,3 % sur SWE-bench Verified. Nouveaux Outils pour les Développeurs : Deux nouveaux outils sont introduits ( https://cookbook.openai.com/examples/build_a_coding_agent_with_gpt-5.1 ) : L'outil apply_patch pour des modifications de code plus fiables via des diffs structurés. L'outil shell qui permet au modèle de proposer et d'exécuter des commandes shell sur une machine locale, facilitant les boucles d'inspection et d'exécution. Disponibilité : GPT-5.1 (ainsi que les modèles gpt-5.1-codex) est disponible pour les développeurs sur toutes les plateformes API payantes, avec les mêmes tarifs et limites de débit que GPT-5. Comparaison de similarité d'articles et de documents avec les embedding models https://glaforge.dev/posts/2025/11/12/finding-related-articles-with-vector-embedding-models/ Principe : Convertir les articles en vecteurs numériques ; la similarité sémantique est mesurée par la proximité de ces vecteurs. Démarche : Résumé des articles via Gemini-2.5-flash. Conversion des résumés en vecteurs (embeddings) par Gemini-embedding-001. Calcul de la similarité entre vecteurs par similarité cosinus. Affichage des 3 articles les plus pertinents (>0.75) dans le frontmatter Hugo. Bilan : Approche "résumé et embedding" efficace, pragmatique et améliorant l'engagement des lecteurs. Outillage Composer : Nouveau modèle d'agent rapide pour l'ingénierie logicielle - https://cursor.com/blog/composer Composer est un modèle d'agent conçu pour l'ingénierie logicielle qui génère du code quatre fois plus rapidement que les modèles similaires Le modèle est entraîné sur de vrais défis d'ingénierie logicielle dans de grandes bases de code avec accès à des outils de recherche et d'édition Il s'agit d'un modèle de type mixture-of-experts optimisé pour des réponses interactives et rapides afin de maintenir le flux de développement L'entraînement utilise l'apprentissage par renforcement dans divers environnements de développement avec des outils comme la lecture de fichiers, l'édition, les commandes terminal et la recherche sémantique Cursor Bench est un benchmark d'évaluation basé sur de vraies demandes d'ingénieurs qui mesure la correction et le respect des abstractions du code existant Le modèle apprend automatiquement des comportements utiles comme effectuer des recherches complexes, corriger les erreurs de linter et écrire des tests unitaires L'infrastructure d'entraînement utilise PyTorch et Ray avec des kernels MXFP8 pour entraîner sur des milliers de GPUs NVIDIA Le système exécute des centaines de milliers d'environnements de codage sandboxés concurrents dans le cloud pour l'entraînement Composer est déjà utilisé quotidiennement par les développeurs de Cursor pour leur propre travail Le modèle se positionne juste derrière GPT-5 et Sonnet 4.5 en termes de performance sur les benchmarks internes Rex sur l'utilisation de l'IA pour les développeurs, un gain de productivité réel et des contextes adaptés https://mcorbin.fr/posts/2025-10-17-genai-dev/ Un développeur avec 18 ans d'expérience partage son retour sur l'IA générative après avoir changé d'avis Utilise exclusivement Claude Code dans le terminal pour coder en langage naturel Le "vibe coding" permet de générer des scripts et interfaces sans regarder le code généré Génération rapide de scripts Python pour traiter des CSV, JSON ou créer des interfaces HTML Le mode chirurgien résout des bugs complexes en one-shot, exemple avec un plugin Grafana fixé en une minute Pour le code de production, l'IA génère les couches repository, service et API de manière itérative, mais le dev controle le modele de données Le développeur relit toujours le code et ajuste manuellement ou via l'IA selon le besoin L'IA ne remplacera pas les développeurs car la réflexion, conception et expertise technique restent essentielles La construction de produits robustes, scalables et maintenables nécessite une expérience humaine L'IA libère du temps sur les tâches répétitives et permet de se concentrer sur les aspects complexes ce que je trouve interessant c'est la partie sur le code de prod effectivement, je corrige aussi beaucoup les propositions de l'IA en lui demandant de faire mieux dans tel ou tel domaine Sans guide, tout cela serait perdu Affaire a suivre un article en parallele sur le métier de designer https://blog.ippon.fr/2025/11/03/lia-ne-remplace-pas-un-designer-elle-amplifie-la-difference-entre-faire-et-bien-faire/ Plus besoin de se rappeler les racourcis dans IntelliJ idea avec l'universal entry point https://blog.jetbrains.com/idea/2025/11/universal-entry-point-a-single-entry-point-for-context-aware-coding-assistance/ IntelliJ IDEA introduit Command Completion, une nouvelle façon d'accéder aux actions de l'IDE directement depuis l'éditeur Fonctionne comme la complétion de code : tapez point (.) pour voir les actions contextuelles disponibles Tapez double point (..) pour filtrer et n'afficher que les actions disponibles Propose des corrections, refactorings, génération de code et navigation selon le contexte Complète les fonctionnalités existantes sans les remplacer : raccourcis, Alt+Enter, Search Everywhere Facilite la découverte des fonctionnalités de l'IDE sans interrompre le flux de développement En Beta dans la version 2025.2, sera activé par défaut dans 2025.3 Support actuel pour Java et Kotlin, avec actions spécifiques aux frameworks comme Spring et Hibernate Homebrew, package manage pour macOS et Linux passe en version 5 https://brew.sh/2025/11/12/homebrew-5.0.0/ Téléchargements Parallèles par Défaut : Le paramètre HOMEBREW_DOWNLOAD_CONCURRENCY=auto est activé par défaut, permettant des téléchargements concurrents pour tous les utilisateurs, avec un rapport de progression. Support Linux ARM64/AArch64 en Tier 1 : Le support pour Linux ARM64/AArch64 a été promu au niveau "Tier 1" (support officiel de premier plan). Feuille de Route pour les Dépréciations macOS : Septembre 2026 (ou plus tard) : Homebrew ne fonctionnera plus sur macOS Catalina (10.15) et versions antérieures. macOS Intel (x86_64) passera en "Tier 3" (fin du support CI et des binaires précompilés/bottles). Septembre 2027 (ou plus tard) : Homebrew ne fonctionnera plus sur macOS Big Sur (11) sur Apple Silicon ni du tout sur Intel (x86_64). Sécurité et Casks : Dépréciation des Casks sans signature de code. Désactivation des Casks échouant aux vérifications Gatekeeper en septembre 2026. Les options --no-quarantine et --quarantine sont dépréciés pour ne plus faciliter le contournement des fonctionnalités de sécurité de macOS. Nouvelles Fonctionnalités & Améliorations : Support officiel pour macOS 26 (Tahoe). brew bundle supporte désormais l'installation de packages Go via un Brewfile. Ajout de la commande brew info --sizes pour afficher la taille des formulae et casks. La commande brew search --alpine permet de chercher des packages Alpine Linux. Architecture Selon l'analyste RedMonk, Java reste très pertinent dans l'aire de l'IA et des agents https://redmonk.com/jgovernor/java-relevance-in-the-ai-era-agent-frameworks-emerge/ Java reste pertinent à l'ère de l'IA, pas besoin d'apprendre une pile technique entièrement nouvelle. Capacité d'adaptation de Java ("anticorps") aux innovations (Big Data, cloud, IA), le rendant idéal pour les contextes d'entreprise. L'écosystème JVM offre des avantages sur Python pour la logique métier et les applications sophistiquées, notamment en termes de sécurité et d'évolutivité. Embabel (par Rod Johnson, créateur de Spring) : un framework d'agents fortement typé pour JVM, visant le déterminisme des projets avant la génération de code par LLM. LangChain4J : facilite l'accès aux capacités d'IA pour les développeurs Java, s'aligne sur les modèles d'entreprise établis et permet aux LLM d'appeler des méthodes Java. Koog (Jetbrains) : framework d'agents basé sur Kotlin, typé et spécifique aux développeurs JVM/Kotlin. Akka : a pivoté pour se concentrer sur les flux de travail d'agents IA, abordant la complexité, la confiance et les coûts des agents dans les systèmes distribués. Le Model Context Protocol (MCP) est jugé insuffisant, manquant d'explicabilité, de découvrabilité, de capacité à mélanger les modèles, de garde-fous, de gestion de flux, de composabilité et d'intégration sécurisée. Les développeurs Java sont bien placés pour construire des applications compatibles IA et intégrer des agents. Des acteurs majeurs comme IBM, Red Hat et Oracle continuent d'investir massivement dans Java et son intégration avec l'IA. Sécurité AI Deepfake, Hiring … A danger réel https://www.eu-startups.com/2025/10/european-startups-get-serious-about-deepfakes-as-ai-fraud-losses-surpass-e1-3-billion/ Pertes liées aux deepfakes en Europe : > 1,3 milliard € (860 M € rien qu'en 2025). Création de deepfakes désormais possible pour quelques euros. Fraudes : faux entretiens vidéo, usurpations d'identité, arnaques diverses. Startups actives : Acoru, IdentifAI, Trustfull, Innerworks, Keyless (détection et prévention). Réglementation : AI Act et Digital Services Act imposent transparence et contrôle. Recommandations : vérifier identités, former employés, adopter authentification multi-facteurs. En lien : https://www.techmonitor.ai/technology/cybersecurity/remote-hiring-cybersecurity 1 Candidat sur 4 sera Fake en 2028 selon Gartner research https://www.gartner.com/en/newsroom/press-releases/2025-07-31-gartner-survey-shows-j[…]-percent-of-job-applicants-trust-ai-will-fairly-evaluate-them Loi, société et organisation Amazon - prévoit supprimer 30.000 postes https://www.20minutes.fr/economie/4181936-20251028-amazon-prevoit-supprimer-30-000-emplois-bureau-selon-plusieurs-medias Postes supprimés : 30 000 bureaux Part des effectifs : ~10 % des employés corporatifs Tranche confirmée : 14 000 postes Divisions touchées : RH, Opérations, Devices & Services, Cloud Motifs : sur-recrutement, bureaucratie, automatisation/IA Accompagnement : 90 jours pour poste interne + aides Non concernés : entrepôts/logistique Objectif : concentrer sur priorités stratégiques NTP a besoin d'argent https://www.ntp.org/ Il n'est que le protocole qui synchronise toutes les machines du monde La fondation https://www.nwtime.org/ recherche 11000$ pour maintenir son activité Rubrique débutant Une plongée approfondie dans le démarrage de la JVM https://inside.java/2025/01/28/jvm-start-up La JVM effectue une initialisation complexe avant d'exécuter le code : validation des arguments, détection des ressources système et sélection du garbage collector approprié Le chargement de classes suit une stratégie lazy où chaque classe charge d'abord ses dépendances dans l'ordre de déclaration, créant une chaîne d'environ 450 classes même pour un simple Hello World La liaison de classes comprend trois sous-processus : vérification de la structure, préparation avec initialisation des champs statiques à leurs valeurs par défaut, et résolution des références symboliques du Constant Pool Le CDS améliore les performances au démarrage en fournissant des classes pré-vérifiées, réduisant le travail de la JVM L'initialisation de classe exécute les initialiseurs statiques via la méthode spéciale clinit générée automatiquement par javac Le Project Leyden introduit la compilation AOT dans JDK 24 pour réduire le temps de démarrage en effectuant le chargement et la liaison de classes en avance de phase Pas si débutant finalement Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19-21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 24 novembre 2025 : Forward Data & AI Conference - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9-11 décembre 2025 : APIdays Paris - Paris (France) 9-11 décembre 2025 : Green IO Paris - Paris (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France) 22 janvier 2026 : DevCon #26 : sécurité / post-quantique / hacking - Paris (France) 29-31 janvier 2026 : Epitech Summit 2026 - Paris - Paris (France) 2-5 février 2026 : Epitech Summit 2026 - Moulins - Moulins (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 3-4 février 2026 : Epitech Summit 2026 - Lille - Lille (France) 3-4 février 2026 : Epitech Summit 2026 - Mulhouse - Mulhouse (France) 3-4 février 2026 : Epitech Summit 2026 - Nancy - Nancy (France) 3-4 février 2026 : Epitech Summit 2026 - Nantes - Nantes (France) 3-4 février 2026 : Epitech Summit 2026 - Marseille - Marseille (France) 3-4 février 2026 : Epitech Summit 2026 - Rennes - Rennes (France) 3-4 février 2026 : Epitech Summit 2026 - Montpellier - Montpellier (France) 3-4 février 2026 : Epitech Summit 2026 - Strasbourg - Strasbourg (France) 3-4 février 2026 : Epitech Summit 2026 - Toulouse - Toulouse (France) 4-5 février 2026 : Epitech Summit 2026 - Bordeaux - Bordeaux (France) 4-5 février 2026 : Epitech Summit 2026 - Lyon - Lyon (France) 4-6 février 2026 : Epitech Summit 2026 - Nice - Nice (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 26-27 mars 2026 : SymfonyLive Paris 2026 - Paris (France) 27-29 mars 2026 : Shift - Nantes (France) 31 mars 2026 : ParisTestConf - Paris (France) 16-17 avril 2026 : MiXiT 2026 - Lyon (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 6-7 mai 2026 : Devoxx UK 2026 - London (UK) 22 mai 2026 : AFUP Day 2026 Lille - Lille (France) 22 mai 2026 : AFUP Day 2026 Paris - Paris (France) 22 mai 2026 : AFUP Day 2026 Bordeaux - Bordeaux (France) 22 mai 2026 : AFUP Day 2026 Lyon - Lyon (France) 17 juin 2026 : Devoxx Poland - Krakow (Poland) 11-12 juillet 2026 : DevLille 2026 - Lille (France) 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France) 17-18 septembre 2026 : API Platform Conference 2026 - Lille (France) 5-9 octobre 2026 : Devoxx Belgium - Antwerp (Belgium) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

Les journaux de France Culture
L'Ukraine veut renforcer coûte que coûte ses capacités militaires

Les journaux de France Culture

Play Episode Listen Later Nov 17, 2025 19:55


durée : 00:19:55 - Journal de 12h30 - Volodymyr Zelensky est arrivé en France ce matin. Le président ukrainien veut finaliser plusieurs accords portant sur la livraison d'armes antiaériennes, mais aussi des dizaines d'avions de chasse.

Le journal de 12h30
L'Ukraine veut renforcer coûte que coûte ses capacités militaires

Le journal de 12h30

Play Episode Listen Later Nov 17, 2025 19:55


durée : 00:19:55 - Journal de 12h30 - Volodymyr Zelensky est arrivé en France ce matin. Le président ukrainien veut finaliser plusieurs accords portant sur la livraison d'armes antiaériennes, mais aussi des dizaines d'avions de chasse.

Ici c'est France Bleu Paris
"Hugo Ekitike, un modèle de résilience et de croyance en ses capacités" - 100% PSG, le billet

Ici c'est France Bleu Paris

Play Episode Listen Later Nov 14, 2025 3:34


durée : 00:03:34 - 100% PSG - Le billet - L'équipe de France s'est imposé 4-0 face à l'Ukraine au Parc des Princes et s'est qualifié officiellement pour la Coupe du Monde aux États-Unis au Canada et au Mexique. Dans ce succès, Hugo Ekitike a brillé et marqué énormément de points auprès de Didier Deschamps. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.

Esprits Libres
13-Novembre : « Les commémorations ont montré qu'il y a une capacité en France à se retrouver et à vivre ensemble » se réjouit J-M Colombani

Esprits Libres

Play Episode Listen Later Nov 14, 2025 11:38


Hier à eu lieu l'hommage aux victimes des attentats de Paris il y à maintenant dix ans. L'éditorialiste Jean-Marie Colombani et l'avocate pénaliste mettent en lumière ce que cette journée de deuil leur inspire. Mention légales : Vos données de connexion, dont votre adresse IP, sont traités par Radio Classique, responsable de traitement, sur la base de son intérêt légitime, par l'intermédiaire de son sous-traitant Ausha, à des fins de réalisation de statistiques agréées et de lutte contre la fraude. Ces données sont supprimées en temps réel pour la finalité statistique et sous cinq mois à compter de la collecte à des fins de lutte contre la fraude. Pour plus d'informations sur les traitements réalisés par Radio Classique et exercer vos droits, consultez notre Politique de confidentialité.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Hit West vous explique
A quel âge notre cerveau est-il au sommet de ses capacités ?

Hit West vous explique

Play Episode Listen Later Nov 13, 2025 1:37


En 2014, une étude menée par des chercheurs canadiens révélait qu'à l'âge de 24 ans, nos capacités cognitives atteignent leur apogée. Mais depuis d'autres études se sont révélées plus encourageantes ...

Te lo spiega Studenti.it
«Il coraggio non è l'assenza di paura, ma la capacità di agire nonostante essa.» La lezione di Nelson Mandela che vale per tutti

Te lo spiega Studenti.it

Play Episode Listen Later Oct 30, 2025 1:38


Mandela spiega che il coraggio nasce quando scegli di agire anche se hai paura. Un messaggio attuale per tutti coloro che vogliono superare le proprie insicurezze.

Te lo spiega Studenti.it
“La misura dell'intelligenza è la capacità di cambiare”: la lezione di Einstein che vale ancora oggi

Te lo spiega Studenti.it

Play Episode Listen Later Oct 29, 2025 1:46


La vera intelligenza non si misura con i voti o le nozioni, ma con la capacità di adattarsi e crescere davanti al cambiamento.

Da 0 a 42 - Il mio podcast sul running
Le capacità condizionali per il trail running

Da 0 a 42 - Il mio podcast sul running

Play Episode Listen Later Oct 28, 2025 18:47


Vi è mai capitato di correre in salita, gambe dure come il marmo, e chiedervi perché quello vicino a voi vi sta sorpassando e sembra ancora fresco? Ecco, spesso la risposta non è “lui è più forte di me”, ma “lui ha allenato meglio le sue capacità condizionali”.Ma così restiamo un po' sul nebuloso. La cosa va ovviamente approfondita. E lo facciamo in questa puntata.Episodio "Le capacità motorie per il trail running"Spreaker: https://www.spreaker.com/episode/le-capacita-motorie-per-il-trail-running--60219752Spotify: https://open.spotify.com/episode/6xpPaz3ecnQBER6AUk2TqKApple Podcast: https://podcasts.apple.com/it/podcast/le-capacit%C3%A0-motorie-per-il-trail-running/id1489609207?i=1000662358575Episodio "Bici vs corsa in discesa: concentrico vs eccentrico"Spreaker: https://www.spreaker.com/episode/bici-vs-corsa-in-discesa-concentrico-vs-eccentrico--67997637Spotify: https://open.spotify.com/episode/2NpS85dwmqRR6BpfXWF8mB?si=zu2W5bb2Q5GYDApWirxSHgApple Podcast: https://podcasts.apple.com/it/podcast/bici-vs-corsa-in-discesa-concentrico-vs-eccentrico/id1489609207?i=1000731732599----------------------Supporta questo progetto tramite un contributo mensile su Patreon: https://www.patreon.com/da0a42In alternativa, puoi fare una donazione "una-tantum".PayPal: https://www.paypal.com/paypalme/lorenzomaggianiBuymeacoffee: https://www.buymeacoffee.com/da0a42Acquista il materiale ufficiale del podcast: https://da0a42.home.blog/shop/Iscriviti a "30 giorni da runner": https://da0a42.home.blog/30-giorni-da-runner/Seguimi!Canale Telegram: https://t.me/da0a42Instagram: https://www.instagram.com/da0a42/Profilo Strava: https://www.strava.com/athletes/37970087Club Strava: https://www.strava.com/clubs/da0a42Sito: https://da0a42.home.blogOppure contattami!https://da0a42.home.blog/contatti/I miei microfoni:- HyperX Quadcast: https://amzn.to/3bs06wC- Rode NT-USB: https://amzn.to/4cTfaAu----------------------Un grazie a tutti i miei sostenitori:Matteo Bombelli, Antonio Palma, George Caldarescu, Dorothea Cuccini, Alessandro Rizzo, Calogero Augusta, Mauro Del Quondam, Claudio Pittarello, Fabio Perrone, Roberto Callegari, Luca Felicetti, Andrea Borsetto, Massimo Ferretti, Andrea Pompini, Joseph Djeke, Luca Demartino, Laura Bernacca, Vincenzo Iannotta, Patty Bellia, Pasquale Castrilli, Laura Ravani, Xavier Fallico, Nicola Monachello, Gabriele Orazi, Matilde Bisighini, Carmine Cuccuru, Fabrizio Straface, Letizia Beoni, Giulia Rosaia, Marco Allaria, Gregorio Maggiani, Fabrizio Carbonara.----------------------Music credits: Feeling of Sunlight by Danosongs - https://danosongs.comDiventa un supporter di questo podcast: https://www.spreaker.com/podcast/da-0-a-42-il-mio-podcast-sul-running--4063195/support.

Le Brief
Les exportations wallonnes ont le vent en poupe | La brasserie Brussels Beer Project augmente ses capacités | Argenta convoite une banque néerlandaise

Le Brief

Play Episode Listen Later Oct 28, 2025 12:23


Les exportations wallonnes se portent très bien. Sur les six premiers mois de l'année, elles ont progressé de façon spectaculaire, en particulier aux États-Unis grâce au secteur pharmaceutique. Ainsi, la région du sud du pays fait mieux que la Flandre, dont les ventes à l'étranger reculent. Mais deux autres destinations surprennent. Parti d'un concept de microbrasserie, le Brussels Beer Project se déploie à nouveau. De nouvelles installations à Anderlecht vont lui permettre d'augmenter ses capacités de production de 40%. L'entreprise sera capable de sortir jusqu'à dix millions de bouteilles par an. Les grandes manœuvres de fusions et acquisitions se poursuivent dans le secteur bancaire européen. Le bancassureur belge Argenta envisage, en effet, le rachat de la banque néerlandaise NIBC. Cependant, il n'est pas le seul sur les rangs. Le Brief, le podcast matinal de L'Echo Ce que vous devez savoir avant de démarrer la journée, on vous le sert au creux de l’oreille, chaque matin, en 7 infos, dès 7h. Le Brief, un podcast éclairant, avec l’essentiel de l’info business, entreprendre, investir et politique. Signé L’Echo. Abonnez-vous sur votre plateforme d'écoute favorite Apple Podcast | Spotify | Podcast Addict l Castbox | Deezer | Google PodcastsSee omnystudio.com/listener for privacy information.

Le monde de demain - The Flares [PODCASTS]
Humain, Demain #62 - Le transhumanisme contre le sous-développement en Afrique – avec Josué Guébo

Le monde de demain - The Flares [PODCASTS]

Play Episode Listen Later Oct 26, 2025 64:58


⚠️ Découvrez du contenu EXCLUSIF (pas sur la chaîne) ⚠️ ⇒ https://the-flares.com/y/bonus/ ⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️ Le contenu vous intéresse ? Abonnez-vous et cliquez sur la

Estelle Midi
L'invité de 12h – Yves Carra, porte-parole de Mobilité club de France : "L'aptitude à la conduite n'est pas une question d'âge mais une question de capacités cognitives" - 23/10

Estelle Midi

Play Episode Listen Later Oct 23, 2025 4:31


Avec : Jérôme Lavrilleux, propriétaire de gîtes en Dordogne. Frédéric Hermel, journaliste RMC. Et Emmanuelle Dancourt, journaliste indépendante. - Accompagnée de Charles Magnien et sa bande, Estelle Denis s'invite à la table des français pour traiter des sujets qui font leur quotidien. Société, conso, actualité, débats, coup de gueule, coups de cœurs… En simultané sur RMC Story.

L'entrepreneuriat, c'est du sport !
Richard ORLINSKI de GALERIES ORLINSKI - J'ai arrêté de vivre à 5% de mes capacités

L'entrepreneuriat, c'est du sport !

Play Episode Listen Later Oct 22, 2025 38:25


"Tu n'as pas de talent, tu n'es pas fait pour ça"... "L'art est réservé à une élite...". Encore de belles croyances limitantes.Ah, les reconversions professionnelles. Qu'elles soient choisies ou subies, elles font toujours peur et pourtant elles peuvent révéler des potentiels insoupçonnés.L'histoire de Richard ORLINSKI en est la parfaite illustration. Agent immobilier pendant des années, il réussissait plutôt bien financièrement. Mais quelque chose clochait : il avait l'impression de vivre à 5% de ses capacités.Un jour, le déclic. Un burn-out qui l'amène à se poser les vraies questions : "Si je ne tente pas maintenant, je ne le ferai jamais." Et là, première sculpture : un crocodile. Tout le monde autour de lui pense qu'il devient fou. Il abandonne une situation confortable pour se lancer dans l'inconnu total.Le plus frappant dans son témoignage ? Il n'a pas eu d'autre choix que de "casser les codes". Le milieu artistique français ne l'attendait pas les bras ouverts. Pas de "rêve français" comme il dit, plutôt un cauchemar pour ceux qui partent de rien.Résultat aujourd'hui ? Il est l'artiste français le plus vendu au monde selon Artprice. Pourtant, comme il le dit lui-même : "Ma seule qualité, c'est d'être banal." Il assume complètement son côté mainstream, son œil "supermarché". Ce qui lui plaît, c'est ce qui plaît au plus grand nombre.Et c'est exactement ça sa force. Ne pas être dans une niche élitiste, mais créer des émotions qui touchent tout le monde. Son conseil ? Écouter ce mal-être qui peut devenir un moteur. Tous les échecs nous donnent la possibilité de voir où on veut vraiment aller.Et toi, qu'est-ce qui te donne l'impression de vivre à 5% de tes capacités ?Site web : https://www.galeries-orlinski.com/Linkedin : https://www.linkedin.com/in/richardorlinski/Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Drôles de dames
Polo Breitner n'est pas certain que l'Eintracht soit en capacité d'enfoncer Liverpool – 20/10

Drôles de dames

Play Episode Listen Later Oct 20, 2025 11:53


Toute l'actu des sélections nationales et des championnats anglais, espagnol, italien et allemand avec nos légendaires "Drôles de Dames" : Julien Laurens, Fred Hermel, Polo Breitner et Johann Crochet.

L'art du mentaliste
L'art du mentaliste #72 améliorez vos capacités grâce à l'autoprompt

L'art du mentaliste

Play Episode Listen Later Oct 19, 2025 39:30


Aujourd'hui nous sommes dans un monde où beaucoup de personnes agissent en s'aidant d'une IA comme ChatGpt. Comment écrire un mail cordial ? Comment m'excuser pour une erreur que j'ai faite ? Comment trouver la solution à mon problème ? Nous pouvons passer beaucoup de notre temps à essayer d'optimiser le prompt que l'on va faire à l'IA pour la rendre efficace. Et si en réalité notre intuition était plus efficace dans beaucoup de domaines que l'IA, mais qu'on a juste pas appris à la prompter ? Dans cet épisode pro-intuitif, on explore comment en changeant la manière de s'intérroger, de se poser des question et de voir le monde nous permet en réalité d'améliorer nos compétences et de resoudre beaucoup de problèmes plus efficacement que si nous étions passé par une IA. Un épisode qui redonne confiance en l'humain. Référéences : - Kahneman, Daniel. "Thinking, fast and slow." Farrar, Straus and Giroux (2011).- Wallach, Michael A., Nathan Kogan, and Daryl J. Bem. "Diffusion of responsibility and level of risk taking in groups." The Journal of Abnormal and Social Psychology 68.3 (1964): 263.- Sawyer, R. K., John-Steiner, V., Moran, S., Sternberg, R. J., Feldman, D. H., Gardner, H., ... & Csikszentmihalyi, M. (2003). Creativity and development. Oxford University Press.- De Bono, E. (2017). Six Thinking Hats: The multi-million bestselling guide to running better meetings and making faster decisions. Penguin uk.L'art du mentaliste, un podcast animé par Taha Mansour et Alexis Dieux, musique par Antoine Piolé.Retrouvez Taha Mansour :- Son site : www.tahamansour.com- Instagram / Facebook : @TahaMentalismeRetrouvez Alexis Dieux :- Son site : https://www.alexisdieux.com/- Instagram : @alexisdieuxhypnose

La voce di Eutekne.info
Base imponibile dell'imposta di registro nei limiti della capacità contributiva

La voce di Eutekne.info

Play Episode Listen Later Oct 14, 2025 8:14


Due nuove risposte dell'Agenzia delle Entrate sul regime degli impatriati, la Cassazione sulla base imponibile dell'imposta di registro sui crediti futuri, le segnalazioni tra uffici e l'attività accertativa conseguente. A cura di Anita Mauro

On n'arrête pas l'éco
Stéphane Boujnah (Euronext) : la dette nous menace d'une "lente asphyxie de notre capacité à prendre des décisions"

On n'arrête pas l'éco

Play Episode Listen Later Oct 11, 2025 10:52


durée : 00:10:52 - L'Invité d'On n'arrête pas l'éco - Alors que la France traverse une crise politique inédite, l'incertitude économique est réelle. Comment réagissent les investisseurs ? Quelles conséquences sur la place de la France en Europe ? Stéphane Boujnah est notre invité. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.

Logos-Rhema OSL
La Capacité d'être Ministre de l'Esprit, Culte Dominical 17 - 08 - 2025,

Logos-Rhema OSL

Play Episode Listen Later Oct 8, 2025 49:47


Dr Diamant Bob KALONJI

Logos-Rhema OSL
La Capacité d'être Ministre de l'Esprit, Culte Dominical 10 -08 - 2025

Logos-Rhema OSL

Play Episode Listen Later Oct 8, 2025 53:55


Dr. Diamant Bob KALONJI

Choses à Savoir CERVEAU
La localisation de votre graisse affecte-t-elle vos capacités cognitives ?

Choses à Savoir CERVEAU

Play Episode Listen Later Oct 8, 2025 2:30


La question n'est plus seulement de savoir combien de graisse nous accumulons, mais où elle se loge dans notre corps. Une étude récente menée par l'Université de Hong Kong et publiée dans la revue Nature Mental Health apporte des preuves convaincantes : la localisation de la graisse corporelle influe directement sur la santé du cerveau et les performances cognitives.Pour mener cette recherche, les scientifiques ont exploité les données de plus de 18 000 participants du UK Biobank. Grâce à des mesures précises d'imagerie (DXA), ils ont distingué plusieurs types de dépôts adipeux : graisse viscérale autour des organes, graisse du tronc, des bras et des jambes. Ces données ont été comparées à des IRM cérébrales et à des tests cognitifs portant sur la mémoire, le raisonnement, la vitesse de traitement et les fonctions exécutives.Les résultats sont frappants. La graisse viscérale, celle qui entoure le foie, les reins et l'intestin, apparaît comme la plus néfaste. Elle est associée à une réduction du volume de certaines régions clés du cerveau, notamment dans le réseau par défaut qui joue un rôle essentiel dans la mémoire et l'introspection. Plus encore, elle s'accompagne d'altérations de la matière blanche, cette “autoroute” qui relie différentes aires cérébrales. Ces perturbations suggèrent une dégradation de la connectivité neuronale.Les chercheurs ont utilisé un indicateur appelé “brain age gap” : l'écart entre l'âge chronologique d'une personne et l'âge biologique estimé de son cerveau. Ils ont montré que la graisse viscérale accélère ce vieillissement cérébral, et que cet effet explique en grande partie les baisses de performance dans les tests cognitifs. Autrement dit, la graisse autour du ventre semble “vieillir” certaines parties du cerveau plus vite que prévu.Toutes les graisses ne sont pas équivalentes. La graisse des bras, du tronc ou des jambes montre aussi des associations avec la structure cérébrale, mais moins marquées. C'est bien la graisse viscérale qui ressort comme un facteur de risque majeur. Les chercheurs avancent des explications : inflammation chronique, perturbation hormonale et stress oxydatif pourraient relier ces dépôts adipeux à la dégradation neuronale.Il faut rester prudent : l'étude est transversale, donc elle établit des corrélations plus que des causes. De plus, la population étudiée était en majorité européenne, ce qui limite la généralisation. Mais le message est clair : au-delà du poids affiché sur la balance, la répartition de la graisse est un indicateur crucial pour la santé du cerveau. Protéger son cerveau passe aussi par surveiller son tour de taille. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les grands entretiens
Benjamin Alard (3/5) : "Toute formation musicale se doit de passer par cette capacité d'imiter"

Les grands entretiens

Play Episode Listen Later Oct 6, 2025 25:07


durée : 00:25:07 - Benjamin Alard, claveciniste et organiste (3/5) - par : Judith Chaine - Benjamin Alard poursuit son récit sur son parcours musical : de l'influence de Jean Boyer à l'imitation des maîtres, la découverte du clavicorde, sa méthode d'interprétation des Goldberg et son chemin vers le clavecin avec Elisabeth Joyé, qui l'a guidé jusqu'à ses études à Bâle. - réalisé par : Béatrice Trichet Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.

Le grand journal du soir - Matthieu Belliard
Punchline - Menace russe : l'OTAN a-t-il vraiment les capacités de se défendre ?

Le grand journal du soir - Matthieu Belliard

Play Episode Listen Later Oct 1, 2025 6:43


Invités :  - Alain Baeur, professeur de criminologie - André Vallini, ancien ministre et avocat - Rachel Khan, essayiste - Gauthier Le Bret, journaliste politique - Geoffroy Lejeune, journaliste au JDD - Guillaume Perrault, journaliste - Benoit Perrin, directeur général de Contribuables Associés Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Le grand journal du week-end - Philippe Vandel
Drones russes en Europe : «C'est un signal pour intimider et tester les capacités de défense de l'OTAN», déclare Pierre Lellouche

Le grand journal du week-end - Philippe Vandel

Play Episode Listen Later Sep 28, 2025 11:53


Invités : - Pierre Lellouche, ancien ministre et ancien président de l'assemblée parlementaire de l'OTAN - Vincent Roy, journaliste et essayiste - Antonin André, chef du service politique du JDD Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Italiano Bello
(163) La capacità di desiderare

Italiano Bello

Play Episode Listen Later Sep 27, 2025 14:03


Ti do il benvenuto su Italiano bello, il podcast in italiano semplice pensato per chi vuole imparare l'italiano o semplicemente migliorare. Tutti gli episodi sono disponibili in formato video ⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠sul mio canale YouTube⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠, dove puoi attivare i sottotitoli.Ecco cosa puoi fare dopo aver ascoltato l'episodio:

Invité Afrique
Succession à la tête de l'Unesco: «Les deux candidats rassurent par rapport à leurs capacités à diriger»

Invité Afrique

Play Episode Listen Later Sep 23, 2025 7:44


Duel à l'Unesco. Dans deux mois au plus tard, à la mi-novembre 2025, on connaîtra le nom du successeur de la Française Audrey Azoulay au poste de directeur général de l'Organisation des Nations unies pour l'éducation, la science et la culture (Unesco). Il n'y a que deux candidats en lice et ils sont tous deux africains : le Congolais de Brazzaville Edouard Firmin Matoko et l'Égyptien Khaled El-Enany. Qui va gagner ? Le grand enquêteur et essayiste Abdou Latif Coulibaly a été ministre sénégalais de la Culture de 2017 à 2019, sous la présidence de Macky Sall. En ligne de Dakar, il livre son pronostic. RFI : Quel bilan faites-vous des huit ans d'Audrey Azoulay à la Direction générale de l'Unesco ? Abdou Latif Coulibaly : Oui, je pense qu'elle a fait ce qu'elle pouvait faire par un certain nombre de réalisations qu'elle a faites. Dans le cas d'Audrey Azoulay, je vais citer par exemple les importants travaux de restauration et de reconstruction dans des villes comme Mossoul, dévastées par la guerre. Au nord de l'Irak… Au nord de L'Irak. Mais également, je citerai le cas au Liban. Et en Afrique également, il y a aujourd'hui beaucoup de sites qui ont été promus patrimoine mondial de l'humanité. Elle a également, de ce point de vue, fait beaucoup de choses dans le domaine de l'éducation avec l'Alliance mondiale d'éducation qui est au cœur de la mission de l'Unesco. En tant que ministre sénégalais de la Culture de 2017 à 2019, quel souvenir vous gardez de l'action de l'Unesco ? Vous savez, c'est en 2018, précisément, que le Musée des Civilisations noires a été installé et inauguré définitivement au Sénégal. Et tous les documents qui ont été faits à ce sujet et la démarche qui a été opérée, c'est moi-même, ministre de la Culture, qui a demandé à madame Audrey Azoulay de les transférer à l'Etat du Sénégal à l'occasion de l'inauguration du 6 décembre 2018. Et elle l'a fait avec beaucoup d'enthousiasme. Et également, elle a beaucoup conseillé, à l'époque, le gouvernement sénégalais dans le processus de mise en œuvre et de finalisation de ce musée-là. Et c'est ça qui m'a mis en rapport avec madame Azoulay, qui a beaucoup travaillé de ce point de vue-là à permettre aux Etats africains, et en particulier au Sénégal, de sauvegarder les sites qui sont déjà classés. Ce n'est pas évident quand vous prenez une ville comme Gorée, une ville comme Saint-Louis qui est patrimoine mondial de l'humanité, nous avons beaucoup de difficultés au plan national à trouver les moyens et l'ensemble des outils nécessaires pour que ce caractère de patrimoine universel soit préservé. En cette période très conflictuelle dans le monde, Audrey Azoulay affirme que l'Unesco est un des derniers lieux de consensus pour un multilatéralisme d'action. Est-ce que vous êtes d'accord ou pas ? Oui, je suis d'accord. Ce qui se réalise à l'Unesco aujourd'hui en termes de promotion de l'éducation, de la culture, je pense que s'il n'y avait pas une organisation de cette nature, cela n'aurait pu jamais se produire, ça j'en suis certain. Bon, aujourd'hui, nous les Africains, nous avons deux candidats qui se présentent. Il y a le Congolais Edouard Firmin Matoko et l'Égyptien Khaled El-Enany, qui sont actuellement en compétition. Quel que soit le candidat qui sera élu, je pense que l'intérêt pour l'Afrique, c'est que le travail qui est aujourd'hui engagé, qui l'avait été d'ailleurs bien avant elle, mais qu'elle a su consolider et qu'elle a su élargir en intégrant davantage beaucoup de pays dans le processus de prise de décision, mais également dans les activités qui sont menées… Je pense que c'est cela qui est le plus important. Et je pense que pour ce qui concerne les candidats africains, leurs déclarations rassurent de ce point de vue-là. Est-ce qu'ils auront tous les moyens pour le faire ? Je ne suis pas sûr, mais le maximum qu'ils feront, ce sera au bénéfice de l'Afrique et des pays en voie de développement. Alors justement, entre les deux candidats, le Congolais de Brazzaville Edouard Firmin Matoko et l'Égyptien Khaled El-Enany, quel est, à votre avis, celui qui est le plus apte à tenir la barre de l'Unesco dans les prochaines années ?   Je pense que tous les deux sont aptes pour le faire. Ce sont des techniciens de très haut niveau. Le Congolais, qui a un très long séjour à l'Unesco, il dit « moi, je suis l'Unesco », pour dire sa compétence et pour dire également l'efficacité qu'il pourrait apporter à l'organisation. Mais il y a également l'Égyptien qui bénéficie déjà du soutien de l'Union africaine, je pense qu'il est assez bien placé, probablement, peut-être, je dis bien peut-être, pour gagner. Qui est le mieux placé ? Je pense que tous les deux ont les compétences pour ça. Je ne peux pas dire qui est le mieux placé, mais enfin, le pedigree des deux rassure par rapport à leurs capacités à diriger l'Unesco. Vous avez une petite préférence quand même, non ? Préférence comme telle… Je n'ai pas de préférence, parce que je considère pour ma part que tous les deux pourraient être bien à cette place-là. Même si je constate que l'Egyptien bénéficie de beaucoup de soutien diplomatique à travers le monde, il faut l'accepter. En Asie, dans les pays arabes. Mais malheureusement, ça va conduire à un affrontement bloc africain contre bloc africain, c'est clair. Mais même si l'Union africaine aujourd'hui soutient officiellement la candidature de l'Égyptien, il me semble que ce combat ne manquera pas de se poser.

Obiettivo Salute - Risveglio
Efficienza mentale: come riconoscere e capire le nostre capacità cognitive

Obiettivo Salute - Risveglio

Play Episode Listen Later Sep 22, 2025


In questa puntata di Obiettivo Salute risveglio esploriamo cosa significa davvero avere efficienza mentale, scoprendo quali funzioni compongono la nostra mente e come lavorano insieme. Parleremo anche di quanto possiamo fidarci della percezione che abbiamo delle nostre capacità cognitive: siamo davvero più distratti o smemorati, o è solo una sensazione? Ne parliamo con Giuseppe Alfredo Iannoccari, neuropsicologo, docente universitario e presidente di Assomensana.

Le Gratin par Pauline Laigneau
[Extrait] Comment ralentir le vieillissement et garder ses capacités plus longtemps avec le Dr. de Jaeger

Le Gratin par Pauline Laigneau

Play Episode Listen Later Sep 21, 2025 4:35


✨ Ce dimanche, je partage avec vous un extrait passionnant avec le Dr Christophe de Jaeger. Il nous explique pourquoi le vieillissement n'est pas une fatalité et comment nous pouvons agir pour préserver nos capacités. Un regard scientifique et éclairant sur l'art de bien vieillir.Rendez-vous lundi pour découvrir l'épisode !Vous pouvez consulter notre politique de confidentialité sur https://art19.com/privacy ainsi que la notice de confidentialité de la Californie sur https://art19.com/privacy#do-not-sell-my-info.

Nouvel Œil
"Faire confiance en ses propres capacités" : Salomé Saqué (journaliste engagée)

Nouvel Œil

Play Episode Listen Later Sep 15, 2025 37:01


[REDIFFUSION]Est-ce qu'on a plus de mal à se projeter dans l'avenir que nos parents quand ils avaient notre âge ? Qu'est-ce que c'est, que de grandir au XXIème siècle et d'y trouver sa place ? Et l'écologie, l'économie, la politique dans tout ça ?  Salomé Saqué se livre sans fards dans cette interview enregistrée en 2021. Belle écoute ! ☀️ ---Si tu as aimé cet épisode, tu peux le partager, écrire un commentaire dans la description et laisser des étoiles sur ta plateforme d'écoute ! ---

Les Cast Codeurs Podcast
LCC 330 - Nano banana l'AI de Julia

Les Cast Codeurs Podcast

Play Episode Listen Later Sep 15, 2025 108:38


Katia, Emmanuel et Guillaume discutent Java, Kotlin, Quarkus, Hibernate, Spring Boot 4, intelligence artificielle (modèles Nano Banana, VO3, frameworks agentiques, embedding). On discute les vulnerabilités OWASP pour les LLMs, les personalités de codage des différents modèles, Podman vs Docker, comment moderniser des projets legacy. Mais surtout on a passé du temps sur les présentations de Luc Julia et les différents contre points qui ont fait le buzz sur les réseaux. Enregistré le 12 septembre 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-330.mp3 ou en vidéo sur YouTube. News Langages Dans cette vidéo, José détaille les nouveautés de Java entre Java 21 et 25 https://inside.java/2025/08/31/roadto25-java-language/ Aperçu des nouveautés du JDK 25 : Introduction des nouvelles fonctionnalités du langage Java et des changements à venir [00:02]. Programmation orientée données et Pattern Matching [00:43] : Évolution du “pattern matching” pour la déconstruction des “records” [01:22]. Utilisation des “sealed types” dans les expressions switch pour améliorer la lisibilité et la robustesse du code [01:47]. Introduction des “unnamed patterns” (_) pour indiquer qu'une variable n'est pas utilisée [04:47]. Support des types primitifs dans instanceof et switch (en preview) [14:02]. Conception d'applications Java [00:52] : Simplification de la méthode main [21:31]. Exécution directe des fichiers .java sans compilation explicite [22:46]. Amélioration des mécanismes d'importation [23:41]. Utilisation de la syntaxe Markdown dans la Javadoc [27:46]. Immuabilité et valeurs nulles [01:08] : Problème d'observation de champs final à null pendant la construction d'un objet [28:44]. JEP 513 pour contrôler l'appel à super() et restreindre l'usage de this dans les constructeurs [33:29]. JDK 25 sort le 16 septembre https://openjdk.org/projects/jdk/25/ Scoped Values (JEP 505) - alternative plus efficace aux ThreadLocal pour partager des données immutables entre threads Structured Concurrency (JEP 506) - traiter des groupes de tâches concurrentes comme une seule unité de travail, simplifiant la gestion des threads Compact Object Headers (JEP 519) - Fonctionnalité finale qui réduit de 50% la taille des en-têtes d'objets (de 128 à 64 bits), économisant jusqu'à 22% de mémoire heap Flexible Constructor Bodies (JEP 513) - Relaxation des restrictions sur les constructeurs, permettant du code avant l'appel super() ou this() Module Import Declarations (JEP 511) - Import simplifié permettant d'importer tous les éléments publics d'un module en une seule déclaration Compact Source Files (JEP 512) - Simplification des programmes Java basiques avec des méthodes main d'instance sans classe wrapper obligatoire Primitive Types in Patterns (JEP 455) - Troisième preview étendant le pattern matching et instanceof aux types primitifs dans switch et instanceof Generational Shenandoah (JEP 521) - Le garbage collector Shenandoah passe en mode générationnel pour de meilleures performances JFR Method Timing & Tracing (JEP 520) - Nouvel outillage de profilage pour mesurer le temps d'exécution et tracer les appels de méthodes Key Derivation API (JEP 510) - API finale pour les fonctions de dérivation de clés cryptographiques, remplaçant les implémentations tierces Améliorations du traitement des annotations dans Kotlin 2.2 https://blog.jetbrains.com/idea/2025/09/improved-annotation-handling-in-kotlin-2-2-less-boilerplate-fewer-surprises/ Avant Kotlin 2.2, les annotations sur les paramètres de constructeur n'étaient appliquées qu'au paramètre, pas à la propriété ou au champ Cela causait des bugs subtils avec Spring et JPA où la validation ne fonctionnait qu'à la création d'objet, pas lors des mises à jour La solution précédente nécessitait d'utiliser explicitement @field: pour chaque annotation, créant du code verbeux Kotlin 2.2 introduit un nouveau comportement par défaut qui applique les annotations aux paramètres ET aux propriétés/champs automatiquement Le code devient plus propre sans avoir besoin de syntaxe @field: répétitive Pour l'activer, ajouter -Xannotation-default-target=param-property dans les options du compilateur Gradle IntelliJ IDEA propose un quick-fix pour activer ce comportement à l'échelle du projet Cette amélioration rend l'intégration Kotlin plus fluide avec les frameworks majeurs comme Spring et JPA Le comportement peut être configuré pour garder l'ancien mode ou activer un mode transitoire avec avertissements Cette mise à jour fait partie d'une initiative plus large pour améliorer l'expérience Kotlin + Spring Librairies Sortie de Quarkus 3.26 avec mises à jour d'Hibernate et autres fonctionnalités - https://quarkus.io/blog/quarkus-3-26-released/ mettez à jour vers la 3.26.x car il y a eu une regression vert.x Jalon important vers la version LTS 3.27 prévue fin septembre, basée sur cette version Mise à jour vers Hibernate ORM 7.1, Hibernate Search 8.1 et Hibernate Reactive 3.1 Support des unités de persistance nommées et sources de données dans Hibernate Reactive Démarrage hors ligne et configuration de dialecte pour Hibernate ORM même si la base n'est pas accessible Refonte de la console HQL dans Dev UI avec fonctionnalité Hibernate Assistant intégrée Exposition des capacités Dev UI comme fonctions MCP pour pilotage via outils IA Rafraîchissement automatique des tokens OIDC en cas de réponse 401 des clients REST Extension JFR pour capturer les données runtime (nom app, version, extensions actives) Bump de Gradle vers la version 9.0 par défaut, suppression du support des classes config legacy Guide de démarrage avec Quarkus et A2A Java SDK 0.3.0 (pour faire discuter des agents IA avec la dernière version du protocole A2A) https://quarkus.io/blog/quarkus-a2a-java-0-3-0-alpha-release/ Sortie de l'A2A Java SDK 0.3.0.Alpha1, aligné avec la spécification A2A v0.3.0. Protocole A2A : standard ouvert (Linux Foundation), permet la communication inter-agents IA polyglottes. Version 0.3.0 plus stable, introduit le support gRPC. Mises à jour générales : changements significatifs, expérience utilisateur améliorée (côté client et serveur). Agents serveur A2A : Support gRPC ajouté (en plus de JSON-RPC). HTTP+JSON/REST à venir. Implémentations basées sur Quarkus (alternatives Jakarta existent). Dépendances spécifiques pour chaque transport (ex: a2a-java-sdk-reference-jsonrpc, a2a-java-sdk-reference-grpc). AgentCard : décrit les capacités de l'agent. Doit spécifier le point d'accès primaire et tous les transports supportés (additionalInterfaces). Clients A2A : Dépendance principale : a2a-java-sdk-client. Support gRPC ajouté (en plus de JSON-RPC). HTTP+JSON/REST à venir. Dépendance spécifique pour gRPC : a2a-java-sdk-client-transport-grpc. Création de client : via ClientBuilder. Sélectionne automatiquement le transport selon l'AgentCard et la configuration client. Permet de spécifier les transports supportés par le client (withTransport). Comment générer et éditer des images en Java avec Nano Banana, le “photoshop killer” de Google https://glaforge.dev/posts/2025/09/09/calling-nano-banana-from-java/ Objectif : Intégrer le modèle Nano Banana (Gemini 2.5 Flash Image preview) dans des applications Java. SDK utilisé : GenAI Java SDK de Google. Compatibilité : Supporté par ADK for Java ; pas encore par LangChain4j (limitation de multimodalité de sortie). Capacités de Nano Banana : Créer de nouvelles images. Modifier des images existantes. Assembler plusieurs images. Mise en œuvre Java : Quelle dépendance utiliser Comment s'authentifier Comment configurer le modèle Nature du modèle : Nano Banana est un modèle de chat qui peut retourner du texte et une image (pas simplement juste un modèle générateur d'image) Exemples d'utilisation : Création : Via un simple prompt textuel. Modification : En passant l'image existante (tableau de bytes) et les instructions de modification (prompt). Assemblage : En passant plusieurs images (en bytes) et les instructions d'intégration (prompt). Message clé : Toutes ces fonctionnalités sont accessibles en Java, sans nécessiter Python. Générer des vidéos IA avec le modèle Veo 3, mais en Java ! https://glaforge.dev/posts/2025/09/10/generating-videos-in-java-with-veo3/ Génération de vidéos en Java avec Veo 3 (via le GenAI Java SDK de Google). Veo 3: Annoncé comme GA, prix réduits, support du format 9:16, résolution jusqu'à 1080p. Création de vidéos : À partir d'une invite textuelle (prompt). À partir d'une image existante. Deux versions différentes du modèle : veo-3.0-generate-001 (qualité supérieure, plus coûteux, plus lent). veo-3.0-fast-generate-001 (qualité inférieure, moins coûteux, mais plus rapide). Rod Johnson sur ecrire des aplication agentic en Java plus facilement qu'en python avec Embabel https://medium.com/@springrod/you-can-build-better-ai-agents-in-java-than-python-868eaf008493 Rod the papa de Spring réécrit un exemple CrewAI (Python) qui génère un livre en utilisant Embabel (Java) pour démontrer la supériorité de Java L'application utilise plusieurs agents AI spécialisés : un chercheur, un planificateur de livre et des rédacteurs de chapitres Le processus suit trois étapes : recherche du sujet, création du plan, rédaction parallèle des chapitres puis assemblage CrewAI souffre de plusieurs problèmes : configuration lourde, manque de type safety, utilisation de clés magiques dans les prompts La version Embabel nécessite moins de code Java que l'original Python et moins de fichiers de configuration YAML Embabel apporte la type safety complète, éliminant les erreurs de frappe dans les prompts et améliorant l'outillage IDE La gestion de la concurrence est mieux contrôlée en Java pour éviter les limites de débit des APIs LLM L'intégration avec Spring permet une configuration externe simple des modèles LLM et hyperparamètres Le planificateur Embabel détermine automatiquement l'ordre d'exécution des actions basé sur leurs types requis L'argument principal : l'écosystème JVM offre un meilleur modèle de programmation et accès à la logique métier existante que Python Il y a pas mal de nouveaux framework agentic en Java, notamment le dernier LAngchain4j Agentic Spring lance un serie de blog posts sur les nouveautés de Spring Boot 4 https://spring.io/blog/2025/09/02/road_to_ga_introduction baseline JDK 17 mais rebase sur Jakarta 11 Kotlin 2, Jackson 3 et JUnit 6 Fonctionnalités de résilience principales de Spring : @ConcurrencyLimit, @Retryable, RetryTemplate Versioning d'API dans Spring Améliorations du client de service HTTP L'état des clients HTTP dans Spring Introduction du support Jackson 3 dans Spring Consommateur partagé - les queues Kafka dans Spring Kafka Modularisation de Spring Boot Autorisation progressive dans Spring Security Spring gRPC - un nouveau module Spring Boot Applications null-safe avec Spring Boot 4 OpenTelemetry avec Spring Boot Repos Ahead of Time (Partie 2) Web Faire de la recherche sémantique directement dans le navigateur en local, avec EmbeddingGemma et Transformers.js https://glaforge.dev/posts/2025/09/08/in-browser-semantic-search-with-embeddinggemma/ EmbeddingGemma: Nouveau modèle d'embedding (308M paramètres) de Google DeepMind. Objectif: Permettre la recherche sémantique directement dans le navigateur. Avantages clés de l'IA côté client: Confidentialité: Aucune donnée envoyée à un serveur. Coûts réduits: Pas besoin de serveurs coûteux (GPU), hébergement statique. Faible latence: Traitement instantané sans allers-retours réseau. Fonctionnement hors ligne: Possible après le chargement initial du modèle. Technologie principale: Modèle: EmbeddingGemma (petit, performant, multilingue, support MRL pour réduire la taille des vecteurs). Moteur d'inférence: Transformers.js de HuggingFace (exécute les modèles AI en JavaScript dans le navigateur). Déploiement: Site statique avec Vite/React/Tailwind CSS, déployé sur Firebase Hosting via GitHub Actions. Gestion du modèle: Fichiers du modèle trop lourds pour Git; téléchargés depuis HuggingFace Hub pendant le CI/CD. Fonctionnement de l'app: Charge le modèle, génère des embeddings pour requêtes/documents, calcule la similarité sémantique. Conclusion: Démonstration d'une recherche sémantique privée, économique et sans serveur, soulignant le potentiel de l'IA embarquée dans le navigateur. Data et Intelligence Artificielle Docker lance Cagent, une sorte de framework multi-agent IA utilisant des LLMs externes, des modèles de Docker Model Runner, avec le Docker MCP Tookit. Il propose un format YAML pour décrire les agents d'un système multi-agents. https://github.com/docker/cagent des agents “prompt driven” (pas de code) et une structure pour decrire comment ils sont deployés pas clair comment ils sont appelés a part dans la ligne de commande de cagent fait par david gageot L'owasp décrit l'independance excessive des LLM comme une vulnerabilité https://genai.owasp.org/llmrisk2023-24/llm08-excessive-agency/ L'agence excessive désigne la vulnérabilité qui permet aux systèmes LLM d'effectuer des actions dommageables via des sorties inattendues ou ambiguës. Elle résulte de trois causes principales : fonctionnalités excessives, permissions excessives ou autonomie excessive des agents LLM. Les fonctionnalités excessives incluent l'accès à des plugins qui offrent plus de capacités que nécessaire, comme un plugin de lecture qui peut aussi modifier ou supprimer. Les permissions excessives se manifestent quand un plugin accède aux systèmes avec des droits trop élevés, par exemple un accès en lecture qui inclut aussi l'écriture. L'autonomie excessive survient quand le système effectue des actions critiques sans validation humaine préalable. Un scénario d'attaque typique : un assistant personnel avec accès email peut être manipulé par injection de prompt pour envoyer du spam via la boîte de l'utilisateur. La prévention implique de limiter strictement les plugins aux fonctions minimales nécessaires pour l'opération prévue. Il faut éviter les fonctions ouvertes comme “exécuter une commande shell” au profit d'outils plus granulaires et spécifiques. L'application du principe de moindre privilège est cruciale : chaque plugin doit avoir uniquement les permissions minimales requises. Le contrôle humain dans la boucle reste essentiel pour valider les actions à fort impact avant leur exécution. Lancement du MCP registry, une sorte de méta-annuaire officiel pour référencer les serveurs MCP https://www.marktechpost.com/2025/09/09/mcp-team-launches-the-preview-version-of-the-mcp-registry-a-federated-discovery-layer-for-enterprise-ai/ MCP Registry : Couche de découverte fédérée pour l'IA d'entreprise. Fonctionne comme le DNS pour le contexte de l'IA, permettant la découverte de serveurs MCP publics ou privés. Modèle fédéré : Évite les risques de sécurité et de conformité d'un registre monolithique. Permet des sous-registres privés tout en conservant une source de vérité “upstream”. Avantages entreprises : Découverte interne sécurisée. Gouvernance centralisée des serveurs externes. Réduction de la prolifération des contextes. Support pour les agents IA hybrides (données privées/publiques). Projet open source, actuellement en version preview. Blog post officiel : https://blog.modelcontextprotocol.io/posts/2025-09-08-mcp-registry-preview/ Exploration des internals du transaction log SQL Server https://debezium.io/blog/2025/09/08/sqlserver-tx-log/ C'est un article pour les rugeux qui veulent savoir comment SQLServer marche à l'interieur Debezium utilise actuellement les change tables de SQL Server CDC en polling périodique L'article explore la possibilité de parser directement le transaction log pour améliorer les performances Le transaction log est divisé en Virtual Log Files (VLFs) utilisés de manière circulaire Chaque VLF contient des blocs (512B à 60KB) qui contiennent les records de transactions Chaque record a un Log Sequence Number (LSN) unique pour l'identifier précisément Les données sont stockées dans des pages de 8KB avec header de 96 bytes et offset array Les tables sont organisées en partitions et allocation units pour gérer l'espace disque L'utilitaire DBCC permet d'explorer la structure interne des pages et leur contenu Cette compréhension pose les bases pour parser programmatiquement le transaction log dans un prochain article Outillage Les personalités des codeurs des différents LLMs https://www.sonarsource.com/blog/the-coding-personalities-of-leading-llms-gpt-5-update/ GPT-5 minimal ne détrône pas Claude Sonnet 4 comme leader en performance fonctionnelle malgré ses 75% de réussite GPT-5 génère un code extrêmement verbeux avec 490 000 lignes contre 370 000 pour Claude Sonnet 4 sur les mêmes tâches La complexité cyclomatique et cognitive du code GPT-5 est dramatiquement plus élevée que tous les autres modèles GPT-5 introduit 3,90 problèmes par tâche réussie contre seulement 2,11 pour Claude Sonnet 4 Point fort de GPT-5 : sécurité exceptionnelle avec seulement 0,12 vulnérabilité par 1000 lignes de code Faiblesse majeure : densité très élevée de “code smells” (25,28 par 1000 lignes) nuisant à la maintenabilité GPT-5 produit 12% de problèmes liés à la complexité cognitive, le taux le plus élevé de tous les modèles Tendance aux erreurs logiques fondamentales avec 24% de bugs de type “Control-flow mistake” Réapparition de vulnérabilités classiques comme les failles d'injection et de traversée de chemin Nécessité d'une gouvernance renforcée avec analyse statique obligatoire pour gérer la complexité du code généré Pourquoi j'ai abandonné Docker pour Podman https://codesmash.dev/why-i-ditched-docker-for-podman-and-you-should-too Problème Docker : Le daemon dockerd persistant s'exécute avec des privilèges root, posant des risques de sécurité (nombreuses CVEs citées) et consommant des ressources inutilement. Solution Podman : Sans Daemon : Pas de processus d'arrière-plan persistant. Les conteneurs s'exécutent comme des processus enfants de la commande Podman, sous les privilèges de l'utilisateur. Sécurité Renforcée : Réduction de la surface d'attaque. Une évasion de conteneur compromet un utilisateur non privilégié sur l'hôte, pas le système entier. Mode rootless. Fiabilité Accrue : Pas de point de défaillance unique ; le crash d'un conteneur n'affecte pas les autres. Moins de Ressources : Pas de daemon constamment actif, donc moins de mémoire et de CPU. Fonctionnalités Clés de Podman : Intégration Systemd : Génération automatique de fichiers d'unité systemd pour gérer les conteneurs comme des services Linux standards. Alignement Kubernetes : Support natif des pods et capacité à générer des fichiers Kubernetes YAML directement (podman generate kube), facilitant le développement local pour K8s. Philosophie Unix : Se concentre sur l'exécution des conteneurs, délègue les tâches spécialisées à des outils dédiés (ex: Buildah pour la construction d'images, Skopeo pour leur gestion). Migration Facile : CLI compatible Docker : podman utilise les mêmes commandes que docker (alias docker=podman fonctionne). Les Dockerfiles existants sont directement utilisables. Améliorations incluses : Sécurité par défaut (ports privilégiés en mode rootless), meilleure gestion des permissions de volume, API Docker compatible optionnelle. Option de convertir Docker Compose en Kubernetes YAML. Bénéfices en Production : Sécurité améliorée, utilisation plus propre des ressources. Podman représente une évolution plus sécurisée et mieux alignée avec les pratiques modernes de gestion Linux et de déploiement de conteneurs. Guide Pratique (Exemple FastAPI) : Le Dockerfile ne change pas. podman build et podman run remplacent directement les commandes Docker. Déploiement en production via Systemd. Gestion d'applications multi-services avec les “pods” Podman. Compatibilité Docker Compose via podman-compose ou kompose. Détection améliorée des APIs vulnérables dans les IDEs JetBrains et Qodana - https://blog.jetbrains.com/idea/2025/09/enhanced-vulnerable-api-detection-in-jetbrains-ides-and-qodana/ JetBrains s'associe avec Mend.io pour renforcer la sécurité du code dans leurs outils Le plugin Package Checker bénéficie de nouvelles données enrichies sur les APIs vulnérables Analyse des graphes d'appels pour couvrir plus de méthodes publiques des bibliothèques open-source Support de Java, Kotlin, C#, JavaScript, TypeScript et Python pour la détection de vulnérabilités Activation des inspections via Paramètres > Editor > Inspections en recherchant “Vulnerable API” Surlignage automatique des méthodes vulnérables avec détails des failles au survol Action contextuelle pour naviguer directement vers la déclaration de dépendance problématique Mise à jour automatique vers une version non affectée via Alt+Enter sur la dépendance Fenêtre dédiée “Vulnerable Dependencies” pour voir l'état global des vulnérabilités du projet Méthodologies Le retour de du sondage de Stack Overflow sur l'usage de l'IA dans le code https://medium.com/@amareshadak/stack-overflow-just-exposed-the-ugly-truth-about-ai-coding-tools-b4f7b5992191 84% des développeurs utilisent l'IA quotidiennement, mais 46% ne font pas confiance aux résultats. Seulement 3,1% font “hautement confiance” au code généré. 66% sont frustrés par les solutions IA “presque correctes”. 45% disent que déboguer le code IA prend plus de temps que l'écrire soi-même. Les développeurs seniors (10+ ans) font moins confiance à l'IA (2,6%) que les débutants (6,1%), créant un écart de connaissances dangereux. Les pays occidentaux montrent moins de confiance - Allemagne (22%), UK (23%), USA (28%) - que l'Inde (56%). Les créateurs d'outils IA leur font moins confiance. 77% des développeurs professionnels rejettent la programmation en langage naturel, seuls 12% l'utilisent réellement. Quand l'IA échoue, 75% se tournent vers les humains. 35% des visites Stack Overflow concernent maintenant des problèmes liés à l'IA. 69% rapportent des gains de productivité personnels, mais seulement 17% voient une amélioration de la collaboration d'équipe. Coûts cachés : temps de vérification, explication du code IA aux équipes, refactorisation et charge cognitive constante. Les plateformes humaines dominent encore : Stack Overflow (84%), GitHub (67%), YouTube (61%) pour résoudre les problèmes IA. L'avenir suggère un “développement augmenté” où l'IA devient un outil parmi d'autres, nécessitant transparence et gestion de l'incertitude. Mentorat open source et défis communautaires par les gens de Microcks https://microcks.io/blog/beyond-code-open-source-mentorship/ Microcks souffre du syndrome des “utilisateurs silencieux” qui bénéficient du projet sans contribuer Malgré des milliers de téléchargements et une adoption croissante, l'engagement communautaire reste faible Ce manque d'interaction crée des défis de durabilité et limite l'innovation du projet Les mainteneurs développent dans le vide sans feedback des vrais utilisateurs Contribuer ne nécessite pas de coder : documentation, partage d'expérience, signalement de bugs suffisent Parler du project qu'on aime autour de soi est aussi super utile Microcks a aussi des questions specifiques qu'ils ont posé dans le blog, donc si vous l'utilisez, aller voir Le succès de l'open source dépend de la transformation des utilisateurs en véritables partenaires communautaires c'est un point assez commun je trouve, le ratio parlant / silencieux est tres petit et cela encourage les quelques grandes gueules La modernisation du systemes legacy, c'est pas que de la tech https://blog.scottlogic.com/2025/08/27/holistic-approach-successful-legacy-modernisation.html Un artcile qui prend du recul sur la modernisation de systemes legacy Les projets de modernisation legacy nécessitent une vision holistique au-delà du simple focus technologique Les drivers business diffèrent des projets greenfield : réduction des coûts et mitigation des risques plutôt que génération de revenus L'état actuel est plus complexe à cartographier avec de nombreuses dépendances et risques de rupture Collaboration essentielle entre Architectes, Analystes Business et Designers UX dès la phase de découverte Approche tridimensionnelle obligatoire : Personnes, Processus et Technologie (comme un jeu d'échecs 3D) Le leadership doit créer l'espace nécessaire pour la découverte et la planification plutôt que presser l'équipe Communication en termes business plutôt que techniques vers tous les niveaux de l'organisation Planification préalable essentielle contrairement aux idées reçues sur l'agilité Séquencement optimal souvent non-évident et nécessitant une analyse approfondie des interdépendances Phases projet alignées sur les résultats business permettent l'agilité au sein de chaque phase Sécurité Cyber Attaque su Musée Histoire Naturelle https://www.franceinfo.fr/internet/securite-sur-internet/cyberattaques/le-museum-nati[…]e-d-une-cyberattaque-severe-une-plainte-deposee_7430356.html Compromission massive de packages npm populaires par un malware crypto https://www.aikido.dev/blog/npm-debug-and-chalk-packages-compromised 18 packages npm très populaires compromis le 8 septembre 2025, incluant chalk, debug, ansi-styles avec plus de 2 milliards de téléchargements hebdomadaires combinés duckdb s'est rajouté à la liste Code malveillant injecté qui intercepte silencieusement l'activité crypto et web3 dans les navigateurs des utilisateurs Le malware manipule les interactions de wallet et redirige les paiements vers des comptes contrôlés par l'attaquant sans signes évidents Injection dans les fonctions critiques comme fetch, XMLHttpRequest et APIs de wallets (window.ethereum, Solana) pour intercepter le trafic Détection et remplacement automatique des adresses crypto sur multiple blockchains (Ethereum, Bitcoin, Solana, Tron, Litecoin, Bitcoin Cash) Les transactions sont modifiées en arrière-plan même si l'interface utilisateur semble correcte et légitime Utilise des adresses “sosies” via correspondance de chaînes pour rendre les échanges moins évidents à détecter Le mainteneur compromis par email de phishing provenant du faux domaine “mailto:support@npmjs.help|support@npmjs.help” enregistré 3 jours avant l'attaque sur une demande de mise a jour de son autheotnfication a deux facteurs après un an Aikido a alerté le mainteneur via Bluesky qui a confirmé la compromission et commencé le nettoyage des packages Attaque sophistiquée opérant à plusieurs niveaux: contenu web, appels API et manipulation des signatures de transactions Les anti-cheats de jeux vidéo : une faille de sécurité majeure ? - https://tferdinand.net/jeux-video-et-si-votre-anti-cheat-etait-la-plus-grosse-faille/ Les anti-cheats modernes s'installent au Ring 0 (noyau système) avec privilèges maximaux Ils obtiennent le même niveau d'accès que les antivirus professionnels mais sans audit ni certification Certains exploitent Secure Boot pour se charger avant le système d'exploitation Risque de supply chain : le groupe APT41 a déjà compromis des jeux comme League of Legends Un attaquant infiltré pourrait désactiver les solutions de sécurité et rester invisible Menace de stabilité : une erreur peut empêcher le démarrage du système (référence CrowdStrike) Conflits possibles entre différents anti-cheats qui se bloquent mutuellement Surveillance en temps réel des données d'utilisation sous prétexte anti-triche Dérive dangereuse selon l'auteur : des entreprises de jeux accèdent au niveau EDR Alternatives limitées : cloud gaming ou sandboxing avec impact sur performances donc faites gaffe aux jeux que vos gamins installent ! Loi, société et organisation Luc Julia au Sénat - Monsieur Phi réagi et publie la vidéo Luc Julia au Sénat : autopsie d'un grand N'IMPORTE QUOI https://www.youtube.com/watch?v=e5kDHL-nnh4 En format podcast de 20 minutes, sorti au même moment et à propos de sa conf à Devoxx https://www.youtube.com/watch?v=Q0gvaIZz1dM Le lab IA - Jérôme Fortias - Et si Luc Julia avait raison https://www.youtube.com/watch?v=KScI5PkCIaE Luc Julia au Senat https://www.youtube.com/watch?v=UjBZaKcTeIY Luc Julia se défend https://www.youtube.com/watch?v=DZmxa7jJ8sI Intelligence artificielle : catastrophe imminente ? - Luc Julia vs Maxime Fournes https://www.youtube.com/watch?v=sCNqGt7yIjo Tech and Co Monsieur Phi vs Luc Julia (put a click) https://www.youtube.com/watch?v=xKeFsOceT44 La tronche en biais https://www.youtube.com/live/zFwLAOgY0Wc Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online 22-24 septembre 2025 : Kernel Recipes - Paris (France) 22-27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23-24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25-26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025-1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6-7 octobre 2025 : Swift Connection 2025 - Paris (France) 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7-8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8-10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9-10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16-17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17-19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 5-6 novembre 2025 : Tech Show Paris - Paris (France) 5-6 novembre 2025 : Red Hat Summit: Connect Paris 2025 - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19-21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9-11 décembre 2025 : APIdays Paris - Paris (France) 9-11 décembre 2025 : Green IO Paris - Paris (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) 4 septembre 2026 : JUG SUmmer Camp 2026 - La Rochelle (France) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

il posto delle parole
Luciano Canova "Capacità"

il posto delle parole

Play Episode Listen Later Sep 12, 2025 17:41


Luciano Canova"Capacità"Festival Filosofiawww.festivalfilosofia.itFestival Filosofia, ModenaDomenica 21 settembre, ore 10:00Luciano CanovaCapacitàCome le politiche educative possono migliorare salute e libertàQual è il ruolo dell'istruzione nel rafforzamento delle istituzioni e nel miglioramento della qualità della vita? Questa lezione riflette sul legame tra accesso all'istruzione e sviluppo delle capacità individuali e collettive, analizzando i dati globali per presagire tendenze future in termini di salute, libertà e coesione sociale.Luciano Canova insegna Economia comportamentale presso la Scuola Enrico Mattei e ha collaborato con l'Università Bocconi e l'Università di Pavia. È promotore di progetti di educazione economica e finanziaria rivolti a scuole e cittadinanza. Ha sviluppato la sua attività di ricerca intorno all'economia comportamentale, all'economia della felicità, alla teoria delle decisioni e all'uso dei big data per l'analisi del benessere. I suoi studi si concentrano in particolare sull'intersezione tra scienze economiche e scienze cognitive, con attenzione al ruolo delle emozioni nei processi decisionali, alla misurazione empirica della qualità della vita e alla dimensione narrativa della razionalità economica. Accanto all'attività accademica, conduce un'intensa opera di divulgazione, in cui combina cultura pop, storytelling e strumenti scientifici per rendere accessibili le dinamiche dell'economia contemporanea. Collabora con testate come “Il Sole 24 Ore”. Tra i suoi libri: Pop Economy (Milano 2015); Il metro della felicità (Milano 2019); Favolosa economia. Le fiabe che ci insegnano a scegliere (Novara 2021); L'elefante invisibile. Come affrontare l'inatteso ed evitare di esserne travolti (Milano 2022); L'economista sul tapis roulant. Come allenarsi con le parole dell'economia (Milano 2023); Un pizzico di economia (con Giovanna Paladino, Milano 2024); Economia dell'ottimismo. Perché la speranza evita il fallimento delle nazioni (Milano 2025).Luciano Canova"Economia dell'ottimismo"Perché la speranza evita il fallimento delle nazioniIl Saggiatorewww.ilsaggiatore.comEconomia dell'ottimismo ci mostra quanto una visione carica di fiducia nel domani sia stata cruciale nella storia del pensiero economico e come possa ancora esserlo per noi e il nostro pianeta. Quella di Luciano Canova è una riflessione teorica e pragmatica sulle scelte umane e sulle loro conseguenze: perché, come ci dimostrano le innovazioni del XX secolo, è quando agiamo convinti di poter modificare la realtà in positivo che otteniamo miglioramenti duraturi per tutti. Se si guarda al mondo di oggi, pur con tutte le sue diseguaglianze e le sue crisi, non si può certo dire che non siano avvenuti progressi anche solo rispetto a mezzo secolo fa: calo vertiginoso della mortalità infantile, aumento costante dell'alfabetizzazione, diminuzione globale della povertà. Partendo da una smentita sia del pensiero nostalgico che porta a idealizzare il passato sia di quello apocalittico che dipinge un futuro a tinte fosche, Canova ci spinge a guardare con fiducia agli strumenti economici che stiamo mettendo in campo per portare il mondo su una strada di sostenibilità ambientale e pace sociale. Muovendosi tra economia, scienze comportamentali e psicologia, e attingendo alle riflessioni di premi Nobel come Esther Duflo o Amartya Sen, oltre che agli studi di Paul Romer e Erik Angner, questo libro invita ognuno di noi, nel proprio piccolo, ad accettare consapevolmente il rischio: a innovare, ad accogliere l'incertezza e a fronteggiare gli imprevisti, rimanendo in guardia contro i pericoli dati dall'eccesso di fiducia in se stessi e dai bias di conferma che ci portano a ignorare i problemi fino a quando non ci travolgono. Una prospettiva inedita, che non sminuisce i grandi problemi di oggi – il cambiamento climatico su tutti –, ma che afferma a gran voce che solo riconoscendoli e proiettandoci oltre di essi con positività potremo trovare soluzioni creative e realmente efficaci.Diventa un supporter di questo podcast: https://www.spreaker.com/podcast/il-posto-delle-parole--1487855/support.IL POSTO DELLE PAROLEascoltare fa pensarehttps://ilpostodelleparole.it/

Les Grandes Gueules
2027 : Bayrou "a les capacités" de tenir selon Emmanuel Macron - 20/08

Les Grandes Gueules

Play Episode Listen Later Aug 20, 2025 16:53


A 10h, ce mercredi 20 août 2025, les GG : Abel Boyi, éducateur et président de l'association Tous uniques tous unis, Antoine Diers, consultant auprès des entreprises, et Barbara Lefebvre, professeure d'histoire-géographie, débattent de : 2027, Bayrou "a les capacités" de tenir, selon Emmanuel Macron.

Le grand journal du soir - Matthieu Belliard
Punchline - Budget 2026 : «François Bayrou a les capacités pour tenir» estime Emmanuel Macron

Le grand journal du soir - Matthieu Belliard

Play Episode Listen Later Aug 19, 2025 9:13


Invités : - Oleg Kobtzeff, géopoliticien et spécialiste de la Russie - Sabrina Medjebeur, essayiste et sociologue - Vincent Roy, journaliste - Martin Garagnon, porte-parole d'Ensemble pour la République - Harold Hyman, journaliste international CNews - Julien Dray, ancien député Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Les Cast Codeurs Podcast
LCC 329 - L'IA, ce super stagiaire qui nous fait travailler plus

Les Cast Codeurs Podcast

Play Episode Listen Later Aug 14, 2025 120:24


Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

time community ai power google uk internet guide france pr building spring data elon musk microsoft chatgpt attention mvp phase dans construction agent tests windows bay area patterns ces tout tea ia pas limitations faire openai gemini distribution extension nvidia runner passage rust blue sky api retour conf agile gpt python cela toujours sb nouveau ml unis linux java trois priorit guillaume github mieux activation int libert aur jest savoir num selon valid donner armin bom lam certains javascript exposition documentation llm apache opus mod donc nouvelles arnaud contr prise changement cpu gpu maven nouveaux parfois m1 travailler google cloud ast exp dns normandie certaines aff tester cinq construire vall grok counted sql principales verified lorsqu cloudflare moser node git loi utiliser pdg sujet anthropic sortie afin sig lancement fen deepmind accepter ssl gitlab axes spel optimisation enregistr mocha mongodb toutefois ci cd json modules mistral xai capacit configuration mcp permet paris france orta aot cli github copilot objet comportement repenser utilisation montrer capitole enregistrement prd fuite jit ecrire fixe appels favoriser sse firebase commande oauth crud jep oci vache bgp jetbrains swe bitwarden nuage github actions windsurf livrer propuls mistral ai faille a2a xss stagiaire optimis remplacement mocker websockets automatiser cvss chris perry devcon revues spring boot tom l personnalisation jdk lyon france podman vertex ai adk bordeaux france jfr profilage amazon bedrock diagramme script editor clis junit dockerfile javaone provence france testcontainers toulouse france strasbourg france github issues commonjs lille france micrometer codeurs sourcetree dijon france devoxx france
Vlan!
[BEST OF] Une autre histoire de l'humanité avec Christian Grataloup

Vlan!

Play Episode Listen Later Aug 5, 2025 91:08


Durant l'été, je vous propose une sélection des meilleurs épisodes de Vlan sur la dernière saison. L'occasion de découvrir ou redécouvrir des épisodes qui ont énormément plu. Christian Grataloup est géographe, il se décrit comme un géohistorien mais pour moi c'est sans doute le meilleur raconteur d'histoire ever. Le 1er épisode que nous avions fait ensemble il y a des années (le 113) avait eu un énorme succès et je peux vous assurer que vous allez ADORER celui là aussi. Vous allez apprendre qui a découvert l'Amérique (et évidemment ce n'est pas Christophe Colomb).Dans cet épisode, nous allons explorer les méandres de l'histoire humaine à travers les yeux de Christian qui nous amènera de l'unité économique et religieuse de la chrétienté latine à l'impérialisme de l'Empire chinois, éclairant les différences fondamentales de ces civilisations et leur influence sur le monde tel que nous le connaissons.Christian nous révélera comment l'Europe a marqué de son empreinte le reste de la planète, en insistant sur des vérités souvent oubliées, comme le rôle du pillage dans les conquêtes des conquistadors en Amérique, plutôt qu'une prétendue supériorité technique. Il nous parlera également des Vikings en tant que commerçants et de la vision commerciale chinoise, tout en abordant des sujets aussi variés que la physiologie humaine, l'évolution de nos sociétés et le rôle vital de la communication et des langues.Accompagnez-nous dans ce voyage passionnant qui remettra en question bon nombre de nos préconceptions sur l'histoire de l'humanité, et préparez-vous à être stupéfait par la profondeur des connaissances de Christian C'est une discussion que vous ne voudrez certainement pas manquer ! Les questions que l'on aborde : 1. Quelles comparaisons pouvez-vous faire entre la diversité politique européenne et l'unité politique de la Chine à différentes époques historiques, et quelles en sont les conséquences sur l'histoire mondiale?2. Comment l'histoire scientifique et industrielle de l'Europe a-t-elle contribué à son expansion à travers le monde, contrairement à d'autres régions?3. En quoi la conquête de l'Amérique met-elle en question l'idée de la supériorité technique des Européens et quelle était la véritable nature de leur échange avec les peuples autochtones?4. Comment les adaptations physiologiques humaines, comme la gestion de la grossesse et la prématuration des bébés, ont-elles contribué au succès de notre espèce malgré les difficultés?5. De quelle manière les langues et la communication ont-elles joué un rôle essentiel dans la survie et l'évolution de l'humanité?6. En évoquant la théorie de l'invention de la langue humaine par absorption de champignons, quelles sont les réflexions de Christian sur les origines de notre capacité à communiquer?7. Selon les discussions de l'épisode, quelle est l'importance de l'année 1537 dans notre reconnaissance de l'unité et de la diversité humaine?8. Comment l'histoire et la diffusion de l'humanité à travers toutes les terres émergées contrastent-elles avec les autres espèces et quelle influence cela a-t-il eu sur notre développement?9. Quel est le rôle des dynamiques géographiques et physiologiques dans l'évolution humaine, selon l'analyse de Christian sur les différents environnements et leurs influences?10. Comment la cartographie et les représentations du monde ont-elles influencé notre compréhension de la taille et de l'importance des différents continents et pays?Timelaps : 00:00 Marsupiaux, évolution humaine, histoires anciennes.06:56 Capacité de course, tête grosse et feu.14:51 Polynésiens découverts en Amérique du Sud, légendes.20:58 Relations amérindiennes-européennes, première mixité et conquête.27:59 Progressive intégration dans le monde byzantin, servage.30:20 Présence ancienne des grands glaciers en Europe.36:42 Impasse biologique due à la station debout.43:33 Diffusion humaine diversifie langage et innovations nécessaires.50:04 L'histoire de l'Europe et sa conquête.53:02 Impact des maladies européennes sur les populations autochtones.57:46 Conflits européens et chinois, conquêtes en Asie.01:05:23 Exploration européenne du Mali, développement technique monde ancien.01:07:17 Supériorité européenne au 19e siècle technique et démographique.01:12:21 Pays d'Europe occidentale, commerce, conquête, Indes.01:20:20 Histoire géographique mondiale et dimension horizontale.01:26:44 Arbres anciens, traces archéologiques, climat changeant.01:29:56 Refus de souverainisme, préconisation du métissage culturel. Suggestion d'autres épisodes à écouter : Vlan #113 Revenir au temps long pour comprendre le monde avec Christian Grataloup (https://audmns.com/eSlZGOZ) #292 Les enjeux de la géopolitique climatique avec David Djaiz (https://audmns.com/BoZGVQa) #274 L'eau va t'elle devenir une denrée rare en France avec Magali Reghezza (https://audmns.com/TpVPDYg)Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

L'entretien de Sonia Mabrouk
«Les Français voient que nous sommes en capacité de leur apporter ce dont ils ont besoin», souligne Julien Odoul

L'entretien de Sonia Mabrouk

Play Episode Listen Later Aug 1, 2025 12:36


Invité : Julien Odoul, député de l'Yonne et porte-parole du Rassemblement national Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Devotionale Audio
Tot ce avem vine de la Dumnezeu 02.08.2025 [devotional audio]

Devotionale Audio

Play Episode Listen Later Aug 1, 2025 3:42


Capacitățile revărsate din cer nu ar trebui puse în slujba scopurilor egoiste. Fiecare energie, fiecare înzestrare este un talent care ar trebui să contribuie la slava lui Dumnezeu prin utilizarea în slujba Lui.Citește acest devoțional și multe alte meditații biblice pe https://devotionale.ro#devotionale #devotionaleaudio

EMCI TV Prières inspirées
Ton autorité dépend de ta capacité à te pardonné

EMCI TV Prières inspirées

Play Episode Listen Later Jul 30, 2025


La Loupe
[HORS-SÉRIE] 20/20 : Il faut se mettre en capacité d'apprendre toute sa vie ! Jérôme Saltet, Cofondateur & Directeur associé – Groupe Play Bac

La Loupe

Play Episode Listen Later Jul 26, 2025 57:58


20/20 est un podcast signé L'Express Éducation, entièrement consacré à l'enseignement supérieur. Il a été réalisé indépendamment de la rédaction de L'Express.Abonnez-vous pour suivre toutes nos analyses et débats

Les Grandes Gueules
Le coup de gueule du jour - Antoine Diers : "Le problème, il se règle à Menton, à nos frontières. Réhabilitons les frontières. Le message envoyé à l'Afrique, c'est : il y a capacité de passer." - 11/07

Les Grandes Gueules

Play Episode Listen Later Jul 11, 2025 2:01


Aujourd'hui, Fatima Aït Bounoua, Charles Consigny et Antoine Diers débattent de l'actualité autour d'Alain Marschall et Olivier Truchot.

Le vrai du faux
Quelque 93% des nouvelles capacités électriques installées dans le monde sont-elles vraiment renouvelables, comme l'affirme Yannick Jadot ?

Le vrai du faux

Play Episode Listen Later Jul 9, 2025 2:01


durée : 00:02:01 - Le vrai ou faux - Alors que le Sénat vient de voter une loi qui relance fortement le nucléaire tout en restant flou sur les objectifs pour les renouvelables, le sénateur écologiste dénonce une stratégie à contre-courant de ce qui se fait dans le monde. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.

Les actus du jour - Hugo Décrypte
Trump affirme avoir détruit la capacité nucléaire, l'Iran répond, explications

Les actus du jour - Hugo Décrypte

Play Episode Listen Later Jun 25, 2025 11:39


PODCASTChaque jour, en moins de 10 minutes, un résumé de l'actualité du jour. Rapide, facile, accessible.

Métamorphose, le podcast qui éveille la conscience
Métaux toxiques : comment protéger notre santé ? avec Hélène Ferran, Docteure en biologie #602

Métamorphose, le podcast qui éveille la conscience

Play Episode Listen Later Jun 19, 2025 57:43


[MÉTAMORPHOSE PODCAST] Alexandre Dana reçoit Hélène Ferran, thérapeute, naturopathe et formatrice au CENATHO. Quel est le véritable impact des métaux toxiques sur notre santé ? Comment pouvons-nous limiter notre exposition et aider notre corps à s'en débarrasser ? Quelle eau choisir ? Quelle alimentation adopter ? Hélène Ferran nous donne des clés pour mieux gérer ces métaux omniprésents dans notre quotidien, qui s'accumulent dans notre corps et contribuent à divers troubles. Son livre, C'est quoi, les métaux toxiques ? est illustré par Lou Bédrine et publié aux éditions Dangles. Épisode #602Quelques citations du podcast avec Hélène Ferran :"Le fait d'avoir été exposé aux métaux toxiques va avoir un impact sur l'expression de certains de vos gènes.""Notre corps est une formidable boîte à outils pour détoxiquer beaucoup de composés.""Le glutathion, c'est la Rolls vraiment de la détox des métaux."Thèmes abordés lors du podcast avec Hélène Ferran : 00:00 Introduction02:57 Le parcours d'Hélène Ferran04:33 Distinction métaux lourds / métaux toxiques05:51 De quand date l'invasion des métaux toxiques06:55 Les modes d'absorption de ces métaux09:21 Prise de conscience collective ?10:50 L'effet cocktail13:12 Lien pathologies / exposition aux métaux15:37 Impacts concrets sur le corps17:16 Le stress oxydatif18:20 L'impact sur les femmes enceintes19:45 L'épigénétique21:03 Le rôle de la santé intestinale23:25 Stimuler la détoxication25:33 Une assiette anti-métaux toxiques27:15 Évaluer son exposition aux métaux toxiques29:58 Les cures de détoxification33:31 Quelle eau choisir ?38:12 Quels compléments pour protéger l'organisme ?40:44 Cosmétiques toxiques ?42:22 Vêtements et nanoparticules43:07 Les métaux toxiques dans les solutions santé (alliages, prothèse, médicaments, vaccins etc)45:44 La sensibilisation du milieu médical47:42 Comment détecter la quantité de métaux dans le corps ?50:04 Capacité individuelle à détoxiquer53:20 L'impact du stressAvant-propos et précautions à l'écoute du podcastDécouvrez Objectif Métamorphose, notre programme en 12 étapes pour partir à la rencontre de soi-même.Recevez un mercredi sur deux la newsletter Métamorphose avec des infos inédites sur le podcast et les inspirations d'AnneFaites le TEST gratuit de La Roue Métamorphose avec 9 piliers de votre vie !Suivez nos RS : Insta, Facebook & TikTokAbonnez-vous sur Apple Podcast / Spotify / Deezer / CastBox/ YoutubeSoutenez Métamorphose en rejoignant la Tribu MétamorphosePhoto DR Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Un jour dans le monde
Pourquoi l'OTAN veut une "hausse de 400%" des capacités de défense aérienne ?

Un jour dans le monde

Play Episode Listen Later Jun 9, 2025 9:28


durée : 00:09:28 - Le monde à 18h50 - par : Franck MATHEVON - Le secrétaire général de l'OTAN demande une augmentation de « 400% des capacités de défense aérienne ». Les Etats-membres de l'Alliance atlantique sont donc appelés à sortir le carnet de chèques. Au risque de braquer les opinions publiques...