Podcasts about capacit

  • 655PODCASTS
  • 1,345EPISODES
  • 22mAVG DURATION
  • 5WEEKLY NEW EPISODES
  • Sep 10, 2025LATEST

POPULARITY

20172018201920202021202220232024

Categories



Best podcasts about capacit

Latest podcast episodes about capacit

GPShow
L'INTELLIGENZA ARTIFICIALE: sta nascendo una bolla? tutta la verità

GPShow

Play Episode Listen Later Sep 10, 2025 20:54


Partecipa all'evento formativo gratuito “L'immobiliare intelligente" che si terrà mercoledì 10 settembre alle ore 21, per scoprire opportunità e rischi dell'investimento immobiliare. Iscriviti subito al link https://www.pianofinanziario.it/immobile

Europe 1 - L'interview d'actualité
Antisémitisme en France : Emmanuel Macron a-t-il les capacités de lutter contre ce fléau ?

Europe 1 - L'interview d'actualité

Play Episode Listen Later Aug 27, 2025 9:37


Invités : - Georges Fenech, ancien magistrat et député honoraire du Rhône - Vincent Roy, journaliste et écrivain Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Les Grandes Gueules
2027 : Bayrou "a les capacités" de tenir selon Emmanuel Macron - 20/08

Les Grandes Gueules

Play Episode Listen Later Aug 20, 2025 16:53


A 10h, ce mercredi 20 août 2025, les GG : Abel Boyi, éducateur et président de l'association Tous uniques tous unis, Antoine Diers, consultant auprès des entreprises, et Barbara Lefebvre, professeure d'histoire-géographie, débattent de : 2027, Bayrou "a les capacités" de tenir, selon Emmanuel Macron.

Le journal de la nuit
Budget 2026 : François Bayrou a-t-il «les capacités pour tenir le gouvernement» jusqu'en 2027 comme l'affirme Emmanuel Macron ?

Le journal de la nuit

Play Episode Listen Later Aug 20, 2025 13:54


Invités : - Arthur Delaporte, député PS du Calvados et président de la commission d'enquête sur les effets psychologiques de Tiktok  - Eliott Mamane, journaliste - Régis Le Sommier, grand reporter et directeur de la rédaction d'Omerta Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Le grand journal du soir - Matthieu Belliard
Punchline - Budget 2026 : «François Bayrou a les capacités pour tenir» estime Emmanuel Macron

Le grand journal du soir - Matthieu Belliard

Play Episode Listen Later Aug 19, 2025 9:13


Invités : - Oleg Kobtzeff, géopoliticien et spécialiste de la Russie - Sabrina Medjebeur, essayiste et sociologue - Vincent Roy, journaliste - Martin Garagnon, porte-parole d'Ensemble pour la République - Harold Hyman, journaliste international CNews - Julien Dray, ancien député Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Les Cast Codeurs Podcast
LCC 329 - L'IA, ce super stagiaire qui nous fait travailler plus

Les Cast Codeurs Podcast

Play Episode Listen Later Aug 14, 2025 120:24


Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

time community ai power google uk internet guide france pr building spring data elon musk microsoft chatgpt attention mvp phase dans construction agent tests windows bay area ces patterns tout tea ia pas limitations faire distribution openai gemini extension runner nvidia passage rust blue sky api retour conf agile cela python gpt toujours sb nouveau ml unis linux java trois github priorit guillaume mieux activation int libert aur jest savoir selon num donner valid armin bom lam certains javascript exposition documentation apache opus mod donc llm nouvelles arnaud contr prise changement cpu maven nouveaux gpu m1 parfois travailler google cloud exp ast dns normandie certaines tester aff cinq vall construire counted sql principales lorsqu grok verified moser node git loi utiliser pdg cloudflare sujet sortie afin sig lancement anthropic fen deepmind accepter ssl gitlab axes spel optimisation enregistr mocha mongodb toutefois ci cd modules json capacit mistral configuration xai paris france permet aot orta cli github copilot objet mcp comportement utilisation repenser montrer capitole enregistrement prd fuite jit ecrire appels favoriser fixe firebase sse commande oauth crud jep vache oci bgp jetbrains bitwarden swe nuage github actions windsurf livrer propuls mistral ai faille xss a2a optimis mocker remplacement websockets stagiaire automatiser chris perry cvss devcon revues spring boot personnalisation tom l jdk lyon france podman vertex ai adk bordeaux france jfr profilage amazon bedrock diagramme script editor junit clis dockerfile javaone provence france testcontainers toulouse france strasbourg france github issues commonjs lille france codeurs micrometer sourcetree dijon france devoxx france
TOPFM MAURITIUS
Maurice renforce ses capacités en planification durable grâce au cadre intégré Climat, Terres, Énergie et Eau

TOPFM MAURITIUS

Play Episode Listen Later Aug 11, 2025 1:18


Du 11 au 15 août 2025, une formation sur le cadre d'analyse intégré des systèmes Climat, Terres, Énergie et Eau (CLEWs) se tient à Moka. Organisée par le Département des affaires économiques et sociales des Nations Unies (UNDESA), en collaboration avec l'Université de Maurice, cette initiative a pour objectif de fournir au pays des outils de modélisation avancés afin d'intégrer les enjeux environnementaux et climatiques dans la planification stratégique et la prise de décision politique. Le cadre CLEWs est une méthodologie permettant d'étudier simultanément les interactions entre l'énergie, l'eau, les terres et le climat. Il aide à identifier les synergies, les compromis et les vulnérabilités entre ces secteurs, ce qui permet d'orienter plus efficacement les choix technologiques et les politiques publiques. Lors de la cérémonie d'ouverture, le Dr Dinesh Surroop, Pro-Vice Chancellor (Planification et Ressources) à l'Université de Maurice, a souligné l'importance stratégique de cette formation. De son côté, le Dr Namsuk Kim, responsable des affaires économiques à l'UNDESA à New York, a expliqué que ce cadre permet d'anticiper les effets des politiques avant leur mise en place. Il a aussi souligné l'importance de la collaboration entre ministères et secteurs pour une vision globale des impacts économiques.

TORQ PODCAST - FRANCAIS
439. Ford Super Duty le Plus CHER ! COMBIEN ÇA COÛTE ? | TORQ

TORQ PODCAST - FRANCAIS

Play Episode Listen Later Aug 7, 2025 16:11


Ford Super Duty le Plus CHER ! COMBIEN ÇA COÛTE ? TORQ - Épisode 439Jusqu'où peut monter le prix d'un Ford Super Duty ? Dans cet épisode, Jul Torq se penche sur la question que tout le monde se pose : combien coûte le Ford Super Duty le plus cher disponible sur le marché, notamment ici au Québec et au Canada ?

Fumetti & Dintorni
L'Eternauta stagione 1 [Fumetti & dintorni #1291]

Fumetti & Dintorni

Play Episode Listen Later Aug 7, 2025 8:09


Se pensate che la vostra serata tra amici sia stata un disastro, aspettate di vedere cosa succede quando arriva la neve tossica! L'Eternauta stagione 1, disponibile su Netflix.

Vlan!
[BEST OF] Une autre histoire de l'humanité avec Christian Grataloup

Vlan!

Play Episode Listen Later Aug 5, 2025 91:08


Durant l'été, je vous propose une sélection des meilleurs épisodes de Vlan sur la dernière saison. L'occasion de découvrir ou redécouvrir des épisodes qui ont énormément plu. Christian Grataloup est géographe, il se décrit comme un géohistorien mais pour moi c'est sans doute le meilleur raconteur d'histoire ever. Le 1er épisode que nous avions fait ensemble il y a des années (le 113) avait eu un énorme succès et je peux vous assurer que vous allez ADORER celui là aussi. Vous allez apprendre qui a découvert l'Amérique (et évidemment ce n'est pas Christophe Colomb).Dans cet épisode, nous allons explorer les méandres de l'histoire humaine à travers les yeux de Christian qui nous amènera de l'unité économique et religieuse de la chrétienté latine à l'impérialisme de l'Empire chinois, éclairant les différences fondamentales de ces civilisations et leur influence sur le monde tel que nous le connaissons.Christian nous révélera comment l'Europe a marqué de son empreinte le reste de la planète, en insistant sur des vérités souvent oubliées, comme le rôle du pillage dans les conquêtes des conquistadors en Amérique, plutôt qu'une prétendue supériorité technique. Il nous parlera également des Vikings en tant que commerçants et de la vision commerciale chinoise, tout en abordant des sujets aussi variés que la physiologie humaine, l'évolution de nos sociétés et le rôle vital de la communication et des langues.Accompagnez-nous dans ce voyage passionnant qui remettra en question bon nombre de nos préconceptions sur l'histoire de l'humanité, et préparez-vous à être stupéfait par la profondeur des connaissances de Christian C'est une discussion que vous ne voudrez certainement pas manquer ! Les questions que l'on aborde : 1. Quelles comparaisons pouvez-vous faire entre la diversité politique européenne et l'unité politique de la Chine à différentes époques historiques, et quelles en sont les conséquences sur l'histoire mondiale?2. Comment l'histoire scientifique et industrielle de l'Europe a-t-elle contribué à son expansion à travers le monde, contrairement à d'autres régions?3. En quoi la conquête de l'Amérique met-elle en question l'idée de la supériorité technique des Européens et quelle était la véritable nature de leur échange avec les peuples autochtones?4. Comment les adaptations physiologiques humaines, comme la gestion de la grossesse et la prématuration des bébés, ont-elles contribué au succès de notre espèce malgré les difficultés?5. De quelle manière les langues et la communication ont-elles joué un rôle essentiel dans la survie et l'évolution de l'humanité?6. En évoquant la théorie de l'invention de la langue humaine par absorption de champignons, quelles sont les réflexions de Christian sur les origines de notre capacité à communiquer?7. Selon les discussions de l'épisode, quelle est l'importance de l'année 1537 dans notre reconnaissance de l'unité et de la diversité humaine?8. Comment l'histoire et la diffusion de l'humanité à travers toutes les terres émergées contrastent-elles avec les autres espèces et quelle influence cela a-t-il eu sur notre développement?9. Quel est le rôle des dynamiques géographiques et physiologiques dans l'évolution humaine, selon l'analyse de Christian sur les différents environnements et leurs influences?10. Comment la cartographie et les représentations du monde ont-elles influencé notre compréhension de la taille et de l'importance des différents continents et pays?Timelaps : 00:00 Marsupiaux, évolution humaine, histoires anciennes.06:56 Capacité de course, tête grosse et feu.14:51 Polynésiens découverts en Amérique du Sud, légendes.20:58 Relations amérindiennes-européennes, première mixité et conquête.27:59 Progressive intégration dans le monde byzantin, servage.30:20 Présence ancienne des grands glaciers en Europe.36:42 Impasse biologique due à la station debout.43:33 Diffusion humaine diversifie langage et innovations nécessaires.50:04 L'histoire de l'Europe et sa conquête.53:02 Impact des maladies européennes sur les populations autochtones.57:46 Conflits européens et chinois, conquêtes en Asie.01:05:23 Exploration européenne du Mali, développement technique monde ancien.01:07:17 Supériorité européenne au 19e siècle technique et démographique.01:12:21 Pays d'Europe occidentale, commerce, conquête, Indes.01:20:20 Histoire géographique mondiale et dimension horizontale.01:26:44 Arbres anciens, traces archéologiques, climat changeant.01:29:56 Refus de souverainisme, préconisation du métissage culturel. Suggestion d'autres épisodes à écouter : Vlan #113 Revenir au temps long pour comprendre le monde avec Christian Grataloup (https://audmns.com/eSlZGOZ) #292 Les enjeux de la géopolitique climatique avec David Djaiz (https://audmns.com/BoZGVQa) #274 L'eau va t'elle devenir une denrée rare en France avec Magali Reghezza (https://audmns.com/TpVPDYg)Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Logos-Rhema OSL
La Capacité d'être Ministre de l'Esprit, Culte Dominical du O3 - 08 - 2025

Logos-Rhema OSL

Play Episode Listen Later Aug 3, 2025 53:58


Orateur : Dr. Diamant Bob KALONJI

L'entretien de Sonia Mabrouk
«Les Français voient que nous sommes en capacité de leur apporter ce dont ils ont besoin», souligne Julien Odoul

L'entretien de Sonia Mabrouk

Play Episode Listen Later Aug 1, 2025 12:36


Invité : Julien Odoul, député de l'Yonne et porte-parole du Rassemblement national Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Devotionale Audio
Tot ce avem vine de la Dumnezeu 02.08.2025 [devotional audio]

Devotionale Audio

Play Episode Listen Later Aug 1, 2025 3:42


Capacitățile revărsate din cer nu ar trebui puse în slujba scopurilor egoiste. Fiecare energie, fiecare înzestrare este un talent care ar trebui să contribuie la slava lui Dumnezeu prin utilizarea în slujba Lui.Citește acest devoțional și multe alte meditații biblice pe https://devotionale.ro#devotionale #devotionaleaudio

EMCI TV Prières inspirées
Ton autorité dépend de ta capacité à te pardonné

EMCI TV Prières inspirées

Play Episode Listen Later Jul 30, 2025


TORQ PODCAST - FRANCAIS
435. F-150 TREMOR vs XLT : Quel Modèle Est Vraiment Fait Pour VOUS ? | TORQ PODCAST

TORQ PODCAST - FRANCAIS

Play Episode Listen Later Jul 29, 2025 28:41


F-150 TREMOR vs XLT : Quel Modèle Est Vraiment Fait Pour VOUS ?TORQ PODCAST - Épisode 435Vous envisagez d'acheter un Ford F-150 et vous hésitez entre le F-150 Tremor et le F-150 XLT ? Ne cherchez plus ! Dans cet épisode crucial du Torq Podcast, Jul Torq décortique les forces et les faiblesses de ces deux versions populaires pour vous aider à faire le choix parfait, adapté à VOS besoins réels !Le F-150 est le pickup le plus vendu en Amérique du Nord, mais choisir la bonne version peut être un véritable casse-tête. On compare tête-à-tête le Tremor, axé sur le hors-route et l'aventure, et le XLT, reconnu pour sa polyvalence et son excellent rapport qualité-prix.Jul Torq plonge dans les détails pour vous guider :Philosophie et Positionnement : Quelle est la vocation principale de chaque modèle ? Le Tremor est-il vraiment un Raptor allégé ? Le XLT est-il le juste milieu parfait ?Capacités et Équipements :F-150 Tremor : Suspension améliorée, pneus tout-terrain, modes de conduite spécifiques, différentiels bloquants... Est-il prêt pour les sentiers les plus ardus ici au Québec ?F-150 XLT : Un excellent équilibre entre capacité de travail, confort et fonctionnalités au quotidien. Ses avantages pour la construction, la famille ou les loisirs.Motorisations Disponibles : Quelles options de moteurs (EcoBoost, V8) sont offertes sur chaque version et comment influencent-elles la performance et la consommation ?Confort et Intérieur : Les différences en termes d'aménagement, de matériaux et de technologies à l'intérieur de l'habitacle.Rapport Qualité/Prix : Le coût additionnel du Tremor est-il justifié par ses capacités supplémentaires, ou le XLT offre-t-il plus de valeur pour votre argent ?Pour QUI est Chaque Modèle ? Jul Torq vous aide à identifier votre profil d'acheteur idéal pour le Tremor ou le XLT.Que vous soyez un aventurier du week-end, un entrepreneur, ou un père de famille à la recherche de polyvalence, cette vidéo est votre guide ultime pour choisir entre le Ford F-150 Tremor et le F-150 XLT !Ne manquez pas ce comparatif détaillé avec Jul Torq et prenez une décision éclairée pour votre prochain pickup. Quel F-150 correspond le mieux à votre vie ? Dites-le nous en commentaires !YOUTUBE Membres VIP :https://www.youtube.com/channel/UCbha0iHrKImRyDXbDNO-EJw/joinSpotify Membres VIP :https://podcasters.spotify.com/pod/show/torqpodcast/subscribeTORQ MEDIASite Web : https://torqmedia.ca FAST WHEELS https://fastco.ca/Fast-Wheels/HomeONEBONE Site Web : https://onebonebrand.com/jultorqCode : JULTORQ ( - 15% Rabais )Suivez-Nous sur Instagram :@JulTorq : https://www.instagram.com/jultorq/@EveTorq : https://www.instagram.com/evetorq/#F150Tremor #F150XLT #FordF150

Fumetti & Dintorni
Ultimates 10[Fumetti & dintorni #1284]

Fumetti & Dintorni

Play Episode Listen Later Jul 29, 2025 5:09


Ultimates: il fumetto che ci fa dire "Cavolo, non succede niente!"... finché non succede tutto.Ultimates 10, scritto da Deniz Camp, disegnato da Juan Frigeri, edito da Panini Comics.

La Loupe
[HORS-SÉRIE] 20/20 : Il faut se mettre en capacité d'apprendre toute sa vie ! Jérôme Saltet, Cofondateur & Directeur associé – Groupe Play Bac

La Loupe

Play Episode Listen Later Jul 26, 2025 57:58


20/20 est un podcast signé L'Express Éducation, entièrement consacré à l'enseignement supérieur. Il a été réalisé indépendamment de la rédaction de L'Express.Abonnez-vous pour suivre toutes nos analyses et débats

TORQ PODCAST - FRANCAIS
433. GMC Sierra 1500 le Plus CHER ! COMBIEN ÇA COÛTE ? | TORQ PODCAST

TORQ PODCAST - FRANCAIS

Play Episode Listen Later Jul 23, 2025 13:10


GMC Sierra 1500 le Plus CHER ! COMBIEN ÇA COÛTE ? TORQ PODCAST - Épisode 433Jusqu'où peut monter le prix d'un GMC Sierra 1500 ? Dans cet épisode détaillé du Torq Podcast, Jul Torq se penche sur la question que tout le monde se pose : combien coûte le GMC Sierra 1500 le plus cher disponible sur le marché, notamment ici au Québec et au Canada ?

Tout savoir en 24 minutes
Réservoir d'Hydro: «On est descendu jusqu'à 34% de la capacité d'eau», explique Alex Moranville

Tout savoir en 24 minutes

Play Episode Listen Later Jul 23, 2025 18:26


Le plus gros réservoir d’Hydro-Québec est à moitié vide. Fillette de 9 ans assassinée : son décès serait dû à une noyade. Nos rivières rendues plus dangereuses par les changements climatiques. Barack Obama brise le silence sur les mensonges de Trump. Trump envoie une menace à peine voilée aux médias. Surprise : un AUTRE projet informatique dépasse les coûts et les délais, chez Hydro cette fois. Des regroupements de parents et de garderies interpellent le ministère de la famille face aux expulsions à venir. Tout savoir en quelques minutes avec Alexandre Dubé, Marianne Bessette et Alexandre Moranville-Ouellet. Regardez aussi cette discussion en vidéo via https://www.qub.ca/videos ou en vous abonnant à QUB télé : https://www.tvaplus.ca/qub ou sur la chaîne YouTube QUB https://www.youtube.com/@qub_radioPour de l'information concernant l'utilisation de vos données personnelles - https://omnystudio.com/policies/listener/fr

Les Grandes Gueules
Le coup de gueule du jour - Antoine Diers : "Le problème, il se règle à Menton, à nos frontières. Réhabilitons les frontières. Le message envoyé à l'Afrique, c'est : il y a capacité de passer." - 11/07

Les Grandes Gueules

Play Episode Listen Later Jul 11, 2025 2:01


Aujourd'hui, Fatima Aït Bounoua, Charles Consigny et Antoine Diers débattent de l'actualité autour d'Alain Marschall et Olivier Truchot.

Le vrai du faux
Quelque 93% des nouvelles capacités électriques installées dans le monde sont-elles vraiment renouvelables, comme l'affirme Yannick Jadot ?

Le vrai du faux

Play Episode Listen Later Jul 9, 2025 2:01


durée : 00:02:01 - Le vrai ou faux - Alors que le Sénat vient de voter une loi qui relance fortement le nucléaire tout en restant flou sur les objectifs pour les renouvelables, le sénateur écologiste dénonce une stratégie à contre-courant de ce qui se fait dans le monde. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.

Naturopathie et réflexions naturopathiques
MA séance de gymnastique fonctionnelle pou développer toutes les capacités

Naturopathie et réflexions naturopathiques

Play Episode Listen Later Jul 7, 2025 21:18


Tous les principes d'une séance de gymnastique - musculation mobilité pour améliorer votre niveau de vitalité

Les interviews d'Europe 1
Iran : «La république islamique n'a plus la capacité de bâtir une bombe nucléaire», assure Emmanuel Navon

Les interviews d'Europe 1

Play Episode Listen Later Jun 29, 2025 7:33


Chaque samedi et dimanche, Lénaïg Monier reçoit un invité au cœur de l'actualité politique pour une interview sans concession.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

L'interview politique du week-end
Iran : «La république islamique n'a plus la capacité de bâtir une bombe nucléaire», assure Emmanuel Navon

L'interview politique du week-end

Play Episode Listen Later Jun 29, 2025 7:33


Chaque samedi et dimanche, Lénaïg Monier reçoit un invité au cœur de l'actualité politique pour une interview sans concession.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Il Potere Del Cambiamento
Chiedere SCUSA, SBAGLIARE, Ringraziare (sbloccare il potenziale)

Il Potere Del Cambiamento

Play Episode Listen Later Jun 28, 2025 11:05


Ci sono molte che dobbiamo imparare nella vita. Si parla di skills, di competenze, di conoscenze. Dobbiamo imparare a superare la paura ed il senso di colpa. Ma ci sono cose di cui non parla quasi nessuno, ossia, imparare a CHIEDERE SCUSA, a SBAGLIARE, a RINGRAZIARE. Saperlo fare, sul serio, è un segno di profonda consapevolezza e di grande forza. Capacità che possono diventare chiavi speciali per lo sblocco del nostro potenziale. Ho registrato questa puntata per condividerti la mia esperienza personale, come alcuni pilastri solidi e necessari per il tuo successo, che deve iniziare, adesso.

Les actus du jour - Hugo Décrypte
Trump affirme avoir détruit la capacité nucléaire, l'Iran répond, explications

Les actus du jour - Hugo Décrypte

Play Episode Listen Later Jun 25, 2025 11:39


PODCASTChaque jour, en moins de 10 minutes, un résumé de l'actualité du jour. Rapide, facile, accessible.

L'entrepreneuriat, c'est du sport !
[REDIFF DU MERCREDI] Clémence FALEWEE BREARD de SIMONE & NELSON

L'entrepreneuriat, c'est du sport !

Play Episode Listen Later Jun 25, 2025 49:00


Conférences d'excellence, sport d'élite : Bienvenue dans l'univers de Simone & Nelson.Clémence FALEWEE BREARD n'a pas choisi le nom de son agence au hasard. Simone & Nelson. Deux prénoms, deux icônes – Veil et Mandela – pour incarner la puissance de la prise de parole.Fondatrice et CEO de cette agence de conférenciers, Clémence réunit aujourd'hui plus de 1000 profils inspirants et orchestre environ 400 conférences par an.Mais avant cela ?→ Elle a œuvré dans le celebrity marketing chez Universal Music.→ Organisé des concerts privés avec Will.i.am, Jessie J ou Robin Thicke.→ Géré l'agence de conférenciers chez Brand & Celebrities avant de la reprendre en 2020, en pleine crise du Covid.Sa mission : mettre en lumière des voix fortes pour les événements d'entreprise. Et le sport y a une place de choix.→ Cohésion, dépassement de soi, leadership, motivation…→ Des thématiques où les champions excellent autant sur scène que sur le terrain.Parmi les talents référencés : François Alu, Tony Parker, Claude Onesta… Mais attention, être un grand athlète ne suffit pas. Clémence sélectionne rigoureusement ses intervenants :→ Qualité d'élocution,→ Pertinence pour le monde de l'entreprise,→ Capacité à incarner un message fort.Et quand un profil est encore en rodage ? L'agence propose des grands entretiens pour que l'authenticité prime sur la performance scénique.Dans son parcours comme dans son quotidien, Clémence reste marquée par sa première passion : la danse classique, qu'elle a pratiquée pendant 20 ans. Une discipline exigeante, rigoureuse, collective – un sport, en somme.Résilience, exigence, esprit d'équipe. Des valeurs qu'elle applique au jour le jour chez Simone & Nelson.Et vous, quelle histoire êtes-vous prêt à entendre pour faire bouger les lignes ?Site web : https://simoneetnelson.com/Linkedin : https://www.linkedin.com/in/clemencefalewee/Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Choses à Savoir CERVEAU
La capacité de raisonnement dépend-elle de la forme du cerveau ?

Choses à Savoir CERVEAU

Play Episode Listen Later Jun 25, 2025 2:04


La question de savoir si la forme du cerveau influe sur notre capacité à raisonner vient de franchir un cap avec l'étude pilotée par Silvia Bunge et ses collègues de l'Université de Californie, Berkeley, publiée le 19 mai 2025 dans The Journal of Neuroscience. Les chercheurs ont scanné le cerveau de 43 participants âgés de 7 à 18 ans. En cartographiant la profondeur de petits plis appelés sulci tertiaires dans le cortex préfrontal et pariétal, ils ont découvert que, même après avoir pris en compte le volume global du cerveau et le QI verbal, trois de ces sillons préfrontaux permettaient de prédire jusqu'à 20 % de la variance des scores de raisonnement.Au-delà des simples corrélations, les scientifiques ont superposé cette cartographie morphologique à des images cérébrales fonctionnelles obtenues pendant des exercices de résolution de puzzles visuo-spatiaux. Résultat : plus un sillon est profond, plus il occupe une position stratégique dans le réseau fronto-pariétal du raisonnement, un réseau crucial pour le traitement cognitif de haut niveau. Ce type de repli rapprocherait physiquement des zones du cerveau qui communiquent intensément, rendant les connexions plus efficaces et plus rapides. Un millimètre de profondeur supplémentaire dans certains sulci est ainsi associé à une amélioration nette de la performance cognitive, indépendamment de l'âge ou du sexe.Mais comment un pli devient-il un avantage ? Les chercheurs avancent plusieurs hypothèses. D'abord, ces plis résulteraient de tensions internes créées par la croissance différenciée des tissus cérébraux : là où les connexions sont les plus nombreuses, la surface se plisse. Ensuite, cette morphologie compacte favoriserait une meilleure synchronisation neuronale. Enfin, l'expérience joue un rôle : un sous-groupe d'enfants ayant reçu un entraînement ciblé à la résolution de problèmes a montré un approfondissement progressif de certains sulci, preuve que la plasticité structurelle reste active durant l'enfance.Il ne faut toutefois pas conclure que la forme du cerveau dicte le destin intellectuel. L'étude ne porte que sur des cerveaux jeunes et en bonne santé, et n'explique qu'une partie de la variance. D'autres facteurs comme la myélinisation, la densité synaptique, ou le contexte socio-éducatif jouent un rôle majeur. La forme est un facteur parmi d'autres, non une fatalité.Ces découvertes pourraient cependant servir à identifier précocement certains troubles de l'apprentissage, en utilisant l'imagerie cérébrale comme outil de prévention. Elles rappellent aussi que la stimulation intellectuelle, l'effort et l'environnement restent des leviers puissants pour renforcer les capacités cognitives, même quand la "forme" de départ n'est pas optimale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le Top de L'After foot
Le Top de l'After Foot : Peguy Luyindula, ancien attaquant du PSG, encense Luis Enrique et sa capacité d'adaptation – 23/06

Le Top de L'After foot

Play Episode Listen Later Jun 24, 2025 3:51


Chaque jour, écoutez le Best-of de l'Afterfoot, sur RMC la radio du Sport !

TORQ PODCAST - FRANCAIS
419. Version Hors-Route : Ford Explorer TREMOR 2026 | TORQ PODCAST

TORQ PODCAST - FRANCAIS

Play Episode Listen Later Jun 24, 2025 10:56


Version Hors-Route : Ford Explorer TREMOR 2026TORQ PODCAST - Épisode 419Préparez-vous à l'aventure ! Dans l'épisode 419 du Torq Podcast, Jul Torq vous plonge au cœur de la nouveauté tout-terrain de Ford : le Ford Explorer Tremor 2026 ! Ford étend sa gamme hors-route Tremor au populaire Explorer, promettant un SUV familial capable de s'aventurer bien au-delà des sentiers battus.Jul Torq vous révèle tout ce que vous devez savoir sur ce modèle très attendu :Design Robuste et Différencié : Quelles sont les caractéristiques esthétiques qui distinguent l'Explorer Tremor de ses frères, et qui affirment son caractère baroudeur ?Capacités Hors-Route Améliorées : Suspension rehaussée, pneus tout-terrain, modes de conduite spécifiques... Qu'est-ce qui rend cet Explorer vraiment capable en dehors de l'asphalte ?Motorisation et Performances : Quel groupe motopropulseur équipe cette version Tremor pour assurer puissance et couple nécessaires en situation hors-route ?Confort et Polyvalence Intérieure : L'Explorer Tremor parvient-il à concilier ses aptitudes tout-terrain avec le confort et l'espace que l'on attend d'un SUV familial ?Positionnement dans la Gamme Ford : Comment se situe le Tremor par rapport aux autres finitions de l'Explorer et aux concurrents directs sur le marché des SUV aventuriers ?Le Verdict de Jul Torq : Est-ce que le Ford Explorer Tremor 2026 est le SUV parfait pour les familles actives qui aiment l'aventure, ou un compromis un peu trop osé ?Si vous êtes à la recherche d'un SUV polyvalent, capable d'emmener toute la famille sur les chemins de terre ou simplement curieux des dernières innovations hors-route de Ford, cet épisode est fait pour vous !Ne manquez pas les informations exclusives et l'analyse pointue de Jul Torq. Abonnez-vous au Torq Podcast pour rester informé sur les véhicules les plus passionnants du moment !YOUTUBE Membres VIP :https://www.youtube.com/channel/UCbha0iHrKImRyDXbDNO-EJw/joinSpotify Membres VIP :https://podcasters.spotify.com/pod/show/torqpodcast/subscribeTORQ MEDIASite Web : https://torqmedia.ca FAST WHEELS https://fastco.ca/Fast-Wheels/HomeONEBONE Site Web : https://onebonebrand.com/jultorqCode : JULTORQ ( - 15% Rabais )Suivez-Nous sur Instagram :@JulTorq : https://www.instagram.com/jultorq/@EveTorq : https://www.instagram.com/evetorq/#FordExplorerTremor #ExplorerTremor #FordExplorer

Le journal de la nuit
«Si l'Iran n'a plus de capacités nucléaires, mais si surtout le régime tombe, alors on est à un tournant historique», estime Georges Bensoussan

Le journal de la nuit

Play Episode Listen Later Jun 23, 2025 15:52


Tous les soirs à 20h30, Pierre de Vilno reçoit un invité qui fait l'actualité. Ce soir, il reçoit l'historien, Georges Bensoussan qui nous éclaire sur le conflit entre Israël et l'Iran. Et si ce dernier est à un tournant de son histoire ?Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Les années lumière
Un mystérieux iceberg noir au large du Labrador, et une capacité étonnante des pieuvres

Les années lumière

Play Episode Listen Later Jun 22, 2025 102:14


Philippe Robitaille-Grou donne des détails sur un mystérieux iceberg noir qui a été aperçu au large du Labrador; Raphaël Rougeot fait le point sur un binôme de satellites qui permettrait de faire de minis éclipses solaires sur commande; et Alexandre Touchette explique comment les pieuvres peuvent sentir les microbes dans leur environnement.

Invité de la mi-journée
Climat: «Il y a une capacité à agir, elle est là et il faut l'accentuer»

Invité de la mi-journée

Play Episode Listen Later Jun 21, 2025 8:22


Limiter le réchauffement climatique à 1,5°, c'est désormais un objectif inatteignable... Selon un collectif de scientifiques de renom, l'objectif fixé par l'accord de Paris en 2015 ne pourra pas être atteint. Pour en parler, nous recevons Valérie Masson-Delmotte, paléoclimatologue, directrice de recherche au Commissariat à l'énergie atomique (CEA), mais aussi ancienne co-présidente du Groupe d'experts intergouvernemental sur l'évolution du climat (Giec). À lire aussiClimat: selon une étude, limiter le réchauffement à 1,5° est désormais un objectif «inatteignable»

TORQ PODCAST - FRANCAIS
418. 70 000$ : Quel PICKUP 1500 Vous en Donne Le Plus Pour Votre Argent ? | TORQ PODCAST

TORQ PODCAST - FRANCAIS

Play Episode Listen Later Jun 21, 2025 26:02


70 000$ : Quel PICKUP 1500 Vous en Donne Le Plus Pour Votre Argent ?TORQ PODCAST - Épisode 418Vous avez un budget de 70 000 $ et vous vous demandez quel pickup 1500 offre le meilleur rapport qualité-prix sur le marché actuel ? Dans cet épisode essentiel du Torq Podcast (#418), Jul Torq plonge au cœur de cette question cruciale pour les acheteurs de camions !Avec la multitude de modèles disponibles, comment savoir lequel vous en donne réellement le plus pour votre argent ? Jul Torq passe en revue les options les plus populaires et vous guide à travers un comparatif détaillé pour vous aider à faire le choix le plus judicieux :Options de Finition et Moteurs : Quels niveaux d'équipement et motorisations sont accessibles et les plus intéressants autour de 70 000 $ chez Ford F-150, Ram 1500, Chevrolet Silverado 1500 et GMC Sierra 1500 ?Capacités Réelles : Quel pickup offre les meilleures capacités de remorquage et de charge utile pour ce budget ?Confort et Technologies : Les fonctionnalités intérieures, le système d'infodivertissement et le niveau de confort varient-ils significativement d'un modèle à l'autre à ce prix ?Consommation et Coût d'Utilisation : Au-delà du prix d'achat, quel véhicule sera le plus économique à l'usage sur le long terme ?La Proposition de Valeur : Jul Torq analyse ce que chaque marque propose en termes de fiabilité, de garantie et de valeur de revente.Le Choix Ultime de Jul Torq : Basé sur son expérience et une analyse approfondie, quel est le pickup qui se distingue comme le meilleur investissement à 70 000 $ ?Que vous recherchiez un véhicule pour le travail, les loisirs ou un usage familial, cette vidéo est votre guide complet pour maximiser votre budget !Ne manquez pas cette analyse experte et aidez-vous des conseils de Jul Torq pour acheter le pickup 1500 qui vous correspond le mieux. Abonnez-vous au Torq Podcast pour des comparatifs percutants et des avis d'experts sur le monde automobile !YOUTUBE Membres VIP :https://www.youtube.com/channel/UCbha0iHrKImRyDXbDNO-EJw/joinSpotify Membres VIP :https://podcasters.spotify.com/pod/show/torqpodcast/subscribeTORQ MEDIASite Web : https://torqmedia.ca FAST WHEELS https://fastco.ca/Fast-Wheels/HomeONEBONE Site Web : https://onebonebrand.com/jultorqCode : JULTORQ ( - 15% Rabais )Suivez-Nous sur Instagram :@JulTorq : https://www.instagram.com/jultorq/@EveTorq : https://www.instagram.com/evetorq/#Pickup1500 #MeilleurPickup #FordF150

Métamorphose, le podcast qui éveille la conscience
Métaux toxiques : comment protéger notre santé ? avec Hélène Ferran, Docteure en biologie #602

Métamorphose, le podcast qui éveille la conscience

Play Episode Listen Later Jun 19, 2025 57:43


[MÉTAMORPHOSE PODCAST] Alexandre Dana reçoit Hélène Ferran, thérapeute, naturopathe et formatrice au CENATHO. Quel est le véritable impact des métaux toxiques sur notre santé ? Comment pouvons-nous limiter notre exposition et aider notre corps à s'en débarrasser ? Quelle eau choisir ? Quelle alimentation adopter ? Hélène Ferran nous donne des clés pour mieux gérer ces métaux omniprésents dans notre quotidien, qui s'accumulent dans notre corps et contribuent à divers troubles. Son livre, C'est quoi, les métaux toxiques ? est illustré par Lou Bédrine et publié aux éditions Dangles. Épisode #602Quelques citations du podcast avec Hélène Ferran :"Le fait d'avoir été exposé aux métaux toxiques va avoir un impact sur l'expression de certains de vos gènes.""Notre corps est une formidable boîte à outils pour détoxiquer beaucoup de composés.""Le glutathion, c'est la Rolls vraiment de la détox des métaux."Thèmes abordés lors du podcast avec Hélène Ferran : 00:00 Introduction02:57 Le parcours d'Hélène Ferran04:33 Distinction métaux lourds / métaux toxiques05:51 De quand date l'invasion des métaux toxiques06:55 Les modes d'absorption de ces métaux09:21 Prise de conscience collective ?10:50 L'effet cocktail13:12 Lien pathologies / exposition aux métaux15:37 Impacts concrets sur le corps17:16 Le stress oxydatif18:20 L'impact sur les femmes enceintes19:45 L'épigénétique21:03 Le rôle de la santé intestinale23:25 Stimuler la détoxication25:33 Une assiette anti-métaux toxiques27:15 Évaluer son exposition aux métaux toxiques29:58 Les cures de détoxification33:31 Quelle eau choisir ?38:12 Quels compléments pour protéger l'organisme ?40:44 Cosmétiques toxiques ?42:22 Vêtements et nanoparticules43:07 Les métaux toxiques dans les solutions santé (alliages, prothèse, médicaments, vaccins etc)45:44 La sensibilisation du milieu médical47:42 Comment détecter la quantité de métaux dans le corps ?50:04 Capacité individuelle à détoxiquer53:20 L'impact du stressAvant-propos et précautions à l'écoute du podcastDécouvrez Objectif Métamorphose, notre programme en 12 étapes pour partir à la rencontre de soi-même.Recevez un mercredi sur deux la newsletter Métamorphose avec des infos inédites sur le podcast et les inspirations d'AnneFaites le TEST gratuit de La Roue Métamorphose avec 9 piliers de votre vie !Suivez nos RS : Insta, Facebook & TikTokAbonnez-vous sur Apple Podcast / Spotify / Deezer / CastBox/ YoutubeSoutenez Métamorphose en rejoignant la Tribu MétamorphosePhoto DR Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les Cast Codeurs Podcast
LCC 327 - Mon ami de 30 ans

Les Cast Codeurs Podcast

Play Episode Listen Later Jun 16, 2025 103:18


Dans cet épisode, c'est le retour de Katia et d'Antonio. Les Cast Codeurs explorent WebAssembly 2.0, les 30 ans de Java, l'interopérabilité Swift-Java et les dernières nouveautés Kotlin. Ils plongent dans l'évolution de l'IA avec Claude 4 et GPT-4.1, débattent de la conscience artificielle et partagent leurs retours d'expérience sur l'intégration de l'IA dans le développement. Entre virtualisation, défis d'infrastructure et enjeux de sécurité open source, une discussion riche en insights techniques et pratiques. Enregistré le 13 juin 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-327.mp3 ou en vidéo sur YouTube. News Langages Wasm 2.0 enfin officialisé ! https://webassembly.org/news/2025-03-20-wasm-2.0/ La spécification Wasm 2.0 est officiellement sortie en décembre dernier. Le consensus sur la spécification avait été atteint plus tôt, en 2022. Les implémentations majeures supportent Wasm 2.0 depuis un certain temps. Le processus W3C a pris du temps pour atteindre le statut de “Recommandation Candidate” pour des raisons non techniques. Les futures versions de Wasm adopteront un modèle “evergreen” où la “Recommandation Candidate” sera mise à jour en place. La dernière version de la spécification est considérée comme le standard actuel (Candidate Recommendation Draft). La version la plus à jour est disponible sur la page GitHub (GitHub page). Wasm 2.0 inclut les nouveautés suivantes : Instructions vectorielles pour le SIMD 128-bit. Instructions de manipulation de mémoire en bloc pour des copies et initialisations plus rapides. Résultats multiples pour les instructions, blocs et fonctions. Types références pour les références à des fonctions ou objets externes. Conversions non-piégeantes de flottant à entier. Instructions d'extension de signe pour les entiers signés. Wasm 2.0 est entièrement rétrocompatible avec Wasm 1.0. Paul Sandoz annonce que le JDK intègrera bientôt une API minimaliste pour lire et écrire du JSON https://mail.openjdk.org/pipermail/core-libs-dev/2025-May/145905.html Java a 30 ans, c'était quoi les points bluffants au début ? https://blog.jetbrains.com/idea/2025/05/do-you-really-know-java/ nom de code Oak Mais le trademark était pris Write Once Run Anywhere Garbage Collector Automatique multi threading au coeur de la palteforme meme si Java est passé par les green threads pendant un temps modèle de sécurité: sandbox applets, security manager, bytecode verifier, classloader Des progrès dans l'interopérabilité Swift / Java mentionnés à la conférence Apple WWDC 2025 https://www.youtube.com/watch?v=QSHO-GUGidA Interopérabilité Swift-Java : Utiliser Swift dans des apps Java et vice-versa. Historique : L'interopérabilité Swift existait déjà avec C et C++. Méthodes : Deux directions d'interopérabilité : Java depuis Swift et Swift depuis Java. JNI : JNI est l'API Java pour le code natif, mais elle est verbeuse. Swift-Java : Un projet pour une interaction Swift-Java plus flexible, sûre et performante. Exemples pratiques : Utiliser des bibliothèques Java depuis Swift et rendre des bibliothèques Swift disponibles pour Java. Gestion mémoire : Swift-Java utilise la nouvelle API FFM de Java pour gérer la mémoire des objets Swift. Open Source : Le projet Swift-Java est open source et invite aux contributions. KotlinConf le retour https://www.sfeir.dev/tendances/kotlinconf25-quelles-sont-les-annonces-a-retenir/ par Adelin de Sfeir “1 developeur sur 10” utilise Kotlin Kotlin 2.2 en RC $$ multi dollar interpolation pour eviter les sur interpolations non local break / continue (changement dans la conssitance de Kotlin guards sur le pattern matching D'autres features annoncées alignement des versions de l'ecosysteme sur kotlin jvm par defaut un nouvel outil de build Amper beaucoup d'annonces autour de l'IA Koog, framework agentique de maniere declarative nouvelle version du LLM de JetBrains: Mellum (focalisé sur le code) Kotlin et Compose multiplateforme (stable en iOS) Hot Reload dans compose en alpha partenariat strategque avec Spring pour bien integrer kotlin dans spring Librairies Sortie d'une version Java de ADK, le framework d'agents IA lancé par Google https://glaforge.dev/posts/2025/05/20/writing-java-ai-agents-with-adk-for-java-getting-started/ Guillaume a travaillé sur le lancement de ce framework ! (améliorations de l'API, code d'exemple, doc…) Comment déployer un serveur MCP en Java, grâce à Quarkus, et le déployer sur Google Cloud Run https://glaforge.dev/posts/2025/06/09/building-an-mcp-server-with-quarkus-and-deploying-on-google-cloud-run/ Même Guillaume se met à faire du Quarkus ! Utilisation du support MCP développé par l'équipe Quarkus. C'est facile, suffit d'annoter une méthode avec @Tool et ses arguments avec @ToolArg et c'est parti ! L'outil MCP inspector est très pratique pour inspecter manuellement le fonctionnement de ses serveurs MCP Déployer sur Cloud Run est facile grâce aux Dockerfiles fournis par Quarkus En bonus, Guillaume montre comment configuré un serveur MCP comme un outil dans le framework ADK pour Java, pour créer ses agents IA Jilt 1.8 est sorti, un annotation processor pour le pattern builder https://www.endoflineblog.com/jilt-1_8-and-1_8_1-released processing incrémental pour Gradle meilleure couverture de votre code (pour ne pas comptabiliser le code généré par l'annotation processeur) une correction d'un problème lors de l'utilisation des types génériques récursifs (genre Node Hibernate Search 8 est sorti https://in.relation.to/2025/06/06/hibernate-search-8-0-0-Final/ aggregation de metriques compatibilité avec les dernieres OpenSearch et Elasticsearch Lucene 10 en backend Preview des requetes validées à la compilation Hibernate 7 est sorti https://in.relation.to/2025/05/20/hibernate-orm-seven/ ASL 2.0 Hibernate Validator 9 Jakarta Persistence 3.2 et Jakarta Validation 3.1 saveOrUpdate (reattachement d'entité) n'est plus supporté session stateless plus capable: oeprations unitaires et pas seulement bach, acces au cache de second niveau, m,eilleure API pour les batchs (insertMultiple etc) nouvelle API criteria simple et type-safe: et peut ajouter a une requete de base Un article qui décrit la Dev UI de Quarkus https://www.sfeir.dev/back/quarkus-dev-ui-linterface-ultime-pour-booster-votre-productivite-en-developpement-java/ apres un test pour soit ou une demo, c'est un article détaillé et la doc de Quarkus n'est pas top là dessus Vert.x 5 est sorti https://vertx.io/blog/eclipse-vert-x-5-released/ on en avait parlé fin de l'année dernière ou début d'année Modèle basé uniquement sur les Futures : Vert.x 5 abandonne le modèle de callbacks pour ne conserver que les Futures, avec une nouvelle classe de base VerticleBase mieux adaptée à ce modèle asynchrone. Support des modules Java (JPMS) : Vert.x 5 prend en charge le système de modules de la plateforme Java avec des modules explicites, permettant une meilleure modularité des applications. Améliorations majeures de gRPC : Support natif de gRPC Web et gRPC Transcoding (support HTTP/JSON et gRPC), format JSON en plus de Protobuf, gestion des timeouts et deadlines, services de réflexion et de health. Support d'io_uring : Intégration native du système io_uring de Linux (précédemment en incubation) pour de meilleures performances I/O sur les systèmes compatibles. Load balancing côté client : Nouvelles capacités de répartition de charge pour les clients HTTP et gRPC avec diverses politiques de distribution. Service Resolver : Nouveau composant pour la résolution dynamique d'adresses de services, étendant les capacités de load balancing à un ensemble plus large de résolveurs. Améliorations du proxy HTTP : Nouvelles transformations prêtes à l'emploi, interception des upgrades WebSocket et interface SPI pour le cache avec support étendu des spécifications. Suppressions et remplacements : Plusieurs composants sont dépréciés (gRPC Netty, JDBC API, Service Discovery) ou supprimés (Vert.x Sync, RxJava 1), remplacés par des alternatives plus modernes comme les virtual threads et Mutiny. Spring AI 1.0 est sorti https://spring.io/blog/2025/05/20/spring-ai-1-0-GA-released ChatClient multi-modèles : API unifiée pour interagir avec 20 modèles d'IA différents avec support multi-modal et réponses JSON structurées. Écosystème RAG complet : Support de 20 bases vectorielles, pipeline ETL et enrichissement automatique des prompts via des advisors. Fonctionnalités enterprise : Mémoire conversationnelle persistante, support MCP, observabilité Micrometer et évaluateurs automatisés. Agents et workflows : Patterns prédéfinis (routing, orchestration, chaînage) et agents autonomes pour applications d'IA complexes. Infrastructure Les modèles d'IA refusent d'être éteint et font du chantage pour l'eviter, voire essaient se saboter l'extinction https://www.thealgorithmicbridge.com/p/ai-companies-have-lost-controland?utm_source=substac[…]aign=email-restack-comment&r=2qoalf&triedRedirect=true Les chercheur d'Anthropic montrent comment Opus 4 faisait du chantage aux ingenieurs qui voulaient l'eteindre pour mettre une nouvelle version en ligne Une boite de recherche a montré la même chose d'Open AI o3 non seulemenmt il ne veut pas mais il essaye activement d'empêcher l'extinction Apple annonce le support de la virtualisation / conteneurisation dans macOS lors de la WWDC https://github.com/apple/containerization C'est open source Possibilité de lancer aussi des VM légères Documentation technique : https://apple.github.io/containerization/documentation/ Grosse chute de services internet suite à un soucis sur GCP Le retour de cloud flare https://blog.cloudflare.com/cloudflare-service-outage-june-12-2025/ Leur système de stockage (une dépendance majeure) dépend exclusivement de GCP Mais ils ont des plans pour surfit de cette dépendance exclusive la première analyse de Google https://status.cloud.google.com/incidents/ow5i3PPK96RduMcb1SsW Un quota auto mis à jour qui a mal tourné. ils ont bypassé le quota en code mais le service de quote en us-central1 était surchargé. Prochaines améliorations: pas d propagation de données corrompues, pas de déploiement global sans rolling upgrade avec monitoring qui peut couper par effet de bord (fail over) certains autres cloud providers ont aussi eu quelques soucis (charge) - unverified Data et Intelligence Artificielle Claude 4 est sorti https://www.anthropic.com/news/claude-4 Deux nouveaux modèles lancés : Claude Opus 4 (le meilleur modèle de codage au monde) et Claude Sonnet 4 (une amélioration significative de Sonnet 3.7) Claude Opus 4 atteint 72,5% sur SWE-bench et peut maintenir des performances soutenues sur des tâches longues durant plusieurs heures Claude Sonnet 4 obtient 72,7% sur SWE-bench tout en équilibrant performance et efficacité pour un usage quotidien Nouvelle fonctionnalité de “pensée étendue avec utilisation d'outils” permettant à Claude d'alterner entre raisonnement et usage d'outils Les modèles peuvent maintenant utiliser plusieurs outils en parallèle et suivre les instructions avec plus de précision Capacités mémoire améliorées : Claude peut extraire et sauvegarder des informations clés pour maintenir la continuité sur le long terme Claude Code devient disponible à tous avec intégrations natives VS Code et JetBrains pour la programmation en binôme Quatre nouvelles capacités API : outil d'exécution de code, connecteur MCP, API Files et mise en cache des prompts Les modèles hybrides offrent deux modes : réponses quasi-instantanées et pensée étendue pour un raisonnement plus approfondi en mode “agentique” L'intégration de l'IA au delà des chatbots et des boutons à étincelles https://glaforge.dev/posts/2025/05/23/beyond-the-chatbot-or-ai-sparkle-a-seamless-ai-integration/ Plaidoyer pour une IA intégrée de façon transparente et intuitive, au-delà des chatbots. Chatbots : pas toujours l'option LLM la plus intuitive ou la moins perturbatrice. Préconisation : IA directement dans les applications pour plus d'intelligence et d'utilité naturelle. Exemples d'intégration transparente : résumés des conversations Gmail et chat, web clipper Obsidian qui résume et taggue, complétion de code LLM. Meilleure UX IA : intégrée, contextuelle, sans “boutons IA” ou fenêtres de chat dédiées. Conclusion de Guillaume : intégrations IA réussies = partie naturelle du système, améliorant les workflows sans perturbation, le développeur ou l'utilisateur reste dans le “flow” Garder votre base de donnée vectorielle à jour avec Debezium https://debezium.io/blog/2025/05/19/debezium-as-part-of-your-ai-solution/ pas besoin de detailler mais expliquer idee de garder les changements a jour dans l'index Outillage guide pratique pour choisir le bon modèle d'IA à utiliser avec GitHub Copilot, en fonction de vos besoins en développement logiciel. https://github.blog/ai-and-ml/github-copilot/which-ai-model-should-i-use-with-github-copilot/ - Équilibre coût/performance : GPT-4.1, GPT-4o ou Claude 3.5 Sonnet pour des tâches générales et multilingues. - Tâches rapides : o4-mini ou Claude 3.5 Sonnet pour du prototypage ou de l'apprentissage rapide. - Besoins complexes : Claude 3.7 Sonnet, GPT-4.5 ou o3 pour refactorisation ou planification logicielle. - Entrées multimodales : Gemini 2.0 Flash ou GPT-4o pour analyser images, UI ou diagrammes. - Projets techniques/scientifiques : Gemini 2.5 Pro pour raisonnement avancé et gros volumes de données. UV, un package manager pour les pythonistes qui amène un peu de sanité et de vitesse http://blog.ippon.fr/2025/05/12/uv-un-package-manager-python-adapte-a-la-data-partie-1-theorie-et-fonctionnalites/ pour les pythonistes un ackage manager plus rapide et simple mais il est seulement semi ouvert (license) IntelliJ IDEA 2025.1 permet de rajouter un mode MCP client à l'assistant IA https://blog.jetbrains.com/idea/2025/05/intellij-idea-2025-1-model-context-protocol/ par exemple faire tourner un MCP server qui accède à la base de donnée Méthodologies Développement d'une bibliothèque OAuth 2.1 open source par Cloudflare, en grande partie générée par l'IA Claude: - Prompts intégrés aux commits : Chaque commit contient le prompt utilisé, ce qui facilite la compréhension de l'intention derrière le code. - Prompt par l'exemple : Le premier prompt montrait un exemple d'utilisation de l'API qu'on souhaite obtenir, ce qui a permis à l'IA de mieux comprendre les attentes. - Prompts structurés : Les prompts les plus efficaces suivaient un schéma clair : état actuel, justification du changement, et directive précise. - Traitez les prompts comme du code source : Les inclure dans les commits aide à la maintenance. - Acceptez les itérations : Chaque fonctionnalité a nécessité plusieurs essais. - Intervention humaine indispensable : Certaines tâches restent plus rapides à faire à la main. https://www.maxemitchell.com/writings/i-read-all-of-cloudflares-claude-generated-commits/ Sécurité Un packet npm malicieux passe par Cursor AI pour infecter les utilisateurs https://thehackernews.com/2025/05/malicious-npm-packages-infect-3200.html Trois packages npm malveillants ont été découverts ciblant spécifiquement l'éditeur de code Cursor sur macOS, téléchargés plus de 3 200 fois au total.Les packages se déguisent en outils de développement promettant “l'API Cursor la moins chère” pour attirer les développeurs intéressés par des solutions AI abordables. Technique d'attaque sophistiquée : les packages volent les identifiants utilisateur, récupèrent un payload chiffré depuis des serveurs contrôlés par les pirates, puis remplacent le fichier main.js de Cursor. Persistance assurée en désactivant les mises à jour automatiques de Cursor et en redémarrant l'application avec le code malveillant intégré. Nouvelle méthode de compromission : au lieu d'injecter directement du malware, les attaquants publient des packages qui modifient des logiciels légitimes déjà installés sur le système. Persistance même après suppression : le malware reste actif même si les packages npm malveillants sont supprimés, nécessitant une réinstallation complète de Cursor. Exploitation de la confiance : en s'exécutant dans le contexte d'une application légitime (IDE), le code malveillant hérite de tous ses privilèges et accès. Package “rand-user-agent” compromis : un package légitime populaire a été infiltré pour déployer un cheval de Troie d'accès distant (RAT) dans certaines versions. Recommandations de sécurité : surveiller les packages exécutant des scripts post-installation, modifiant des fichiers hors node_modules, ou initiant des appels réseau inattendus, avec monitoring d'intégrité des fichiers. Loi, société et organisation Le drama OpenRewrite (automatisation de refactoring sur de larges bases de code) est passé en mode propriétaire https://medium.com/@jonathan.leitschuh/when-open-source-isnt-how-openrewrite-lost-its-way-642053be287d Faits Clés : Moderne, Inc. a re-licencié silencieusement du code OpenRewrite (dont rewrite-java-security) de la licence Apache 2.0 à une licence propriétaire (MPL) sans consultation des contributeurs. Ce re-licenciement rend le code inaccessible et non modifiable pour les contributeurs originaux. Moderne s'est retiré de la Commonhaus Foundation (dédiée à l'open source) juste avant ces changements. La justification de Moderne est la crainte que de grandes entreprises utilisent OpenRewrite sans contribuer, créant une concurrence. Des contributions communautaires importantes (VMware, AliBaba) sous Apache 2.0 ont été re-licenciées sans leur consentement. La légalité de ce re-licenciement est incertaine sans CLA des contributeurs. Cette action crée un précédent dangereux pour les futurs contributeurs et nuit à la confiance dans l'écosystème OpenRewrite. Corrections de Moderne (Suite aux réactions) : Les dépôts Apache originaux ont été restaurés et archivés. Des versions majeures ont été utilisées pour signaler les changements de licence. Des espaces de noms distincts (org.openrewrite vs. io.moderne) ont été créés pour différencier les modules. Suggestions de Correction de l'Auteur : Annuler les changements de licence sur toutes les recettes communautaires. S'engager dans le dialogue et communiquer publiquement les changements majeurs. Respecter le versionnement sémantique (versions majeures pour les changements de licence). L'ancien gourou du design d'Apple, Jony Ive, va occuper un rôle majeur chez OpenAI OpenAI va acquérir la startup d'Ive pour 6,5 milliards de dollars, tandis qu'Ive et le PDG Sam Altman travaillent sur une nouvelle génération d'appareils et d'autres produits d'IA https://www.wsj.com/tech/ai/former-apple-design-guru-jony-ive-to-take-expansive-role-at-openai-5787f7da Rubrique débutant Un article pour les débutants sur le lien entre source, bytecode et le debug https://blog.jetbrains.com/idea/2025/05/sources-bytecode-debugging/ le debugger voit le bytecode et le lien avec la ligne ou la methode est potentiellement perdu javac peut ajouter les ligne et offset des operations pour que le debugger les affichent les noms des arguments est aussi ajoutable dans le .class quand vous pointez vers une mauvaise version du fichier source, vous avez des lignes decalées, c'est pour ca peu de raisons de ne pas actier des approches de compilations mais cela rend le fichier un peu plus gros Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 11-13 juin 2025 : Devoxx Poland - Krakow (Poland) 12-13 juin 2025 : Agile Tour Toulouse - Toulouse (France) 12-13 juin 2025 : DevLille - Lille (France) 13 juin 2025 : Tech F'Est 2025 - Nancy (France) 17 juin 2025 : Mobilis In Mobile - Nantes (France) 19-21 juin 2025 : Drupal Barcamp Perpignan 2025 - Perpignan (France) 24 juin 2025 : WAX 2025 - Aix-en-Provence (France) 25 juin 2025 : Rust Paris 2025 - Paris (France) 25-26 juin 2025 : Agi'Lille 2025 - Lille (France) 25-27 juin 2025 : BreizhCamp 2025 - Rennes (France) 26-27 juin 2025 : Sunny Tech - Montpellier (France) 1-4 juillet 2025 : Open edX Conference - 2025 - Palaiseau (France) 7-9 juillet 2025 : Riviera DEV 2025 - Sophia Antipolis (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 25-26 septembre 2025 : Paris Web 2025 - Paris (France) 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6-7 octobre 2025 : Swift Connection 2025 - Paris (France) 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9-10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16-17 octobre 2025 : DevFest Nantes - Nantes (France) 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 5-6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

Un jour dans le monde
Pourquoi l'OTAN veut une "hausse de 400%" des capacités de défense aérienne ?

Un jour dans le monde

Play Episode Listen Later Jun 9, 2025 9:28


durée : 00:09:28 - Le monde à 18h50 - par : Franck MATHEVON - Le secrétaire général de l'OTAN demande une augmentation de « 400% des capacités de défense aérienne ». Les Etats-membres de l'Alliance atlantique sont donc appelés à sortir le carnet de chèques. Au risque de braquer les opinions publiques...

Ça va Beaucoup Mieux
TENNIS - Les "super capacités" des joueurs

Ça va Beaucoup Mieux

Play Episode Listen Later May 27, 2025 3:20


Ecoutez Ça va beaucoup mieux avec Jimmy Mohamed du 27 mai 2025.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Pascal Praud et vous
Brigitte Lahaie : «Ce qui me choque c'est la capacité des gens à se quitter avec des enfants en très bas âge (...) ce n'est pas responsable»

Pascal Praud et vous

Play Episode Listen Later May 15, 2025 17:21


Pascal Praud revient pendant deux heures, sans concession, sur tous les sujets qui font l'actualité. Aujourd'hui 15/05/2025, il reçoit dans le studio d'Europe 1, Brigitte Lahaie, pour son livre « Utopia » aux Editions Fayard. Vous voulez réagir ? Appelez-le 01.80.20.39.21 (numéro non surtaxé) ou rendez-vous sur les réseaux sociaux d'Europe 1 pour livrer votre opinion et débattre sur les grandes thématiques développées dans l'émission du jour.Vous voulez réagir ? Appelez-le 01.80.20.39.21 (numéro non surtaxé) ou rendez-vous sur les réseaux sociaux d'Europe 1 pour livrer votre opinion et débattre sur grandes thématiques développées dans l'émission du jour.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

L'entretien de Sonia Mabrouk
Bruno Retailleau : «Les capacités d'acccueil de la France sont saturées»

L'entretien de Sonia Mabrouk

Play Episode Listen Later May 14, 2025 25:03


Bruno Retailleau, ministre de l'Intérieur, répond aux questions de Sonia Mabrouk au sujet de l'interview d'Emmanuel Macron sur TF1, de l'absence d'annonce sur l'immigration, de la tentative d'enlèvement en pleine rue à Paris et de l'attaque du Fourgon d'Incarville et de l'évasion de Mohamed Amra il y a un an. Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Les Grandes Gueules
L'étonnement du jour - Sylvain Maisonneuve, auteur de « Ovnis, l'enquête déclassifiée : "Le directeur de la CIA a parlé d'objets dont les capacités sont supérieures à ce dont disposent les USA. Même sous Biden et Obama, c'

Les Grandes Gueules

Play Episode Listen Later May 9, 2025 0:56


Aujourd'hui, Flora Ghebali, Bruno Poncet et Emmanuel de Villiers débattent de l'actualité autour d'Alain Marschall et Olivier Truchot.

Rav Benchetrit propose
Moi & mes capacités

Rav Benchetrit propose

Play Episode Listen Later Mar 30, 2025 113:01


Chers amis, Merci de dédier l'étude de ce cours pour l'élévation de l'âme de ma chère femme Nathalie Kamra bat Daniel Saada BENCHETRIT. Merci,

Les enjeux internationaux
Yémen : que sait-on des capacités militaires des Houthis ?

Les enjeux internationaux

Play Episode Listen Later Mar 19, 2025 12:57


durée : 00:12:57 - Les Enjeux internationaux - par : Guillaume Erner - . Le week-end dernier, les Houthis ont annoncé avoir repris leurs attaques ciblées contre les navires en mer Rouge, dont un porte-avion américain. - réalisation : Félicie Faugère - invités : Laurent Bonnefoy Politologue spécialiste de la péninsule arabique,chargé de recherche au CNRS, au CERI et au centre français d'archéologie et de sciences sociales de Sanaa

Reportage Afrique
Cameroun anglophone: à Missellele, d'ex-«ambaboys» se reconstruisent dans un centre DDR [1/4]

Reportage Afrique

Play Episode Listen Later Mar 16, 2025 2:23


Pour le Norwegian Refugee Council, c'est une des crises les plus négligées au monde. Au Cameroun, dans les deux régions à majorité anglophone du pays, le Nord-Ouest et le Sud-Ouest, la violence est toujours une réalité, huit ans après le début de la lutte armée entre séparatistes réclamant l'indépendance d'un Cameroun anglophone et forces gouvernementales de Yaoundé. Aujourd'hui, la nature de la crise a beaucoup changé. Les mouvements se sont fragmentés, il n'y a plus de front à proprement parler, mais des zones d'insécurité. Et la population est épuisée. De notre envoyée spéciale de retour de Missellele,Le centre DDR (Désarmement, démobilisation, réintégration) de Missellele, sur la route entre Douala et Tiko, est censé réinsérer socialement les ex-« ambaboys », comme ils sont désignés, qui ont déposé les armes. Au bord de la nationale 3, écrasé par le soleil, six dortoirs, des salles de formation, un bâtiment pour l'administration et un pour les soins médicaux. « Les murs ne sont pas hauts, cela vous montre bien que ce n'est pas une prison, indique le directeur du centre, Bernard Ngone Ndodemesape, en désignant le mur d'enceinte. Le centre DDR n'est pas une prison, mais ce n'est pas non plus un camp de loisirs où les gens peuvent aller et venir. »Capacité d'accueil annoncée : 2 500 personnes. Dans les faits, en six ans, pour la région du Sud-Ouest, le programme a reçu 650 ex-combattants, hommes et femmes, certains avec enfants.  À écouter dans Afrique, mémoires d'un continentComprendre la crise anglophone au Cameroun« Je ne peux pas retourner d'où je viens »À quelques pas du mur d'enceinte, des rangées de cages dans un hangar neuf en bois et tôle ondulée pour former les anciens combattants à l'élevage de poussins. Les participants présentés par le directeur, comme Glory, 23 ans, disent avoir rejoint les « ambaboys » sous la pression et non par conviction. « Ce n'était pas vraiment mon choix, mais des amis m'y ont poussée. Mon travail, c'était de cuisiner pour eux. À chaque fois qu'on nous disait : les militaires arrivent, on devait s'enfuir, c'était tellement stressant !, se rappelle-t-elle. Comparé à ça, la vie ici, au centre, est préférable. Je ne peux pas retourner d'où je viens. Il y a toujours des combattants dans le bush et ils peuvent me faire du mal. C'est plus sûr pour moi ici. »Elvis, 28 ans, a combattu dans un autre département de la région du Sud-Ouest avant de s'enfuir une nuit fin 2020. « Tous les jours, nous vivions dans la peur. On pouvait mourir à tout moment. Il n'y avait pas d'hôpital, pas de soin si on était malade ou blessé, témoigne-t-il. C'était très dur. Nous avons perdu beaucoup de gens. La première fois que j'ai vu quelqu'un se faire tuer, je me suis senti très mal. J'ai cherché à tout prix à quitter le bush parce que je ne voulais tuer personne. Je ne pouvais pas continuer là-bas, je me suis enfui et je me suis rendu. »Plusieurs participants reprennent les mêmes formules. Ils se disent désormais libres et attachés à un Cameroun indivisible. Mais ils sont sans réponse quand il s'agit d'évoquer une échéance pour une sortie définitive. Depuis la mise en place du programme, pour la région du Sud-Ouest, seuls 36 sont retournés à la vie civile.À écouter dans Grand reportageCameroun : les échos de la crise anglophone dans la région francophone de l'Ouest

L'info en intégrale - Europe 1
EXTRAIT : La Pologne augmente ses capacités militaires et prépare ses habitants en vue d'un potentiel conflit avec la Russie

L'info en intégrale - Europe 1

Play Episode Listen Later Mar 15, 2025 3:02


Chaque jour, retrouvez les extraits journal de 8h pour faire le tour de l'actu.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Le Podcast New Prana
Réfléchir à nos capacités d'agir

Le Podcast New Prana

Play Episode Listen Later Mar 10, 2025 21:20


Découvrez dans cet épisode ma nouvelle newsletter ! Je vous parle d'agentivité, de réfléxivité, et je vous recommande une lecture sur le "loisir intelligent" ! Les épisodes de Work Narratives mentionnés : Laetitia Vitaud - Repenser la productivité et nos rôles dans la sociétéJérémy Lamri - Agir avec conscience et responsabilitéMes recommandations : Le livre de Jean-Miguel Pire Jean-Miguel Pire dans Vlan Si vous souhaitez vous abonner à la newsletter par email, c'est par ici : https://worknarratives.substack.com/N'hésitez pas à me contacter sur LinkedIn, Instagram, ou à m' écrire à valentinegatard@gmail.comA bientôt !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Parlons-Nous
Séparation: Claude s'interroge sur sa capacité à guérir du syndrome d'abandon

Parlons-Nous

Play Episode Listen Later Mar 6, 2025 25:35


Claude ressent un profond sentiment d'abandon. À l'aube de sa retraite, son mari l'a quitte sans donner d'explication. Depuis, elle n'a pas réussi à surmonter ce traumatisme malgré une aide psychologique. Chaque soir, en direct, Caroline Dublanche accueille les auditeurs pour 2h30 d'échanges et de confidences. Pour participer, contactez l'émission au 09 69 39 10 11 (prix d'un appel local) ou sur parlonsnous@rtl.fr

Choses à Savoir ÉCONOMIE
Pourquoi la pâte à tartiner spéculoos Biscoff est-elle introuvable ?

Choses à Savoir ÉCONOMIE

Play Episode Listen Later Feb 17, 2025 2:06


La pénurie actuelle de la pâte à tartiner spéculoos Biscoff dans certains supermarchés résulte d'une combinaison de facteurs liés à la demande croissante et aux décisions des distributeurs.Demande en forte croissanceDepuis plusieurs années, la popularité des produits Lotus Biscoff, notamment la pâte à tartiner, a connu une augmentation significative. En 2024, Lotus Bakeries a enregistré une croissance de près de 20 % de son chiffre d'affaires au premier semestre, principalement due à une demande mondiale accrue pour ses biscuits et pâtes à tartiner Biscoff. Cette tendance s'est poursuivie tout au long de l'année, avec une augmentation de 16 % des ventes consolidées, atteignant 1,232 milliard d'euros. Cette croissance a été principalement tirée par une augmentation record des volumes, reflétant l'engouement des consommateurs pour les produits Biscoff.Capacité de production limitéeMalgré cette demande croissante, la capacité de production de Lotus Bakeries a atteint ses limites. Les lignes de production fonctionnent à plein régime pour répondre à la demande mondiale. Pour pallier cette situation, l'entreprise a investi dans une nouvelle usine en Thaïlande, prévue pour être opérationnelle d'ici le deuxième trimestre 2026. Cependant, jusqu'à l'ouverture de cette installation, la capacité de production reste contrainte, ce qui limite la disponibilité des produits Biscoff sur certains marchés.Décisions des distributeursOutre les défis liés à la production, des décisions prises par certains distributeurs ont également contribué à la rareté de la pâte à tartiner Biscoff dans certains points de vente. Par exemple, des enseignes telles qu'Intermarché, Monoprix, Franprix et Super U ont retiré la pâte à tartiner spéculoos de leurs rayons. Les raisons évoquées varient : certaines parlent d'un "arrêt par le fournisseur", tandis que d'autres mentionnent que le produit "ne correspond plus à la stratégie produit" de l'enseigne. Ces décisions, combinées aux contraintes de production, ont conduit à une disponibilité réduite du produit dans certains supermarchés.Perspectives futuresPour répondre à la demande croissante, Lotus Bakeries mise sur l'expansion de sa capacité de production avec la nouvelle usine en Thaïlande. Cependant, cette solution ne sera effective qu'à partir de 2026. D'ici là, la disponibilité de la pâte à tartiner Biscoff pourrait rester limitée dans certains points de vente. Les consommateurs peuvent toutefois se tourner vers d'autres enseignes où le produit est encore disponible, comme Leclerc, Auchan et Chronodrive, ou opter pour des achats en ligne via des plateformes telles qu'Amazon.En résumé, la rareté actuelle de la pâte à tartiner spéculoos Biscoff dans certains supermarchés est le résultat d'une demande mondiale en forte hausse, de capacités de production actuellement limitées et de choix stratégiques de distribution par certaines enseignes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Eglise Paris Métropole
Faire comme Christ | Pasteur José ESSIS

Eglise Paris Métropole

Play Episode Listen Later Jan 29, 2025 34:08


Prédication de José ESSIS, à l'Eglise Paris Métropole, Campus de Bastille.Jésus veut que nous fassions comme Lui. Il était conscient de la nécessité d'être équipé par le Saint-Esprit.Il a Lui-même été équipé par ce même Saint-Esprit avant d'entamer son ministère.Jésus dit aux disciples d'attendre l'arrivée du Saint-Esprit sur les disciples. Etre équipé des dons du Saint-Esprit nous donne de faire et accomplir les mêmes miracles que notre Seigneur.Nous sommes et avons tous été équipés de dons et talents.Qu'est-ce-qu'un talent ? C'est une capacité innée pouvant être développée et utilisée dans différents domaines.Qu'est-ce-qu'un don ? Capacité exclusivement donné aux chrétiens par le Saint-Esprit, afin d'exercer le ministère édifier les chrétiens et afin de glorifier Dieu.Dieu donne des dons aux Chrétiens, pour l'édification des Chrétiens d'une part, mais d'autre part pour la grande moisson, annoncer l'évangile à ceux qui ne sont pas sauvés. Le Seigneur Jésus nous pose une question : "Sommes-nous en train d'essayer de faire comme Lui ?"Retrouvez l'Eglise Paris Métropole sur internet & les réseaux :INTERNET : monegliseaparis.frFACEBOOK : https://www.facebook.com/egliseparismetrole INSTAGRAM : https://www.instagram.com/egliseparismetropoleHébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.