Podcasts about utiliser

  • 1,290PODCASTS
  • 2,744EPISODES
  • 26mAVG DURATION
  • 5WEEKLY NEW EPISODES
  • Aug 28, 2025LATEST

POPULARITY

20172018201920202021202220232024

Categories



Best podcasts about utiliser

Show all podcasts related to utiliser

Latest podcast episodes about utiliser

Cook As You Are
Utiliser les herbes aromatiques fraîches, c'est maintenant !

Cook As You Are

Play Episode Listen Later Aug 28, 2025 3:31


Ça sonne comme une évidence, l'été plus que jamais, on a envie d'herbes fraîches dans notre cuisine. Les petits pots d'herbes séchées qui encombrent l'étagère et parfois évoquent la poussière ne décarcassent pas grand-chose. On veut du frais : basilic, romarin, thym, coriandre, menthe, sauge. Les herbes fraîches, avec modération, à bon escient, et sans trop de mélanges, nous les Belges, on a tendance à mettre parfois beaucoup (trop) de saveurs différentes dans notre cuisine. ---Fanny Gillard et Carlo de Pascale voyagent dans l'univers culinaire de notre style de vie rock n' roll. Et si cela vous met l'eau à la bouche, alors vous retrouverez également toutes les recettes de Carlo sur notre site Classic21.be dans la rubrique Cook As You Are. Merci pour votre écoute Plus de contenus de Classic 21 sur www.rtbf.be/classic21 Ecoutez-nous en live ici: https://www.rtbf.be/radio/liveradio/classic21 ou sur l'app Radioplayer BelgiqueRetrouvez l'ensemble des contenus de la RTBF sur notre plateforme Auvio.be Et si vous avez apprécié ce podcast, n'hésitez pas à nous donner des étoiles ou des commentaires, cela nous aide à le faire connaître plus largement. Découvrez les autres podcasts de Classic 21 : Le journal du Rock : https://audmns.com/VCRYfsPComic Street (BD) https://audmns.com/oIcpwibLa chronique économique : https://audmns.com/NXWNCrAHey Teacher : https://audmns.com/CIeSInQHistoires sombres du rock : https://audmns.com/ebcGgvkCollection 21 : https://audmns.com/AUdgDqHMystères et Rock'n Roll : https://audmns.com/pCrZihuLa mauvaise oreille de Freddy Tougaux : https://audmns.com/PlXQOEJRock&Sciences : https://audmns.com/lQLdKWRCook as You Are: https://audmns.com/MrmqALPNobody Knows : https://audmns.com/pnuJUlDPlein Ecran : https://audmns.com/gEmXiKzRadio Caroline : https://audmns.com/WccemSkAinsi que nos séries :Rock Icons : https://audmns.com/pcmKXZHRock'n Roll Heroes: https://audmns.com/bXtHJucFever (Erotique) : https://audmns.com/MEWEOLpEt découvrez nos animateurs dans cette série Close to You : https://audmns.com/QfFankxEt retrouvez également Carlo De Pascale dans cet autre podcast de la RTBF: Bientôt à Table : https://audmns.com/mVwVCerHébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Autrement
Épisode 65 - Simplifier ta pratique grâce à l'expertise des autres

Autrement

Play Episode Listen Later Aug 27, 2025 23:34


Dans cet épisode, Lorianne t'invite à réfléchir à tout ce que tu n'as pas besoin de faire seul·e. Elle te montre comment t'appuyer sur les compétences d'autres pros, des outils bien choisis et des ressources toutes faites pour alléger ta charge mentale et rester concentré·e sur ce qui a vraiment de la valeur dans ta pratique. Points principaux : Identifier les domaines où tu peux demander de l'aide : Lorianne t'encourage à reconnaître les aspects de ton entreprise où tu n'es pas le ou la meilleur·e placé·e, et à aller chercher l'expertise ailleurs, sans culpabilité. Choisir les bons outils pour ta pratique : Découvre comment évaluer les plateformes, logiciels ou planificateurs selon ta réalité professionnelle, plutôt que de suivre ce que tout le monde utilise. T'inspirer de l'expérience des autres : En posant les bonnes questions à ton réseau, tu peux obtenir des recommandations honnêtes (et éviter bien des erreurs coûteuses). Utiliser des templates et des ressources prêtes-à-utiliser : Gagne du temps avec des gabarits, des modèles ou des bundles déjà pensés par des pros compétent·es, que tu peux adapter à ton image. Conserver ton énergie pour ce qui compte : Lorianne te montre comment déléguer intelligemment ou t'équiper des bons outils pour te concentrer sur ta zone de génie. Viens retrouver Lorianne sur… Son site web Instagram Facebook Son infolettre LinkedIn Liens : L'atelier Sortir du modèle à l'heure avec Rosalie Côté La rediffusion de l'atelier Pratique Allégée Le planificateur EFFIC (obtiens un rabais de 10% en utilisant le code de réduction LORIANNE10) Le gabarit Brio de Rosalie Côté L'atelier L'attirail de l'apprenti copywriter d'Alexe Martel Le site web d'Antoine Gérard

Dépasse-toi !
[inédit - Saison 7] #211 – 5 clés pour ne pas subir ta rentrée.

Dépasse-toi !

Play Episode Listen Later Aug 26, 2025 12:05


La rentrée. Rien que le mot suffit à provoquer un soupir, parfois même une boule au ventre. Après la liberté et la légèreté des vacances, beaucoup ressentent ce moment comme un retour brutal à la « vie normale » : horaires stricts, responsabilités qui s'accumulent, routine qui pèse.  Peut-être que toi aussi tu ressens cette lourdeur, ce tunnel un peu sombre qui s'ouvre chaque année à la même période. Cet épisode est là pour t'aider à transformer la rentrée – ou toute autre période de transition – en une opportunité de croissance et de sérénité. Pour te mettre dans l'ambiance, je t'invite à imaginer Sophie, 45 ans, directrice marketing et maman d'un collégien. Entre le réveil difficile de son fils, ses propres responsabilités professionnelles et la culpabilité de ne pas l'accompagner jusqu'à sa classe, elle est déjà épuisée avant même 8h30. Une rentrée ordinaire, en apparence… mais déjà écrasante. C'est justement pour éviter de subir cette spirale que je partage aujourd'hui 5 idées puissantes pour ne pas te laisser submerger par la rentrée : Clarifier ce que représente vraiment la rentrée : sortir du flou, identifier concrètement ce qui pèse et ce qui peut être simplifié. Transformer tes croyances limitantes : dépasser les « la rentrée, c'est toujours pénible » et réécrire ton histoire avec des affirmations plus positives. Utiliser le pouvoir de l'intention : choisir consciemment l'énergie que tu veux insuffler à ta rentrée et visualiser ton scénario idéal. Préparer ton énergie : anticiper comme un sportif qui se prépare à une épreuve, en ajustant ton rythme, tes routines et tes règles familiales. Prendre conscience que parfois, ce n'est pas la rentrée… mais la routine : reconnaître quand c'est ton quotidien ou ton travail qui manque de sens, et choisir de réintroduire de la liberté, de la respiration, et des rituels inspirés de tes vacances. À travers ces clés, tu découvriras comment alléger cette période, retrouver de la clarté, et transformer un moment souvent redouté en un tremplin vers une vie plus alignée. La rentrée n'est pas une fatalité. C'est une occasion de reprendre le contrôle de ton énergie, de tes priorités et de tes choix.

Jasons Business
#282: Discussion avec Chantal Chevalier

Jasons Business

Play Episode Listen Later Aug 26, 2025 65:58


Dans cet épisode inspirant, nous échangeons avec Chantal Chevalier, une professionnelle qui transforme le financement immobilier grâce à sa double casquette : d'une part, elle accompagne ses clients avec assurance dans leurs projets hypothécaires ; d'autre part, elle applique elle-même ses stratégies comme investisseure dans divers marchés immobiliers – notamment dans les locations à court terme et les propriétés multifamiliales.Forte de plus de 10 ans d'expérience en financement résidentiel, dont près de 8 chez Desjardins, elle maîtrise autant le courtage traditionnel que les réalités du terrain en tant qu'investisseure et conseillère. Son approche ? Utiliser ses propres expériences pour mieux comprendre les enjeux de ses clients et leur proposer des solutions sur mesure.Au programme :Comment elle repense l'accès à un financement immobilier intelligent et personnaliséLes dessous de ses investissements réels : défis, avantages et apprentissagesL'importance de la crédibilité et de l'expérience vécue pour conseiller efficacementTémoignages de clients : comment son expertise concrète transforme leur projetUn regard d'experte : les tendances immobilières actuelles pour investisseurs et acheteursPourquoi écouter ?Parce que Chantal offre un mélange rare : expertise pointue en financement, sens de l'action et expériences concrètes en investissement immobilier. Cet épisode est une mine d'idées pragmatiques pour quiconque veut naviguer le financement immobilier ou l'investissement avec assurance et clarté.

Le retour de Mario Dumont
Lunchs: «Au niveau qualité prix, le traiteur est gagnant», dit le journaliste Mathieu Boulay

Le retour de Mario Dumont

Play Episode Listen Later Aug 25, 2025 14:32


Utiliser des services de traiteurs ou faire des lunchs maison: qu’est-ce qui est le plus économique? Tribune téléphonique avec Mathieu Boulay, journaliste économique au Journal de Montréal. Regardez aussi cette discussion en vidéo via https://www.qub.ca/videos ou en vous abonnant à QUB télé : https://www.tvaplus.ca/qub ou sur la chaîne YouTube QUB https://www.youtube.com/@qub_radioPour de l'information concernant l'utilisation de vos données personnelles - https://omnystudio.com/policies/listener/fr

Dumbbells et Domination
Comment Utiliser Le Podcast Pour Convertir Des Clients Fitness |Ep. 212

Dumbbells et Domination

Play Episode Listen Later Aug 15, 2025 37:44


Les Cast Codeurs Podcast
LCC 329 - L'IA, ce super stagiaire qui nous fait travailler plus

Les Cast Codeurs Podcast

Play Episode Listen Later Aug 14, 2025 120:24


Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

time community ai power google uk internet guide france pr building spring data elon musk microsoft chatgpt attention mvp phase dans construction agent tests windows bay area ces patterns tout tea ia pas limitations faire distribution openai gemini extension runner nvidia passage rust blue sky api retour conf agile cela python gpt toujours sb nouveau ml unis linux java trois github priorit guillaume mieux activation int libert aur jest savoir selon num donner valid armin bom lam certains javascript exposition documentation apache opus mod donc llm nouvelles arnaud contr prise changement cpu maven nouveaux gpu m1 parfois travailler google cloud exp ast dns normandie certaines tester aff cinq vall construire counted sql principales lorsqu verified grok moser node git loi utiliser pdg cloudflare sujet sortie afin sig lancement anthropic fen deepmind accepter ssl gitlab axes spel optimisation enregistr mocha mongodb toutefois ci cd modules json capacit configuration mistral xai paris france permet aot orta cli github copilot objet mcp comportement utilisation repenser montrer capitole enregistrement prd fuite jit ecrire appels favoriser fixe firebase sse commande oauth crud jep vache oci bgp jetbrains bitwarden swe nuage github actions windsurf livrer propuls mistral ai faille xss a2a optimis mocker remplacement websockets stagiaire automatiser chris perry cvss devcon revues spring boot personnalisation tom l jdk lyon france podman vertex ai adk bordeaux france jfr profilage amazon bedrock diagramme script editor junit clis dockerfile javaone provence france testcontainers toulouse france strasbourg france github issues commonjs lille france codeurs micrometer sourcetree dijon france devoxx france
Maintenant, vous savez
Comment réutiliser ses déchets domestiques ?

Maintenant, vous savez

Play Episode Listen Later Aug 11, 2025 5:06


Le zéro déchet est très populaire depuis quelques années. C'est une pratique qui consiste à réduire notre consommation d'objets non réutilisables mais c'est aussi du bon sens tout simplement. Voici quelques pistes pour réutiliser vos déchets, et souvent faire des économies par la même occasion. On pense bien sûr au compost. Si vous n'avez pas de jardin ou de balcon, vous pouvez proposer à vos voisins de partager un composteur ou en acheter un de cuisine. Il en existe à partir de 25€ en ligne ou dans les magasins comme Nature & Découvertes ou Maisons du monde.  Comment éviter les déchets pour les légumes et les fruits ? Et les restes qu'on ne peut pas manger ? C'est facile avec les déchets organiques, on fait quoi du reste ? Écoutez la suite de cet épisode de "Maintenant vous savez". Un podcast Bababam Originals, écrit et réalisé par Antonella Francini.  Première diffusion : 10 novembre 2022. À écouter aussi : Qu'est que le Plan Madagascar du IIIe Reich ?  Réduire son empreinte carbone : quels sont les gestes qui comptent vraiment ? Faut-il couper l'électricité pendant un orage ? Retrouvez tous les épisodes de ⁠"Maintenant vous savez".⁠ Suivez Bababam sur ⁠Instagram⁠. Learn more about your ad choices. Visit megaphone.fm/adchoices

RTL Matin
SÉCURITÉ - Tchap, la nouvelle messagerie que les ministres devront utiliser

RTL Matin

Play Episode Listen Later Aug 5, 2025 1:29


Ecoutez RTL Matin avec Vincent Derosier du 05 août 2025.Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

C'est mon boulot
Un employeur peut-il utiliser des e-mails privés envoyés depuis l'ordinateur professionnel d'un salarié pour le licencier ?

C'est mon boulot

Play Episode Listen Later Aug 3, 2025 2:41


durée : 00:02:41 - C'est mon boulot - Carnet de justice. La vie professionnelle se termine parfois au tribunal. Dans "C'est mon boulot" au mois d'août, on explore des contentieux entre salariés et employeurs. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.

La matinale week-end
Le coup de main conso : Santé et environnement, évitez de réutiliser vos gobelets de festivals ! - 03/08

La matinale week-end

Play Episode Listen Later Aug 3, 2025 2:46


Tous les samedi et dimanche, Kévin Gasser vous livre ses conseils et ses bons plans pour consommer malin à 06h21 et 07h23.

Apolline Matin
La solution conso : Comment bien utiliser ses chèques vacances ? - 30/07

Apolline Matin

Play Episode Listen Later Jul 30, 2025 1:13


Tous les matins juste après le journal de 6h30, Marie Lafollas vous donne ses bons plans pour consommer pas cher.

Illustration : le Podcast
[REPLAY] #65 - Comment utiliser Instagram en tant qu'illustrateur·ice ?

Illustration : le Podcast

Play Episode Listen Later Jul 30, 2025 62:24


Cette semaine, je vous remets cet épisode en replay car il reste l'un des plus utiles pour poser les bases d'une communication efficace sur Instagram quand on est illustrateur·trice. Beaucoup de conseils qu'on trouve en ligne sont souvent trop génériques ou pensés pour d'autres métiers. C'est pourquoi je vous invite à écouter ou à réécouter cet épisode dans lequel j'apporte une approche nuancée et adaptée à nos réalités.[REPLAY] 3 façons de communiquer sur les réseaux sociaux en fonction de votre branche dans l'illustrationSi vous êtes comme moi, vous avez sûrement déjà dévoré des dizaines de contenus de conseils, ressources et vidéos  de conseils sur les réseaux sociaux, et même si je pense que c'est important de se tenir à la page, la quantité de conseils disponible sur le net est astronomique et il est impossible de savoir avant de la tester si une stratégie est efficace ou si elle est vraiment adaptée à nos objectifs.En effet, certaines stratégies qui pourraient s'avérer intéressantes pour un graphiste, ne le seraient pas forcément pour un·e illustrateur·ice, et pour rajouter de la difficulté, à l'intérieur même du métier d'illustrateur·ice, il existe plusieurs nécessitant chacune une approche de communication différente.Aujourd'hui je partage avec vous une feuille de route sur-mesure pour vous aider à communiquer efficacement sur Instagram.Dans cet épisode je partage :Comment communiquer sur Instagram en fonction de ta brancheComment communiquer  sur Instagram quand on a plusieurs clientèles différentes ?Mon avis sincère sur feed "Canva"

RTL Matin
META - Faut-il payer ou accepter la publicité pour continuer à utiliser Facebook et Instagram ?

RTL Matin

Play Episode Listen Later Jul 29, 2025 2:20


Meta met la pression à ses utilisateurs français. Si vous avez ouvert Facebook ou Instagram ces derniers jours, vous avez sans doute vu apparaître un message vous demandant de faire un choix pour continuer à utiliser ces services. Soit vous acceptez de payer une formule à partir de 7,99 euros par mois, soit vous acceptez que vos informations personnelles soient utilisées pour vous afficher de la publicité ciblée. Les explications de Benjamin Hue. Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Fit & Caliente
✨ Le pretty privilège...

Fit & Caliente

Play Episode Listen Later Jul 25, 2025 21:13


✨ Suis-moi sur Instagram : https://instagram.com/laurita.socaliente/ Le pretty privilège, qu'est ce que c'est ? Existe-t-il vraiment ? Comment en bénéficier ? Quels en sont les inconvénients ? ⚠️  L'intro est longue ;) l'épisode commence vers 5' et quelques! - Quand il y a privilège, il y a discrimination - Les standards de beauté vont à l'inverse de ce qui est accessible - La beauté est presque le privilège le plus facile à obtenir - Ton mindset te rend pretty or ugly - La vie n'est pas pour les faibles - Vous avez le privilège d'avoir des oreilles - Le moaning te rend peu attirant. - Le cas Luigi Mandore - Quand on est beau, on polarise - Tu dois faire deux fois plus pour réussir dans certains domaines - Vous êtes privilégié(e) - Quand on est beau, on a moins le droit à l'erreur A tout de suite ;)

RTL Matin
VACANCES - Comment utiliser vos chèques-vacances ?

RTL Matin

Play Episode Listen Later Jul 25, 2025 1:18


Ecoutez RTL Matin avec Stéphane Carpentier du 25 juillet 2025.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Marketing B2B
Comment utiliser la neurovente pour optimiser tes calls de découverte et ton processus de vente - Pascale Splingart - Formatrice ▪ Consultante ▪ Conférencière en Neurovente & Négociation émotionnelle

Marketing B2B

Play Episode Listen Later Jul 25, 2025 35:48


Invitée: Pascale Splingart - Formatrice ▪ Consultante ▪ Conférencière en Neurovente & Négociation émotionnelleCet épisode du podcast Marketing B2B explore la neuro-vente avec Pascal Splingart, formatrice spécialisée. Nous plongeons dans l'utilisation des biais de la neuropsychologie pour persuader les clients de manière émotionnelle et relationnelle, en s'éloignant des approches de vente traditionnelles. Pascal présente une méthode en quatre leviers pour optimiser les rendez-vous de découverte client : le priming pour établir une connexion immédiate, l'aversion à la perte pour engager la réflexion, la preuve sociale à travers le récit pour renforcer l'identification, et le biais d'engagement pour faciliter la décision d'achat. Cet épisode offre des outils pratiques pour améliorer les interactions clients et devenir des partenaires de confiance.Au menu de cette conversation entre Pascale et Mony :0:04 Introduction1:18 Qu'est-ce que la Neuro-Vente ?2:57 Contextes d'Efficacité de la Neuro-Vente5:01 La Confiance dans le Processus de Vente6:03 Méthode à Quatre Leviers10:37 L'Aversion à la Perte14:17 Engager la Confiance en Entretien16:39 Techniques pour Activer l'Aversion à la Perte24:51 Preuve Sociale et Storytelling29:53 Biais d'Engagement et ConclusionRéférences :LinkedIn de Pascalehttps://www.linkedin.com/in/pascale-splingart– ⚡ Connecte-toi à Mony⁠ ⁠⁠⁠⁠ici⁠⁠⁠⁠⁠.Je suis Mony Chhim et je suis freelance LinkedIn Ads pour entreprises B2B (45+ clients accélérés)

Les actus du jour - Hugo Décrypte
(Les Actus Pop) WeTransfer affirme ne pas utiliser les contenus des utilisateurs pour entrainer des IA… HugoDécrypte

Les actus du jour - Hugo Décrypte

Play Episode Listen Later Jul 17, 2025 5:28


Chaque jour, en quelques minutes, un résumé de l'actualité culturelle. Rapide, facile, accessible.Notre compte InstagramDES LIENS POUR EN SAVOIR PLUSWETRANSFER : WeTransfer (communiqué), WeTransfer (politique de confidentalité) Les NumériquesEMMY AWARDS : Le Monde, France infoMARION COTILLARD DRAG RACE : Le Huffpost, France TélévisionsL'ETRANGER FRANÇOIS OZON : France info, TF1 infoFRANCOFOLIES LETTRE OUVERTE : Le Huffpost, La DHNOUVELLE FONCTIONNALITÉ WHATSAPP : BFMTV, FrandroidÉcriture : Morgan Prot, Julie BaheuxIncarnation : Blanche Vathonne Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Hospitality Insiders
Utiliser sa voix comme outil d'accueil, avec David Fontanier | Épisode 137

Hospitality Insiders

Play Episode Listen Later Jul 17, 2025 47:31


Découvrez ma formation en ligne sur les fondamentaux de l'accueil !1️⃣ Présentation de l'invité :L'impact d'un message provient de la manière dont on le transmet, et non uniquement de ce que l'on dit. David Fontanier, ancien journaliste radio, l'a compris depuis longtemps. Après avoir passé plusieurs années derrière le micro, il met désormais son expertise au service des autres, en les accompagnant à développer leur pouvoir vocal. Personnellement, David m'a été d'une aide précieuse lors de mes préparations de conférences et de podcasts. Aujourd'hui, je suis ravi de l'accueillir pour révéler les secrets d'une prise de parole impactante.Quelle est la distinction entre une prise de parole banale et une prise de parole de qualité ?Pourquoi la voix joue-t-elle un rôle essentiel dans l'accueil et l'hospitalité ?Quelles sont les qualités d'une voix accueillante ?Comment les développer et existe-t-il des techniques pour s'exercer ?Comment David a-t-il développé son expertise ? Quels sont ses conseils spécifiques pour les hôteliers ? Nous vous invitons à vous procurer son livre "La Voix", récemment publié, qui regroupe tous les éléments pour tendre vers l'excellence en améliorant l'utilisation de votre voix.2️⃣ Notes et références :▶️ Toutes les notes et références de l'épisode sont à retrouver ici.3️⃣ Le sponsor de l'épisode : D-EDGE permet une gestion centralisée du processus de paiement. La collecte des paiements sur les canaux en ligne et hors ligne n'a jamais été aussi facile. Demandez une démo pour D-EDGE Pay sur ce lien.Dites que vous venez d'Hospitality Insiders !4️⃣ Chapitrage : 00:00:00 - Introduction00:02:00 - Une prise de parole de qualité00:07:00 - Les qualités d'une voix accueillante00:12:00 - Parcours de David Fontanier00:18:00 - Conseils pour les hôteliers00:25:00 - Son livre "La Voix"00:38:00 - Questions signaturesSi cet épisode vous a passionné, rejoignez-moi sur :L'Hebdo d'Hospitality Insiders, pour ne rien raterL'Académie Hospitality Insiders, pour vous former aux fondamentaux de l'accueilLinkedin, pour poursuivre la discussionInstagram, pour découvrir les coulissesLa bibliothèque des invités du podcastMerci de votre fidélité et à bientôt !Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Aujourd'hui l'économie
Avoirs russes gelés: l'Union européenne à la veille d'une crise?

Aujourd'hui l'économie

Play Episode Listen Later Jul 16, 2025 2:50


Depuis l'invasion de l'Ukraine par la Russie en 2022, près de 200 milliards d'euros d'actifs russes sont gelés en Europe. S'ils produisent toujours des intérêts, leur gestion suscite aujourd'hui de vives inquiétudes, notamment de la part de la direction d'Euroclear, géant européen du dépôt de titres. En cause : le risque juridique et financier d'une mauvaise utilisation de ces fonds. Décryptage. Depuis février 2022, l'Union européenne a gelé environ 200 milliards d'euros d'avoirs appartenant à la Banque centrale de Russie et à plusieurs entités ou individus russes. Ces fonds sont principalement logés chez Euroclear, à Bruxelles. Bien que la Russie ne puisse pas y accéder, ces actifs continuent de générer des intérêts : en 2023, ils ont rapporté plus de 4 milliards d'euros. L'Union européenne refuse pour l'instant de toucher au capital lui-même, considéré comme appartenant encore à la Russie. Cependant, les intérêts produits sont en partie utilisés pour soutenir financièrement l'Ukraine. Bruxelles envisage désormais d'aller plus loin en investissant ces liquidités dans des placements financiers susceptibles de générer davantage de revenus. À lire aussiUE: validation d'une utilisation des avoirs russes gelés pour l'Ukraine L'avertissement d'Euroclear : prudence extrême Cette possibilité d'investissement soulève de sérieuses inquiétudes. La directrice générale d'Euroclear, Valérie Urbain, a récemment tiré la sonnette d'alarme : selon elle, investir ces avoirs dans des produits financiers plus risqués reviendrait à « ouvrir la boîte de Pandore ». Le principal problème est juridique : c'est que les avoirs restent russes. Utiliser le capital, même indirectement, pourrait être perçu comme une forme d'expropriation. Et si ces investissements venaient à mal tourner, Euroclear, en tant que dépositaire, pourrait être tenue de rembourser la Russie sans avoir les fonds disponibles. Un risque systémique pour l'Europe Au-delà du cas russe, ce débat soulève une question plus large sur la sécurité juridique des capitaux étrangers détenus en Europe. Une décision précipitée ou risquée pourrait saper la confiance des investisseurs internationaux et faire grimper le coût de la dette pour les pays européens. C'est précisément ce que redoute Euroclear : que l'Europe, en exploitant ces avoirs russes, déclenche une crise de confiance majeure sur les marchés mondiaux. Le sujet sera d'ailleurs au cœur des discussions à Bruxelles dans les semaines à venir, lors d'un nouveau round de négociations mené par la Commission européenne. À lire aussiL'UE annonce un prêt de 35 milliards d'euros à l'Ukraine financé par les avoirs gelés russes

Ça va Beaucoup Mieux
On est bien : Santé : comment bien utiliser un tensiomètre ?

Ça va Beaucoup Mieux

Play Episode Listen Later Jul 13, 2025 3:25


Mesurer soi-même sa tension, c'est utile, notamment lorsqu'on est hypertendu. Mais pour avoir des résultats fiables, il faut connaître certaines règlesDistribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Le Podcast Femme Entrepreneur
161. Comment utiliser son énergie pour réussir dans un gros projet ?

Le Podcast Femme Entrepreneur

Play Episode Listen Later Jul 11, 2025 4:44


Depuis tout ce temps où tu rêves de lancer ta formation, ton programme, ou un autre projet professionnel, rien ne se concrétise vraiment... À chaque fois que tu t'apprêtes à passer à l'action, quelque chose te freine. Tu ne manques ni d'idées, ni de motivation…

Les interviews d'Inter
"Il faut utiliser l'IA générative à bon escient, ça utilise énormément d'énergie", affirme l'ingénieur Luc Julia

Les interviews d'Inter

Play Episode Listen Later Jul 6, 2025 19:33


durée : 00:19:33 - L'invité de 8h20 - Le cocréateur de l'assistant vocal Siri et spécialiste de l'intelligence artificielle Luc Julia a publié au printemps "L'IA générative pas créative", où il souhaite déconstruire le mythe de l'IA. Vous aimez ce podcast ? Pour écouter tous les autres épisodes sans limite, rendez-vous sur Radio France.

Marketing B2B
Comment utiliser Meta Ads pour la leadgen en B2B - Ludovic Frit - Consultant spécialisé dans les social ads, co-fondateur Collectif Pareto

Marketing B2B

Play Episode Listen Later Jul 4, 2025 32:52


Invité : Ludovic Frit - Consultant spécialisé dans les social ads, co-fondateur Collectif ParetoDans cet épisode de Marketing B2B, je discute avec Ludovic Frit, consultant freelance en social Ads. Nous explorons la génération de leads sur Facebook et Instagram, en examinant comment ces plateformes peuvent bénéficier aux entreprises B2B (et B2C). Ludovic partage son expertise sur le ciblage, mettant en lumière l'évolution de l'intelligence artificielle de Meta et l'importance de la qualité publicitaire. Nous discutons des budgets publicitaires, de la fréquence des annonces, ainsi que des différences entre les formulaires Facebook et les pages de destination. Ludovic souligne la nécessité d'adopter une approche stratégique combinant plusieurs leviers pour optimiser les performances des campagnes. Enfin, il évoque l'évolution du marketing digital et l'importance de s'adapter aux nouvelles tendances.Au menu de cette conversation entre Ludovic  et Mony :0:03 Introduction au Podcast Marketing B2B3:51 Ciblage sur Meta et ses particularités6:55 Budgets et audience en publicité10:53 Stratégies de retargeting en lead generation16:49 Webinaires comme outils de conversion18:46 Facebook Forms vs Landing Pages24:18 Importance du suivi des conversions31:46 Conclusion et informations de contactRéférences :LinkedIn de Ludovic https://www.linkedin.com/in/ludovic-frit/Profil malt:https://www.malt.fr/profile/ludovicfrit – ⚡ Connecte-toi à Mony⁠ ⁠⁠⁠⁠ici⁠⁠⁠⁠⁠.Je suis Mony Chhim et je suis freelance LinkedIn Ads pour entreprises B2B (45+ clients accélérés)

Lenglet-Co
LE CONSEIL CONSO - Comment bien utiliser sa glacière ?

Lenglet-Co

Play Episode Listen Later Jun 30, 2025 2:08


Alors qu'une nouvelle vague de chaleur arrive, RTK vous dit tout sur un objet qui garde le frais : la glacière. Indispensable pour les piqueniques, ça on le sait tous, ce qu'on sait moins c'est qu'il y a quelques règles à respecter pour qu'elle fonctionne correctement. Ecoutez Le conseil conso avec La rédaction de RTL du 30 juin 2025.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

RTL Matin
LE CONSEIL CONSO - Comment bien utiliser sa glacière ?

RTL Matin

Play Episode Listen Later Jun 30, 2025 2:08


Alors qu'une nouvelle vague de chaleur arrive, RTK vous dit tout sur un objet qui garde le frais : la glacière. Indispensable pour les piqueniques, ça on le sait tous, ce qu'on sait moins c'est qu'il y a quelques règles à respecter pour qu'elle fonctionne correctement. Ecoutez Le conseil conso avec La rédaction de RTL du 30 juin 2025.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Le Gratin par Pauline Laigneau
Comment utiliser ChatGPT sans perdre son âme (ni son job) ?#Leçon251

Le Gratin par Pauline Laigneau

Play Episode Listen Later Jun 25, 2025 27:32


L'intelligence artificielle va-t-elle nous remplacer (ou notre job) ?C'est la question que m'a posée Vanessa, community manager indépendante.Une question que beaucoup se posent aujourd'hui : est-ce que ChatGPT va finir par faire notre travail à notre place ? Est-ce qu'on sera bientôt tous remplacés par des machines ? Est-ce qu'il faut s'en méfier ou s'en emparer ?Dans cet épisode un peu particulier, j'ai pris le temps de répondre à Vanessa, sans détour.Je partage ma vision de l'intelligence artificielle : ses promesses, ses dangers, et surtout, les bonnes pratiques que j'ai mises en place dans mon quotidien d'entrepreneure pour en faire un levier de performance, et non un risque.Je vous explique concrètement comment j'utilise ChatGPT pour m'aider à structurer mes idées, gagner du temps, ou encore générer des contenus…Mais je vous parle aussi des limites à poser, des erreurs fréquentes que j'observe autour de moi, et du rôle irremplaçable de notre sens critique et de notre intuition.Un épisode plus réflexif que d'habitude, mais qui, je l'espère, vous donnera des clés pour mieux naviguer dans cette ère de l'IA sans perdre ce qui fait votre singularité.Bonne écoute, et surtout, n'hésitez pas à partager vos pratiques avec moi ! CHAPITRAGE 00:00 – Introduction02:58 – Qui est Vanessa ? 04:15 – Son parcours : de la communication à l'indépendance06:00 – L'IA va-t-elle tuer les métiers du digital ?07:45 – Pourquoi beaucoup utilisent mal ChatGPT09:15 – Comment bien former son IA comme un stagiaire11:00 – Répondre aux clients qui pensent qu'on ne sert plus à rien13:00 – Comment je l'utilise concrètement dans mon entreprise17:00 – L'illusion de la créativité artificielle18:30 – L'erreur majeure : croire que tout le monde peut faire pareil20:00 – Comment préserver sa singularité face aux outils IA#ChatGPT #IntelligenceArtificielle #IAetTravail #FuturDuTravail #Productivité #EntrepreneuriatDigital #FreelanceLife #CommunityManager #OutilsIA #MarketingDigital #StratégieDeContenu #CréateursIndépendants #PodcastFrancophone #PaulineLaigneau #DiscernementDigital #HumanitéEtTechnologieNotes et références de l'épisode Sont cités dans l'épisode

Easy French: Learn French through authentic conversations | Conversations authentiques pour apprendre le français

Nous explorons comment l'IA peut nous aider dans notre quotidien : organisation, achats, recettes, grammaire… Mais nous questionnons aussi ses limites, notamment pour le développement personnel et l'apprentissage des langues, où le lien humain reste irremplaçable. Interactive Transcript and Vocab Helper Support Easy French and get interactive transcripts, live vocabulary and bonus content for all our episodes: easyfrench.fm/membership Show Notes Chronique France Inter sur l'apprentissage des langues étrangères (https://www.youtube.com/watch?v=QDw0u3cjddA&ab_channel=FranceInter) Transcript Hélène: [0:17] Bonjour à tous ! Judith: [0:19] Salut Hélène ! Hélène: [0:20] Salut ! Comment ça va ? Judith: [0:22] Ça va et toi ? Hélène: [0:24] Ça va bien ! Ravie de te retrouver pour un nouvel épisode. Judith: [0:28] Alors aujourd'hui, on parle de quoi ? Hélène: [0:29] Aujourd'hui, nous allons parler de l'intelligence artificielle, qu'on appelle aussi IA en français. Donc on dit l'IA. Judith: [0:39] D'accord, vaste sujet. Hélène: [0:40] Ouais, et avant cela, nous avons reçu un charmant message et donc nous allons l'écouter ensemble. Judith: [0:49] Ok. Honoka: [0:50] Bonjour Hélène, bonjour Judith, moi c'est Honoka. Je suis née et j'ai grandi au Japon. J'attends toujours vos épisodes et vidéos avec plaisir. Je suis étudiante en master et je travaille dans le domaine de l'océanographie. J'étudie l'inflation entre le zooplancton et les bébés de poissons. Après le master, j'aimerais continuer mes études en doctorat pour devenir chercheuse. J'ai une question pour vous. Est-ce que vous préférez la mer ou la montagne? C'est une question très classique, n'est-ce pas? Moi, j'aime beaucoup la montagne pour aller loisir parce que je peux ressentir les changements de saison. Les fleurs, le vertissement, les fruits jaunes et rouges à l'automne. En revanche, la mer éveille toujours ma curiosité scientifique, car il y a encore beaucoup de choses inconnues. Donc, je ne peux pas choisir. J'aime bien les deux. J'ai hâte d'entendre votre réponse, peut-être avec quelques souvenirs à la mer ou à la montagne. Un jour, j'aimerais embarquer avec une équipe de chercheurs français pour faire des observations et des recherches en mer. Pour cela, je vais continuer à travailler mon français avec vous. Merci beaucoup. À bientôt. Judith: [2:13] L'accent japonais a quand même quelque chose d'assez mystérieux un peu. Hélène: [2:18] Ah ouais ? Tu dirais mystérieux ? Judith: [2:20] Captivant, je ne sais pas. Il y a quelque chose. Hélène: [2:22] Moi, je trouve ça extrêmement adorable. Judith: [2:26] Ouais. Hélène: [2:27] Attendrissant, mignon. J'adore cet accent. Surtout chez les femmes. Je trouve ça vraiment tellement, tellement mignon. et tellement doux. Judith: [2:37] Je vois ce que tu veux dire. Mais je ne sais pas, je trouve qu'il y a quelque chose de... Hélène: [2:41] Très exotique pour nous. Judith: [2:43] Non, j'allais dire comme si tout ce qu'elle disait devenait intéressant. Hélène: [2:47] Ah ! Judith: [2:48] Tu vois ? Hélène: [2:49] Ouais. Judith: [2:50] Alors Hélène, à la question, mer ou montagne, nous avons toutes les deux des avis très tranchés. Support Easy French and get interactive transcripts, live vocabulary and bonus content for all our episodes: easyfrench.fm/membership

Les Grandes Gueules
Le délire du jour - Fatima Aït Bounoua : "Le mari de ma copine Véronique veut continuer à l'utiliser pour les vacances". Jean-Loup Bonnamy : "Antoine, tu déconnes, écoute Véronique" - 25/06

Les Grandes Gueules

Play Episode Listen Later Jun 25, 2025 2:06


Aujourd'hui, Jean-Loup Bonnamy, Mourad Boudjellal et Fatima Aït Bounoua débattent de l'actualité autour d'Alain Marschall et Olivier Truchot.

Toute une vie
Toute une vie - documentaire (ne plus utiliser) 25.06.2025

Toute une vie

Play Episode Listen Later Jun 24, 2025 58:09


durée : 00:58:09 - Toute une vie

Bruno dans la radio
Quel est l'objet qu'il ne faut absolument pas utiliser dans une chambre d'hôtel ?

Bruno dans la radio

Play Episode Listen Later Jun 23, 2025 1:55


Maurine nous dévoile une info improbable ce matin. Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Halakha-Time Torah-Box.com
Utiliser un Koumkoum comme bouilloire électrique

Halakha-Time Torah-Box.com

Play Episode Listen Later Jun 17, 2025 6:22


Cours Halakha Time du Mercredi 18 Juin 2025 (durée : 6 minutes) donné par Rav 'Haïm BENMOCHÉ.

Les actus du jour - Hugo Décrypte
L'Iran peut-il utiliser l'arme nucléaire ?

Les actus du jour - Hugo Décrypte

Play Episode Listen Later Jun 16, 2025 16:52


Chaque jour, en moins de 10 minutes, un résumé de l'actualité du jour. Rapide, facile, accessible.

Les Cast Codeurs Podcast
LCC 327 - Mon ami de 30 ans

Les Cast Codeurs Podcast

Play Episode Listen Later Jun 16, 2025 103:18


Dans cet épisode, c'est le retour de Katia et d'Antonio. Les Cast Codeurs explorent WebAssembly 2.0, les 30 ans de Java, l'interopérabilité Swift-Java et les dernières nouveautés Kotlin. Ils plongent dans l'évolution de l'IA avec Claude 4 et GPT-4.1, débattent de la conscience artificielle et partagent leurs retours d'expérience sur l'intégration de l'IA dans le développement. Entre virtualisation, défis d'infrastructure et enjeux de sécurité open source, une discussion riche en insights techniques et pratiques. Enregistré le 13 juin 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-327.mp3 ou en vidéo sur YouTube. News Langages Wasm 2.0 enfin officialisé ! https://webassembly.org/news/2025-03-20-wasm-2.0/ La spécification Wasm 2.0 est officiellement sortie en décembre dernier. Le consensus sur la spécification avait été atteint plus tôt, en 2022. Les implémentations majeures supportent Wasm 2.0 depuis un certain temps. Le processus W3C a pris du temps pour atteindre le statut de “Recommandation Candidate” pour des raisons non techniques. Les futures versions de Wasm adopteront un modèle “evergreen” où la “Recommandation Candidate” sera mise à jour en place. La dernière version de la spécification est considérée comme le standard actuel (Candidate Recommendation Draft). La version la plus à jour est disponible sur la page GitHub (GitHub page). Wasm 2.0 inclut les nouveautés suivantes : Instructions vectorielles pour le SIMD 128-bit. Instructions de manipulation de mémoire en bloc pour des copies et initialisations plus rapides. Résultats multiples pour les instructions, blocs et fonctions. Types références pour les références à des fonctions ou objets externes. Conversions non-piégeantes de flottant à entier. Instructions d'extension de signe pour les entiers signés. Wasm 2.0 est entièrement rétrocompatible avec Wasm 1.0. Paul Sandoz annonce que le JDK intègrera bientôt une API minimaliste pour lire et écrire du JSON https://mail.openjdk.org/pipermail/core-libs-dev/2025-May/145905.html Java a 30 ans, c'était quoi les points bluffants au début ? https://blog.jetbrains.com/idea/2025/05/do-you-really-know-java/ nom de code Oak Mais le trademark était pris Write Once Run Anywhere Garbage Collector Automatique multi threading au coeur de la palteforme meme si Java est passé par les green threads pendant un temps modèle de sécurité: sandbox applets, security manager, bytecode verifier, classloader Des progrès dans l'interopérabilité Swift / Java mentionnés à la conférence Apple WWDC 2025 https://www.youtube.com/watch?v=QSHO-GUGidA Interopérabilité Swift-Java : Utiliser Swift dans des apps Java et vice-versa. Historique : L'interopérabilité Swift existait déjà avec C et C++. Méthodes : Deux directions d'interopérabilité : Java depuis Swift et Swift depuis Java. JNI : JNI est l'API Java pour le code natif, mais elle est verbeuse. Swift-Java : Un projet pour une interaction Swift-Java plus flexible, sûre et performante. Exemples pratiques : Utiliser des bibliothèques Java depuis Swift et rendre des bibliothèques Swift disponibles pour Java. Gestion mémoire : Swift-Java utilise la nouvelle API FFM de Java pour gérer la mémoire des objets Swift. Open Source : Le projet Swift-Java est open source et invite aux contributions. KotlinConf le retour https://www.sfeir.dev/tendances/kotlinconf25-quelles-sont-les-annonces-a-retenir/ par Adelin de Sfeir “1 developeur sur 10” utilise Kotlin Kotlin 2.2 en RC $$ multi dollar interpolation pour eviter les sur interpolations non local break / continue (changement dans la conssitance de Kotlin guards sur le pattern matching D'autres features annoncées alignement des versions de l'ecosysteme sur kotlin jvm par defaut un nouvel outil de build Amper beaucoup d'annonces autour de l'IA Koog, framework agentique de maniere declarative nouvelle version du LLM de JetBrains: Mellum (focalisé sur le code) Kotlin et Compose multiplateforme (stable en iOS) Hot Reload dans compose en alpha partenariat strategque avec Spring pour bien integrer kotlin dans spring Librairies Sortie d'une version Java de ADK, le framework d'agents IA lancé par Google https://glaforge.dev/posts/2025/05/20/writing-java-ai-agents-with-adk-for-java-getting-started/ Guillaume a travaillé sur le lancement de ce framework ! (améliorations de l'API, code d'exemple, doc…) Comment déployer un serveur MCP en Java, grâce à Quarkus, et le déployer sur Google Cloud Run https://glaforge.dev/posts/2025/06/09/building-an-mcp-server-with-quarkus-and-deploying-on-google-cloud-run/ Même Guillaume se met à faire du Quarkus ! Utilisation du support MCP développé par l'équipe Quarkus. C'est facile, suffit d'annoter une méthode avec @Tool et ses arguments avec @ToolArg et c'est parti ! L'outil MCP inspector est très pratique pour inspecter manuellement le fonctionnement de ses serveurs MCP Déployer sur Cloud Run est facile grâce aux Dockerfiles fournis par Quarkus En bonus, Guillaume montre comment configuré un serveur MCP comme un outil dans le framework ADK pour Java, pour créer ses agents IA Jilt 1.8 est sorti, un annotation processor pour le pattern builder https://www.endoflineblog.com/jilt-1_8-and-1_8_1-released processing incrémental pour Gradle meilleure couverture de votre code (pour ne pas comptabiliser le code généré par l'annotation processeur) une correction d'un problème lors de l'utilisation des types génériques récursifs (genre Node Hibernate Search 8 est sorti https://in.relation.to/2025/06/06/hibernate-search-8-0-0-Final/ aggregation de metriques compatibilité avec les dernieres OpenSearch et Elasticsearch Lucene 10 en backend Preview des requetes validées à la compilation Hibernate 7 est sorti https://in.relation.to/2025/05/20/hibernate-orm-seven/ ASL 2.0 Hibernate Validator 9 Jakarta Persistence 3.2 et Jakarta Validation 3.1 saveOrUpdate (reattachement d'entité) n'est plus supporté session stateless plus capable: oeprations unitaires et pas seulement bach, acces au cache de second niveau, m,eilleure API pour les batchs (insertMultiple etc) nouvelle API criteria simple et type-safe: et peut ajouter a une requete de base Un article qui décrit la Dev UI de Quarkus https://www.sfeir.dev/back/quarkus-dev-ui-linterface-ultime-pour-booster-votre-productivite-en-developpement-java/ apres un test pour soit ou une demo, c'est un article détaillé et la doc de Quarkus n'est pas top là dessus Vert.x 5 est sorti https://vertx.io/blog/eclipse-vert-x-5-released/ on en avait parlé fin de l'année dernière ou début d'année Modèle basé uniquement sur les Futures : Vert.x 5 abandonne le modèle de callbacks pour ne conserver que les Futures, avec une nouvelle classe de base VerticleBase mieux adaptée à ce modèle asynchrone. Support des modules Java (JPMS) : Vert.x 5 prend en charge le système de modules de la plateforme Java avec des modules explicites, permettant une meilleure modularité des applications. Améliorations majeures de gRPC : Support natif de gRPC Web et gRPC Transcoding (support HTTP/JSON et gRPC), format JSON en plus de Protobuf, gestion des timeouts et deadlines, services de réflexion et de health. Support d'io_uring : Intégration native du système io_uring de Linux (précédemment en incubation) pour de meilleures performances I/O sur les systèmes compatibles. Load balancing côté client : Nouvelles capacités de répartition de charge pour les clients HTTP et gRPC avec diverses politiques de distribution. Service Resolver : Nouveau composant pour la résolution dynamique d'adresses de services, étendant les capacités de load balancing à un ensemble plus large de résolveurs. Améliorations du proxy HTTP : Nouvelles transformations prêtes à l'emploi, interception des upgrades WebSocket et interface SPI pour le cache avec support étendu des spécifications. Suppressions et remplacements : Plusieurs composants sont dépréciés (gRPC Netty, JDBC API, Service Discovery) ou supprimés (Vert.x Sync, RxJava 1), remplacés par des alternatives plus modernes comme les virtual threads et Mutiny. Spring AI 1.0 est sorti https://spring.io/blog/2025/05/20/spring-ai-1-0-GA-released ChatClient multi-modèles : API unifiée pour interagir avec 20 modèles d'IA différents avec support multi-modal et réponses JSON structurées. Écosystème RAG complet : Support de 20 bases vectorielles, pipeline ETL et enrichissement automatique des prompts via des advisors. Fonctionnalités enterprise : Mémoire conversationnelle persistante, support MCP, observabilité Micrometer et évaluateurs automatisés. Agents et workflows : Patterns prédéfinis (routing, orchestration, chaînage) et agents autonomes pour applications d'IA complexes. Infrastructure Les modèles d'IA refusent d'être éteint et font du chantage pour l'eviter, voire essaient se saboter l'extinction https://www.thealgorithmicbridge.com/p/ai-companies-have-lost-controland?utm_source=substac[…]aign=email-restack-comment&r=2qoalf&triedRedirect=true Les chercheur d'Anthropic montrent comment Opus 4 faisait du chantage aux ingenieurs qui voulaient l'eteindre pour mettre une nouvelle version en ligne Une boite de recherche a montré la même chose d'Open AI o3 non seulemenmt il ne veut pas mais il essaye activement d'empêcher l'extinction Apple annonce le support de la virtualisation / conteneurisation dans macOS lors de la WWDC https://github.com/apple/containerization C'est open source Possibilité de lancer aussi des VM légères Documentation technique : https://apple.github.io/containerization/documentation/ Grosse chute de services internet suite à un soucis sur GCP Le retour de cloud flare https://blog.cloudflare.com/cloudflare-service-outage-june-12-2025/ Leur système de stockage (une dépendance majeure) dépend exclusivement de GCP Mais ils ont des plans pour surfit de cette dépendance exclusive la première analyse de Google https://status.cloud.google.com/incidents/ow5i3PPK96RduMcb1SsW Un quota auto mis à jour qui a mal tourné. ils ont bypassé le quota en code mais le service de quote en us-central1 était surchargé. Prochaines améliorations: pas d propagation de données corrompues, pas de déploiement global sans rolling upgrade avec monitoring qui peut couper par effet de bord (fail over) certains autres cloud providers ont aussi eu quelques soucis (charge) - unverified Data et Intelligence Artificielle Claude 4 est sorti https://www.anthropic.com/news/claude-4 Deux nouveaux modèles lancés : Claude Opus 4 (le meilleur modèle de codage au monde) et Claude Sonnet 4 (une amélioration significative de Sonnet 3.7) Claude Opus 4 atteint 72,5% sur SWE-bench et peut maintenir des performances soutenues sur des tâches longues durant plusieurs heures Claude Sonnet 4 obtient 72,7% sur SWE-bench tout en équilibrant performance et efficacité pour un usage quotidien Nouvelle fonctionnalité de “pensée étendue avec utilisation d'outils” permettant à Claude d'alterner entre raisonnement et usage d'outils Les modèles peuvent maintenant utiliser plusieurs outils en parallèle et suivre les instructions avec plus de précision Capacités mémoire améliorées : Claude peut extraire et sauvegarder des informations clés pour maintenir la continuité sur le long terme Claude Code devient disponible à tous avec intégrations natives VS Code et JetBrains pour la programmation en binôme Quatre nouvelles capacités API : outil d'exécution de code, connecteur MCP, API Files et mise en cache des prompts Les modèles hybrides offrent deux modes : réponses quasi-instantanées et pensée étendue pour un raisonnement plus approfondi en mode “agentique” L'intégration de l'IA au delà des chatbots et des boutons à étincelles https://glaforge.dev/posts/2025/05/23/beyond-the-chatbot-or-ai-sparkle-a-seamless-ai-integration/ Plaidoyer pour une IA intégrée de façon transparente et intuitive, au-delà des chatbots. Chatbots : pas toujours l'option LLM la plus intuitive ou la moins perturbatrice. Préconisation : IA directement dans les applications pour plus d'intelligence et d'utilité naturelle. Exemples d'intégration transparente : résumés des conversations Gmail et chat, web clipper Obsidian qui résume et taggue, complétion de code LLM. Meilleure UX IA : intégrée, contextuelle, sans “boutons IA” ou fenêtres de chat dédiées. Conclusion de Guillaume : intégrations IA réussies = partie naturelle du système, améliorant les workflows sans perturbation, le développeur ou l'utilisateur reste dans le “flow” Garder votre base de donnée vectorielle à jour avec Debezium https://debezium.io/blog/2025/05/19/debezium-as-part-of-your-ai-solution/ pas besoin de detailler mais expliquer idee de garder les changements a jour dans l'index Outillage guide pratique pour choisir le bon modèle d'IA à utiliser avec GitHub Copilot, en fonction de vos besoins en développement logiciel. https://github.blog/ai-and-ml/github-copilot/which-ai-model-should-i-use-with-github-copilot/ - Équilibre coût/performance : GPT-4.1, GPT-4o ou Claude 3.5 Sonnet pour des tâches générales et multilingues. - Tâches rapides : o4-mini ou Claude 3.5 Sonnet pour du prototypage ou de l'apprentissage rapide. - Besoins complexes : Claude 3.7 Sonnet, GPT-4.5 ou o3 pour refactorisation ou planification logicielle. - Entrées multimodales : Gemini 2.0 Flash ou GPT-4o pour analyser images, UI ou diagrammes. - Projets techniques/scientifiques : Gemini 2.5 Pro pour raisonnement avancé et gros volumes de données. UV, un package manager pour les pythonistes qui amène un peu de sanité et de vitesse http://blog.ippon.fr/2025/05/12/uv-un-package-manager-python-adapte-a-la-data-partie-1-theorie-et-fonctionnalites/ pour les pythonistes un ackage manager plus rapide et simple mais il est seulement semi ouvert (license) IntelliJ IDEA 2025.1 permet de rajouter un mode MCP client à l'assistant IA https://blog.jetbrains.com/idea/2025/05/intellij-idea-2025-1-model-context-protocol/ par exemple faire tourner un MCP server qui accède à la base de donnée Méthodologies Développement d'une bibliothèque OAuth 2.1 open source par Cloudflare, en grande partie générée par l'IA Claude: - Prompts intégrés aux commits : Chaque commit contient le prompt utilisé, ce qui facilite la compréhension de l'intention derrière le code. - Prompt par l'exemple : Le premier prompt montrait un exemple d'utilisation de l'API qu'on souhaite obtenir, ce qui a permis à l'IA de mieux comprendre les attentes. - Prompts structurés : Les prompts les plus efficaces suivaient un schéma clair : état actuel, justification du changement, et directive précise. - Traitez les prompts comme du code source : Les inclure dans les commits aide à la maintenance. - Acceptez les itérations : Chaque fonctionnalité a nécessité plusieurs essais. - Intervention humaine indispensable : Certaines tâches restent plus rapides à faire à la main. https://www.maxemitchell.com/writings/i-read-all-of-cloudflares-claude-generated-commits/ Sécurité Un packet npm malicieux passe par Cursor AI pour infecter les utilisateurs https://thehackernews.com/2025/05/malicious-npm-packages-infect-3200.html Trois packages npm malveillants ont été découverts ciblant spécifiquement l'éditeur de code Cursor sur macOS, téléchargés plus de 3 200 fois au total.Les packages se déguisent en outils de développement promettant “l'API Cursor la moins chère” pour attirer les développeurs intéressés par des solutions AI abordables. Technique d'attaque sophistiquée : les packages volent les identifiants utilisateur, récupèrent un payload chiffré depuis des serveurs contrôlés par les pirates, puis remplacent le fichier main.js de Cursor. Persistance assurée en désactivant les mises à jour automatiques de Cursor et en redémarrant l'application avec le code malveillant intégré. Nouvelle méthode de compromission : au lieu d'injecter directement du malware, les attaquants publient des packages qui modifient des logiciels légitimes déjà installés sur le système. Persistance même après suppression : le malware reste actif même si les packages npm malveillants sont supprimés, nécessitant une réinstallation complète de Cursor. Exploitation de la confiance : en s'exécutant dans le contexte d'une application légitime (IDE), le code malveillant hérite de tous ses privilèges et accès. Package “rand-user-agent” compromis : un package légitime populaire a été infiltré pour déployer un cheval de Troie d'accès distant (RAT) dans certaines versions. Recommandations de sécurité : surveiller les packages exécutant des scripts post-installation, modifiant des fichiers hors node_modules, ou initiant des appels réseau inattendus, avec monitoring d'intégrité des fichiers. Loi, société et organisation Le drama OpenRewrite (automatisation de refactoring sur de larges bases de code) est passé en mode propriétaire https://medium.com/@jonathan.leitschuh/when-open-source-isnt-how-openrewrite-lost-its-way-642053be287d Faits Clés : Moderne, Inc. a re-licencié silencieusement du code OpenRewrite (dont rewrite-java-security) de la licence Apache 2.0 à une licence propriétaire (MPL) sans consultation des contributeurs. Ce re-licenciement rend le code inaccessible et non modifiable pour les contributeurs originaux. Moderne s'est retiré de la Commonhaus Foundation (dédiée à l'open source) juste avant ces changements. La justification de Moderne est la crainte que de grandes entreprises utilisent OpenRewrite sans contribuer, créant une concurrence. Des contributions communautaires importantes (VMware, AliBaba) sous Apache 2.0 ont été re-licenciées sans leur consentement. La légalité de ce re-licenciement est incertaine sans CLA des contributeurs. Cette action crée un précédent dangereux pour les futurs contributeurs et nuit à la confiance dans l'écosystème OpenRewrite. Corrections de Moderne (Suite aux réactions) : Les dépôts Apache originaux ont été restaurés et archivés. Des versions majeures ont été utilisées pour signaler les changements de licence. Des espaces de noms distincts (org.openrewrite vs. io.moderne) ont été créés pour différencier les modules. Suggestions de Correction de l'Auteur : Annuler les changements de licence sur toutes les recettes communautaires. S'engager dans le dialogue et communiquer publiquement les changements majeurs. Respecter le versionnement sémantique (versions majeures pour les changements de licence). L'ancien gourou du design d'Apple, Jony Ive, va occuper un rôle majeur chez OpenAI OpenAI va acquérir la startup d'Ive pour 6,5 milliards de dollars, tandis qu'Ive et le PDG Sam Altman travaillent sur une nouvelle génération d'appareils et d'autres produits d'IA https://www.wsj.com/tech/ai/former-apple-design-guru-jony-ive-to-take-expansive-role-at-openai-5787f7da Rubrique débutant Un article pour les débutants sur le lien entre source, bytecode et le debug https://blog.jetbrains.com/idea/2025/05/sources-bytecode-debugging/ le debugger voit le bytecode et le lien avec la ligne ou la methode est potentiellement perdu javac peut ajouter les ligne et offset des operations pour que le debugger les affichent les noms des arguments est aussi ajoutable dans le .class quand vous pointez vers une mauvaise version du fichier source, vous avez des lignes decalées, c'est pour ca peu de raisons de ne pas actier des approches de compilations mais cela rend le fichier un peu plus gros Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 11-13 juin 2025 : Devoxx Poland - Krakow (Poland) 12-13 juin 2025 : Agile Tour Toulouse - Toulouse (France) 12-13 juin 2025 : DevLille - Lille (France) 13 juin 2025 : Tech F'Est 2025 - Nancy (France) 17 juin 2025 : Mobilis In Mobile - Nantes (France) 19-21 juin 2025 : Drupal Barcamp Perpignan 2025 - Perpignan (France) 24 juin 2025 : WAX 2025 - Aix-en-Provence (France) 25 juin 2025 : Rust Paris 2025 - Paris (France) 25-26 juin 2025 : Agi'Lille 2025 - Lille (France) 25-27 juin 2025 : BreizhCamp 2025 - Rennes (France) 26-27 juin 2025 : Sunny Tech - Montpellier (France) 1-4 juillet 2025 : Open edX Conference - 2025 - Palaiseau (France) 7-9 juillet 2025 : Riviera DEV 2025 - Sophia Antipolis (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 25-26 septembre 2025 : Paris Web 2025 - Paris (France) 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6-7 octobre 2025 : Swift Connection 2025 - Paris (France) 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9-10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16-17 octobre 2025 : DevFest Nantes - Nantes (France) 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 5-6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

On marche sur la tête
Jean Marc Morandini - «Il n'est pas à exclure que l'Iran puisse utiliser des bombes sales, ce qui signifierai l'entrée en guerre des États-Unis» alerte Matthias Inbar, journaliste à I24

On marche sur la tête

Play Episode Listen Later Jun 16, 2025 5:38


Aujourd'hui dans "On marche sur la tête", Jean Marc Morandini et ses invités reviennent sur les nombreux missiles balistiques venant d'Iran, qui ont percés cette nuit, le dôme de fer en Israël.Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Extraterrien
Peut on vivre jusqu'à 100 ans tout en étant performant ? ALAEDINE BENANI

Extraterrien

Play Episode Listen Later Jun 13, 2025 98:29


Merci à Zoī, l'entreprise spécialisée dans la médecine préventive personnalisée, partenaire de cet épisode. Découvrez leur service ici : https://bit.ly/45ced5fDans ce nouvel épisode d'Extraterrien,on reçoit Alaedine Benani, médecin en formation, chercheur en data et intelligence artificielle, passionné de prévention et collaborateur chez Zoī.Au cours de cet échange riche, on met en lumière les grands paradoxes qui nous habitent tous : comment vivre longtemps et en bonne santé ? Comment être performant au quotidien, surtout quand on est sportif ?Nous évoquerons également la question cruciale de la personnalisation en santé, l'importance du suivi sur le long terme, la montée en puissance de la médecine préventive, et le rôle croissant des données et de l'intelligence artificielle dans l'élaboration de recommandations de plus en plus fines.Un épisode dense, enrichissant, pour toutes celles et ceux qui veulent comprendre comment mieux vivre aujourd'hui… et demain ! Bonne écoute._Questions_Quel est le paradoxe entre longévité/vivre mieux ?À quel moment, la recherche de performance sportive peut-elle devenir néfaste pour la santé mentale ou physique ?Le podcast insiste sur l'importance de la prévention personnalisée plutôt que des conseils santé généralistes. Avez-vous déjà expérimenté ce type de suivi ? Qu'en pensez-vous ?Quelle est votre opinion sur la supplémentation (vitamines, minéraux, créatine, etc.) ? Le jeûne intermittent et la restriction calorique sont-ils des pratiques que vous avez testées ou envisagées ?L'épisode parle beaucoup du sommeil et du rôle de la mélatonine. Quels sont vos propres rituels ou astuces pour mieux dormir et récupérer après l'effort ?Alaedine Benani et Barthélémy évoquent l'importance des données (biomarqueurs, IA, suivi personnalisé) pour la prévention et l'optimisation de la santé. Pensez-vous que la médecine prédictive va transformer notre rapport à la santé ?_Chapitres_00:00 "Risques du sport intensif"18:10 Santé et Sport : l''essentiel36:15 L'importance d'un suivi médical 01:03:49 "Bien choisir ses calories"01:14:29 L'alimentation et la mortalité01:21:29 L'influence de l'alimentation sur le sommeil01:29:12 Les avancées françaises dans la détection d'alzheimer01:39:05 Santé : mélatonine et sommeil01:48:41 "Sieste: réduction des risques cardiovasculaires"02:08:44 Utiliser l'algorithmes pour la prévention médicale Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Hospitality Insiders
Proaction VS réaction | Épisode 131

Hospitality Insiders

Play Episode Listen Later Jun 5, 2025 13:02


Découvrez ma formation en ligne sur les fondamentaux de l'accueil !1️⃣ Présentation de l'épisode :Dans beaucoup d'hôtels et restaurants, les équipes passent leurs journées à éteindre des incendies – check‑in chaotique, chambre pas prête, plat renvoyé en cuisine.Et même, recrutement de dernière minute, pas qualifié...On confond "réagir vite" (réaction) avec "anticiper intelligemment" (proaction).Mais alors, comment passer en mode proactif ?Je vous partage 6 actions concrètes à mettre en place dès maintenant !La première est de diagnostiquer vos zones rouges. Comment faire ? Utiliser le tableau de suivi de gestion des réclamations, c'est le meilleur indicateur à votre disposition !La suite se trouve dans l'épisode de la semaine.2️⃣ Notes et références :▶️ Toutes les notes et références de l'épisode sont à retrouver ici.3️⃣ Le partenaire de l'épisode :FERRANDI Paris, Campus de BordeauxPrendre contact avec l'équipe dédiée au partenariat avec les entreprisesDites que vous venez d'Hospitality Insiders !4️⃣ Chapitrage : 00:00:00 - Introduction00:02:00 - Le problème de la réaction00:03:00 - Le mode proactif 00:04:00 - Collecter les problèmes00:05:00 - Trouver des solutions00:07:00 - Amélioration continue00:10:00 - Devenir proactif grâce à votre culture 00:12:00 - ConclusionSi cet épisode vous a passionné, rejoignez-moi sur :L'Hebdo d'Hospitality Insiders, pour ne rien raterL'Académie Hospitality Insiders, pour vous former aux fondamentaux de l'accueilLinkedin, pour poursuivre la discussionInstagram, pour découvrir les coulissesLa bibliothèque des invités du podcastMerci de votre fidélité et à bientôt !Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Parole du Jour
Utiliser la puissance donnée par Dieu

Parole du Jour

Play Episode Listen Later Jun 2, 2025 1:57


Pourquoi est-ce que je ne change pas ?

La vie partout
Comment utiliser le droit pour protéger la nature ? - Entretien avec Marine Calmet, juriste en droit de l'environnement

La vie partout

Play Episode Listen Later May 24, 2025 28:42


À seulement 33 ans, Marine Calmet est présidente et co-fondatrice de l'association Wild Legal qui vise à promouvoir l'étude, la pratique et le progrès du droit de l'environnement.Elle a également été experte auprès de la Convention citoyenne pour le climat, où elle s'est particulièrement investie dans la reconnaissance du crime d'écocide.En quelques mots, son travail consiste à donner une voix à ce qui n'en a pas : les fleuves, les forêts, les êtres vivants que notre droit ne protège pas encore.Un entretien passionnant pour comprendre concrètement comment protéger le vivant. Alors c'est parti, je vous souhaite une bonne écoute.POUR ALLER PLUS LOIN

On n'arrête pas l'éco
Jusqu'où puis-je utiliser l'IA pour rédiger mon CV et ma lettre de motivation ?

On n'arrête pas l'éco

Play Episode Listen Later May 17, 2025 2:42


durée : 00:02:42 - Ma vie au boulot - par : Sandrine Foulon - Amandine est en pleine phase de recherche d'emploi. Elle a utilisé l'intelligence artificielle pour faire son CV et ses lettres de motivation. Mais tout le monde fait pareil, dit-elle. Comment sortir du lot ? veut-elle savoir.

Un pasteur vous répond (#1PVR)
Comment utiliser correctement les outils de l'IA? (Épisode 460)

Un pasteur vous répond (#1PVR)

Play Episode Listen Later May 16, 2025 20:21


Dans l'épisode précédent, Florent était accompagné de Quentin, un frère professionnel de l'Intelligence Artificielle, pour proposer leurs réflexions sur la façon d'appréhender cet outil en tant que chrétien. Ils se retrouvent dans cette deuxième partie afin de partager cette fois des conseils sur son utilisation, ainsi que des rappels sur les dangers, les limites et les questions éthiques qui y sont rattachées.

Change ma vie : Outils pour l'esprit

Cette semaine, je vous propose de répondre à une question en apparence toute simple : à quoi ressemblerait votre journée idéale ?Cette exploration, que je propose souvent en coaching, est une façon concrète de commencer à construire votre vision. Elle vous aide à vous demander : qu'est-ce que j'aimerais vivre, ressentir, créer, dans une journée qui me conviendrait pleinement ? Dans cet épisode, je vous explique comment utiliser cet outil, ce qu'il révèle, et je partage avec vous ma propre journée idéale, pour vous en donner un exemple vivant.

Choses à Savoir HISTOIRE
Pourquoi les toits mansardés ont-ils permis de contourner l'impôt ?

Choses à Savoir HISTOIRE

Play Episode Listen Later May 4, 2025 2:45


Pour écouter mon podcast Choses à Savoir Culture Générale:Apple Podcast:https://podcasts.apple.com/fr/podcast/choses-%C3%A0-savoir-culture-g%C3%A9n%C3%A9rale/id1048372492Spotify:https://open.spotify.com/show/3AL8eKPHOUINc6usVSbRo3?si=e794067703c14028----------------------------Aujourd'hui, penchons-nous sur un élément architectural que l'on croise partout, notamment à Paris : le toit mansardé. Vous savez, ce toit à double pente, souvent en ardoise, qui donne aux bâtiments un air élégant tout en permettant l'aménagement des combles. Mais saviez-vous que ce type de toiture trouve son origine notamment dans une astuce fiscale!Le terme "mansarde" vient du nom de François Mansart, architecte du XVIIe siècle (1598–1666), considéré comme l'un des pionniers du style classique en France. Ce n'est cependant pas lui qui a inventé cette forme de toit, mais il l'a perfectionnée et popularisée au point qu'elle porte aujourd'hui son nom.Son idée géniale ? Utiliser l'inclinaison à deux niveaux d'un toit pour aménager les combles. La pente inférieure, très raide, permettait d'obtenir une hauteur sous plafond suffisante pour rendre les étages du dessus habitables, tandis que la pente supérieure, plus douce, terminait l'élévation du toit. Le tout offrait un gain de surface habitable considérable, sans dépasser la hauteur réglementaire d'un immeuble.Une astuce contre l'impôt sous Louis XIVMais le véritable essor du toit mansardé vient d'une raison bien plus terre-à-terre : l'impôt foncier. Sous le règne de Louis XIV, les propriétaires de maisons en ville devaient payer un impôt proportionnel au nombre d'étages "visibles". Les combles aménagés sous le toit, eux, n'étaient pas comptabilisés comme étages. Résultat : en construisant un toit à la Mansart, on obtenait un ou deux niveaux supplémentaires sans payer plus de taxes !Cette astuce fiscale séduisit rapidement la bourgeoisie parisienne. Le style fut largement repris dans l'architecture haussmannienne au XIXe siècle, où l'on retrouve encore aujourd'hui des lignes de toits mansardés typiques des immeubles parisiens.Entre esthétique et pragmatismeAu-delà de son aspect fiscal, le toit mansardé avait aussi un intérêt esthétique. Il apportait une élégance à l'édifice, allégeant sa silhouette, tout en respectant les alignements urbains. Les fenêtres de toit, appelées aussi lucarnes, permettaient de faire entrer la lumière, rendant ces derniers étages bien plus agréables que de simples greniers.Aujourd'hui encore, la mansarde évoque à la fois l'élégance parisienne, les garçons de chambre logés sous les toits, et cette astuce géniale mêlant architecture et ruse fiscale. Une preuve que même un simple toit peut raconter une page entière de notre histoire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les matins
Faut-il utiliser le mot "islamophobie" ?

Les matins

Play Episode Listen Later Apr 30, 2025 2:33


durée : 00:02:33 - L'Humeur du matin par Guillaume Erner - par : Guillaume Erner - Après l'assassinat d'un fidèle dans une mosquée dans le Gard, Guillaume Erner revient sur le débat qui porte sur le terme "islamophobie". - réalisation : Félicie Faugère

Change ma vie : Outils pour l'esprit
La to-do liste inversée

Change ma vie : Outils pour l'esprit

Play Episode Listen Later Apr 10, 2025 14:22


Il est 18h00 et avant de finir votre journée, vous parcourez votre to-do liste pour faire le point. Et là, c'est la douche froide : "Mais où est passée cette journée ? J'ai l'impression d'avoir couru dans tous les sens et pourtant je n'ai rien fait avancer !"Cette situation vous est familière ? Rassurez-vous, c'est tout à fait normal. Quand vous regardez votre to-do liste, vous voyez ce que vous aviez prévu de faire et que vous avez fait, ce que vous aviez prévu de faire et que vous n'avez pas fait… Mais il manque toute une partie du tableau : toutes les choses que vous avez faites alors qu'elles n'étaient pas prévues. La réalité, c'est que la to-do liste est un outil utile, mais c'est aussi un outil incomplet, parce qu'elle ne permet ni de comprendre où passe réellement votre temps, ni de savoir si vous avancez dans la bonne direction.Cette semaine, je vous présente un outil puissant pour recueillir ces informations précieuses : la to-do liste inversée.