Podcasts about optimisation

Study of mathematical algorithms for optimization problems

  • 827PODCASTS
  • 1,660EPISODES
  • 33mAVG DURATION
  • 5WEEKLY NEW EPISODES
  • Nov 21, 2025LATEST

POPULARITY

20172018201920202021202220232024

Categories



Best podcasts about optimisation

Show all podcasts related to optimisation

Latest podcast episodes about optimisation

Neil Wilkins Podcast
Content Optimisation using AI Tools

Neil Wilkins Podcast

Play Episode Listen Later Nov 21, 2025 51:11


"How to refine and improve your content with AI, data, and insight."This session designed to show marketers exactly how to analyse performance, test variations, and tailor content to audience behaviour using AI tools.Participants will leave with a clear method for improving blogs, newsletters, and social posts — step by step.Learning ObjectivesUnderstand how content optimisation works across different channels.Use AI tools to test and improve existing content.Analyse performance data to identify areas for refinement.Apply a repeatable framework for ongoing optimisation.More content like this at Cambridge Marketing College http://marketingcollege.com

IFTTD - If This Then Dev
#337.src - Gestion de la performance: Quand la perf devient l'affaire de toute l'équipe avec Adrien Cacciaguerra

IFTTD - If This Then Dev

Play Episode Listen Later Nov 19, 2025 55:20


"La performance, c'est pas juste un benchmark dans un coin, c'est un vrai sujet d'équipe qui doit se traiter tout au long du cycle de développement." Le D.E.V. de la semaine est Adrien Cacciaguerra, cofondateur de CodSpeed. Ensemble, on plonge dans la performance logicielle, un sujet souvent relégué au second plan par les devs mais qui devient vite central quand le code rame en prod. Adrien partage les raisons qui l'ont poussé à créer CodSpeed pour aider les équipes à éviter les régressions et fiabiliser leurs déploiements. On explore l'intégration des tests de performance dans la CI/CD, les galères des environnements partagés et l'évolution des pratiques avec l'arrivée de l'IA et des LLM. Un échange nourri d'anecdotes, de conseils terrain et d'une vision lucide sur l'avenir de la perf et des outils.Chapitrages00:00:53 : Introduction à la performance00:01:13 : La genèse de CodSpeed00:05:34 : Optimisation des performances en CI00:07:52 : Environnement de test et métriques00:11:17 : Défis et solutions pour les bases de données00:14:36 : Mesurer la performance : enjeux et méthodes00:18:26 : L'impact des LLM sur la performance00:20:00 : Micro-optimisation vs. performance globale00:22:16 : Évaluer les tendances de performance00:25:04 : Outils de profiling et apprentissage pour les devs00:30:29 : Intégration de CodSpeed dans les langages00:32:27 : Variabilité des tests en environnement CI00:39:07 : Défis des systèmes distribués00:41:26 : L'avenir des performances avec les LLM00:48:41 : Conclusion et recommandations Liens évoqués pendant l'émission Chaine YT: Code Aesthetic **Restez compliant !** Cet épisode est soutenu par Vanta, la plateforme de Trust Management qui aide les entreprises à automatiser leur sécurité et leur conformité. Avec Vanta, se mettre en conformité avec des standards comme SOC 2, ISO 27001 ou HIPAA devient plus rapide, plus simple, et surtout durable. Plus de 10 000 entreprises dans le monde utilisent déjà Vanta pour transformer leurs obligations de sécurité en véritable moteur de croissance.

T'as vu avec ton comptable ?
[CAPSULE FE] La facturation électronique vue par une experte-comptable - S4 E15

T'as vu avec ton comptable ?

Play Episode Listen Later Nov 19, 2025 43:00 Transcription Available


La facturation électronique, contrainte… ou opportunité de transformation pour votre cabinet ?Dans cet épisode, Gaëlle Mourad, experte-comptable aguerrie, déchiffre pour vous les enjeux majeurs de la réforme de la facturation électronique pour les cabinets d'expertise-comptable. L'échange met en lumière les aspects techniques de la réforme, le rôle crucial des plateformes agréées et les stratégies que les cabinets peuvent adopter pour accompagner au mieux leurs clients dans cette transition. Mais attention, cette réforme ne doit pas être perçue uniquement comme une contrainte légale ! Au contraire, elle offre une opportunité en or pour améliorer les processus internes, optimiser la gestion et renforcer la relation client. Comment tirer parti de la facturation électronique pour maximiser votre efficacité ? Quelles sont les meilleures pratiques à adopter pour garantir une transition en douceur ? En conclusion, cet épisode est un véritable appel à l'action : nous encourageons tous les auditeurs à s'impliquer activement dans la préparation à la facturation électronique. Ne laissez pas cette opportunité vous filer entre les doigts ! Rejoignez-nous pour découvrir comment transformer cette obligation en un atout stratégique pour votre entreprise et votre cabinet. Ensemble, faisons de la facturation électronique un levier de croissance et d'innovation !Ce contenu vous a plu ? N'hésitez pas à mettre une petite note sur votre plateforme d'écoute. Merci d'avance ! ⭐⭐ ⭐ ⭐ ⭐  Retrouvez nous sur :  Facebook Instagram  LinkedIn Ce podcast est proposé en partenariat avec l'éditeur de logiciels pour les Experts-Comptables : ACD. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Postal Hub podcast
Ep 383: An Post delivering more with route optimisation

Postal Hub podcast

Play Episode Listen Later Nov 18, 2025 30:25


Laura Shields and Garrett Byrne from An Post, along with Peter DeSantis from Giro, share how An Post was able to deliver 48% more parcels to more delivery points without increasing the number of hours worked in its last mile delivery network. Taking a test-and-learn approach to route optimisation and network design Key pressure points for An Post, including falling letter volumes, growth in parcel volumes, and dealing with fixed costs in a competitive market Parcel growth trends for An Post Implementing change across numerous sites Need to keep staff and unions engaged during periods of change Creating a fair day's work for workers Merging collections and delivery in route optimisation Redesigning the last mile to reflect current letter/parcel mix Tuning Giro's Georoute solution for different postal operators Early buy-in from senior An Post executives National Route Design project objectives Parcel volumes up 48%, with 8% increase in delivery points, but final mile hours have not increased The need to stretch for peak season Tips for last mile transformation success This episode is sponsored by GIRO. GIRO's route optimisation solution GeoRoute has been deployed by some of the world's most advanced postal and parcel networks. For more information about GIRO, visit giro.ca

IFTTD - If This Then Dev
#336.src - La cyber avant et après l'IA: Multiplier la détection, garder l'esprit critique avec Benoit Larroque

IFTTD - If This Then Dev

Play Episode Listen Later Nov 12, 2025 52:01


"Avec l'IA, on a un multiplicateur de puissance, mais il faut garder une approche structurée et prudente." Le D.E.V. de la semaine est Benoît Larroque, CTO chez Konvu. Avec l'IA, la cybersécurité est entrée dans une nouvelle dimension où la détection et la correction des vulnérabilités peuvent enfin rattraper le rythme effréné de leur apparition. Benoît détaille comment l'intelligence artificielle permet de filtrer et prioriser efficacement les failles, tout en rappelant l'exigence cruciale de vérifications humaines pour éviter les faux positifs. Il insiste sur le feedback continu et la vigilance indispensable face à la rapidité des évolutions. Un échange lucide sur les apports réels et les nouvelles limites de la cyber à l'ère de l'IA.Chapitrages00:00:53 : Introduction à la Cybersécurité00:01:17 : L'Impact de l'IA sur la Cybersécurité00:02:51 : Avant l'IA : Une Autre Époque00:05:01 : Transformation grâce à l'IA00:05:55 : Humanisation du Processus00:07:01 : Simplification des Tâches00:08:45 : La Gestion des Vulnérabilités00:11:06 : Analyse des Composants Logiciels00:12:29 : La Complexité des Mises à Jour00:13:56 : Approche de Validation Manuelle00:17:30 : Détection des Vulnérabilités par l'IA00:20:53 : Nouvelles Méthodes d'Attaque00:25:33 : Gestion des Risques de Sécurité00:29:26 : Optimisation de l'Effort de Sécurité00:36:08 : L'utilisation des LLM00:43:52 : SAST et Prompt Injection00:49:45 : Recommandations de Lecture00:50:11 : Conclusion et Remerciements Liens évoqués pendant l'émission Designing Data Intensive ApplicationsRelease It! **Restez compliant !** Cet épisode est soutenu par Vanta, la plateforme de Trust Management qui aide les entreprises à automatiser leur sécurité et leur conformité. Avec Vanta, se mettre en conformité avec des standards comme SOC 2, ISO 27001 ou HIPAA devient plus rapide, plus simple, et surtout durable. Plus de 10 000 entreprises dans le monde utilisent déjà Vanta pour transformer leurs obligations de sécurité en véritable moteur de croissance.

BRAINZ PODCAST
How Cognitive Technology, Early Imprinting, and Brain Optimisation Unlock insight, Engagement, and Impact in Business - Exclusive Brainz Interview with Tan Chrissis

BRAINZ PODCAST

Play Episode Listen Later Nov 11, 2025 44:02


Tan Chrissis is a global entrepreneur, mindset coach, speaker, and founder of Cognitive Verse, a pioneering platform that merges cognitive science with practical frameworks to help individuals and organizations achieve sustainable high performance. Through his work — including the Optimal Mind App — Tan empowers people to align ambition with purpose, build resilience, and thrive across all areas of life.In this episode, Mark Sephton talks with Tan Chrissis about how cognitive technology, early imprinting, and brain optimisation can unlock greater visibility, expression, and impact in business.We discover the following: The Origin of Visibility: How Our Earliest Imprints Shape How We Show Up in Business TodayWhy Entrepreneurs Stay Hidden — and How to Reclaim Your Right To Be SeenThe Energetic Birth of Visibility: What You Were Given Before You Could Even SpeakFrom Invisibility To Impact: Healing The Early Imprints That Silence Your VoiceWhere Visibility Truly Begins: Why Business Success Starts Before You Enter The MarketplaceWith podcast host Mark SephtonHope you'll enjoy the episode! Hosted on Acast. See acast.com/privacy for more information.

Esprit BNB
Bilan Location courte durée Octobre 2025 : 90 % d'occupation, CA à 5 chiffres et séjours plus longs

Esprit BNB

Play Episode Listen Later Nov 11, 2025 38:22 Transcription Available


Des résultats record, des couacs gérés sans stress et des décisions concrètes pour gagner en marge dès novembre.Dans cet épisode, Sammy débriefe son mois d'octobre en location courte durée et partage les enseignements actionnables du mois.Au programme:Pourquoi les séjours plus longs (3 à 4 nuits) ont boosté la rentabilité et comment les gérer même en studio.Management: confiance et soutien de l'équipe ménage dans les moments difficiles, qualité de service maintenue.Finance et optimisation: bilan au 30 septembre, coûts Internet à réduire, honoraires comptables renégociés, choix d'un fiscaliste.Croissance: deux maisons financées, pistes colocation proche campus, idées d'appartement à thème avec expérience immersive.Et découvrez en fin d'épisode, les actualités du Triplex et de macom.immo : interventions, webinaires, partenariats et teasing d'une assurance dégradations à venir ...

Le Panier
#361 - Back Market : Data, A/B testing et diversification ; moteurs de croissance pour un marché circulaire

Le Panier

Play Episode Listen Later Nov 7, 2025 79:59


Alors que le marché des smartphones dépasse les 17 milliards d'euros en France, une alternative s'est installée dans nos poches : le reconditionné. Laurent Kretz reçoit Victoria Mousa, Head of Product & Operations chez Back Market, la marque qui a fait exploser ce marché en France avec 75 % de parts de marché. Aujourd'hui 1 téléphone sur 3 est vendu aujourd'hui en reconditionné via leur plateforme.Victoria dévoile les coulisses de leur modèle : comment créer la confiance, comment optimiser le parcours d'achat au-delà du CRO (Contract Research Organization) classique, et comment bâtir un écosystème de services pour donner envie aux clients de s'engager durablement.Au programme : 00:00:00 - Introduction du podcast 00:05:02 - Le parcours professionnel de Victoria00:11:41 - Fonctionnement, structuration, différences seconde main/reconditionné.00:15:39 - Les garanties, le processus qualité, et la notion de confiance client.00:23:24 - Expansion internationale et stratégie d'adaptation aux différents marchés.00:27:15 - Diversification de l'offre : électroménager, nouvelles catégories et partenariats.00:32:13 - Optimisation, A/B testing, expérience utilisateur, et outils du CRO.00:42:34 - Services additionnels et diversification00:53:03 - Optimisation de l'expérience utilisateur01:00:18 - Fidélisation et vision businessEt quelques dernières infos à vous partager :Suivez Le Panier sur Instagram @lepanier.podcast !Inscrivez- vous à la newsletter sur lepanier.io pour cartonner en e-comm !Écoutez les épisodes sur Apple Podcasts, Spotify ou encore Podcast AddictHébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

The Next 100 Days Podcast
#500 - John Bush - Answer Engine Optimisation

The Next 100 Days Podcast

Play Episode Listen Later Nov 7, 2025 51:14


John Bush has created a way for businesses to be seen by Large Language Models called Answer Engine Optimisation.Summary of PodcastPodcast milestone and backgroundKevin and Graham discuss reaching their 500th episode of The Next 100 Days podcast. They reflect on their journey over the past 10 years and how the podcast has evolved. They introduce their guest, John Bush, an expert in "Answer Engine Optimisation" (AEO). John will discuss how businesses can optimise their content for AI-powered search engines like ChatGPT.John's background and AEO conceptJohn shares his background, including his experience in telecom, startups, and cloud infrastructure. He explains how he became interested in AEO after seeing the impact of AI on his marketing consultant friend's business. John describes the process of developing an AEO analysis tool. The tool evaluates websites on factors like visibility, accessibility, and authority. The outcome means businesses can make their content more searchable and usable by large language models.The changing landscape of search and AIKevin and John discuss the declining importance of traditional Google search and the growing prominence of AI-powered search tools like ChatGPT. They explore how businesses need to adapt their content and website structure to be more easily understood and referenced by these new search engines, rather than just optimising for Google.Practical applications of AEOJohn demonstrates a tool his team has developed that can automatically analyse a company's competitive landscape and provide insights based on the data, without relying on the company to manually gather and synthesise the information. He explains how this type of AI-powered analysis can be applied to various business functions, such as RFP responses and lifetime value calculations.Challenges and considerations around AI-generated contentKevin raises concerns about the potential risks of using AI-generated content, such as the ability to verify the accuracy and provenance of the information. John discusses efforts to address these issues, including watermarking content and providing audit trails for AI-powered decisions.The future of AI in businessJohn and Kevin discuss the broader implications of AI in the enterprise. They cover the importance of data stewardship, security, and the role of human expertise in augmenting AI capabilities. They explore how AI can be used to automate and enhance various business processes, while also highlighting the need to carefully manage the integration of these technologies.Wrap-up and reflections on the podcastKevin and Graham reflect on the evolution of The Next 100 Days podcast over the past 10 years, noting the shift in focus towards AI and technology. They express their enthusiasm for continuing the podcast and exploring the latest developments in this rapidly changing landscape.The Next 100 Days Podcast Co-HostsGraham ArrowsmithGraham founded Finely Fettled ten years ago to help business owners and marketers market to affluent and high-net-worth customers. He's the founder of MicroYES, a Partner for MeclabsAI, where he introduces AI Agents that you can talk to, that increase engagement, dwell time, leads and conversions. Now, Graham is offering Answer Engine Optimisation that gets you...

Wild Physio Podcast
#73 Strength Training Optimisation & Granola Taste Testing

Wild Physio Podcast

Play Episode Listen Later Nov 7, 2025 51:01


Today we discuss the new podcast format, strength training principles, how to optimise your strength training and we even perform a live taste testing of a new, high protein granola.

Les secrets de l'entrepreneur
EP.80 - Pourquoi faut-il préparer ton héritage avant qu'il ne soit trop tard ?

Les secrets de l'entrepreneur

Play Episode Listen Later Nov 7, 2025 9:46


Les Cast Codeurs Podcast
LCC 331 - Le retour des jackson 5

Les Cast Codeurs Podcast

Play Episode Listen Later Nov 6, 2025 73:01


Dans cet épisode, Arnaud et Guillaume discutent des dernières évolutions dans le monde de la programmation, notamment les nouveautés de Java 25, JUnit 6, et Jackson 3. Ils abordent également les récents développements en IA, les problèmes rencontrés dans le cloud, et l'état actuel de React et du web. Dans cette conversation, les intervenants abordent divers sujets liés à la technologie, notamment les spécifications de Wasteme, l'utilisation des UUID dans les bases de données, l'approche RAG en intelligence artificielle, les outils MCP, et la création d'images avec Nano Banana. Ils discutent également des complexités du format YAML, des récents dramas dans la communauté Ruby, de l'importance d'une bonne documentation, des politiques de retour au bureau, et des avancées de Cloud Code. Enfin, ils évoquent l'initiative de cafés IA pour démystifier l'intelligence artificielle. Enregistré le 24 octobre 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-331.mp3 ou en vidéo sur YouTube. News Langages GraalVM se détache du release train de Java https://blogs.oracle.com/java/post/detaching-graalvm-from-the-java-ecosystem-train Un article de Loic Mathieu sur Java 25 et ses nouvelles fonctionalités https://www.loicmathieu.fr/wordpress/informatique/java-25-whats-new/ Sortie de Groovy 5.0 ! https://groovy-lang.org/releasenotes/groovy-5.0.html Groovy 5: Évolution des versions précédentes, nouvelles fonctionnalités et simplification du code. Compatibilité JDK étendue: Full support JDK 11-25, fonctionnalités JDK 17-25 disponibles sur les JDK plus anciens. Extension majeure des méthodes: Plus de 350 méthodes améliorées, opérations sur tableaux jusqu'à 10x plus rapides, itérateurs paresseux. Améliorations des transformations AST: Nouveau @OperatorRename, génération automatique de @NamedParam pour @MapConstructor et copyWith. REPL (groovysh) modernisé: Basé sur JLine 3, support multi-plateforme, coloration syntaxique, historique et complétion. Meilleure interopérabilité Java: Pattern Matching pour instanceof, support JEP-512 (fichiers source compacts et méthodes main d'instance). Standards web modernes: Support Jakarta EE (par défaut) et Javax EE (héritage) pour la création de contenu web. Vérification de type améliorée: Contrôle des chaînes de format plus robuste que Java. Additions au langage: Génération d'itérateurs infinis, variables d'index dans les boucles, opérateur d'implication logique ==>. Améliorations diverses: Import automatique de java.time.**, var avec multi-assignation, groupes de capture nommés pour regex (=~), méthodes utilitaires de graphiques à barres ASCII. Changements impactants: Plusieurs modifications peuvent nécessiter une adaptation du code existant (visibilité, gestion des imports, comportement de certaines méthodes). **Exigences JDK*: Construction avec JDK17+, exécution avec JDK11+. Librairies Intégration de LangChain4j dans ADK pour Java, permettant aux développeurs d'utiliser n'importe quel LLM avec leurs agents ADK https://developers.googleblog.com/en/adk-for-java-opening-up-to-third-party-language-models-via-langchain4j-integration/ ADK pour Java 0.2.0 : Nouvelle version du kit de développement d'agents de Google. Intégration LangChain4j : Ouvre ADK à des modèles de langage tiers. Plus de choix de LLM : En plus de Gemini et Claude, accès aux modèles d'OpenAI, Anthropic, Mistral, etc. Modèles locaux supportés : Utilisation possible de modèles via Ollama ou Docker Model Runner. Améliorations des outils : Création d'outils à partir d'instances d'objets, meilleur support asynchrone et contrôle des boucles d'exécution. Logique et mémoire avancées : Ajout de callbacks en chaîne et de nouvelles options pour la gestion de la mémoire et le RAG (Retrieval-Augmented Generation). Build simplifié : Introduction d'un POM parent et du Maven Wrapper pour un processus de construction cohérent. JUnit 6 est sorti https://docs.junit.org/6.0.0/release-notes/ :sparkles: Java 17 and Kotlin 2.2 baseline :sunrise_over_mountains: JSpecify nullability annotations :airplane_departure: Integrated JFR support :suspension_railway: Kotlin suspend function support :octagonal_sign: Support for cancelling test execution :broom: Removal of deprecated APIs JGraphlet, une librairie Java sans dépendances pour créer des graphes de tâches à exécuter https://shaaf.dev/post/2025-08-25-think-in-graphs-not-just-chains-jgraphlet-for-taskpipelines/ JGraphlet: Bibliothèque Java légère (zéro-dépendance) pour construire des pipelines de tâches. Principes clés: Simplicité, basée sur un modèle d'exécution de graphe. Tâches: Chaque tâche a une entrée/sortie, peut être asynchrone (Task) ou synchrone (SyncTask). Pipeline: Un TaskPipeline construit et exécute le graphe, gère les I/O. Modèle Graph-First: Le flux de travail est un Graphe Orienté Acyclique (DAG). Définition des tâches comme des nœuds, des connexions comme des arêtes. Support naturel des motifs fan-out et fan-in. API simple: addTask("id", task), connect("fromId", "toId"). Fan-in: Une tâche recevant plusieurs entrées reçoit une Map (clés = IDs des tâches parentes). Exécution: pipeline.run(input) retourne un CompletableFuture (peut être bloquant via .join() ou asynchrone). Cycle de vie: TaskPipeline est AutoCloseable, garantissant la libération des ressources (try-with-resources). Contexte: PipelineContext pour partager des données/métadonnées thread-safe entre les tâches au sein d'une exécution. Mise en cache: Option de mise en cache pour les tâches afin d'éviter les re-calculs. Au tour de Microsoft de lancer son (Microsoft) Agent Framework, qui semble être une fusion / réécriture de AutoGen et de Semnatic Kernel https://x.com/pyautogen/status/1974148055701028930 Plus de détails dans le blog post : https://devblogs.microsoft.com/foundry/introducing-microsoft-agent-framework-the-open-source-engine-for-agentic-ai-apps/ SDK & runtime open-source pour systèmes multi-agents sophistiqués. Unifie Semantic Kernel et AutoGen. Piliers : Standards ouverts (MCP, A2A, OpenAPI) et interopérabilité. Passerelle recherche-production (patterns AutoGen pour l'entreprise). Extensible, modulaire, open-source, connecteurs intégrés. Prêt pour la production (observabilité, sécurité, durabilité, "human in the loop"). Relation SK/AutoGen : S'appuie sur eux, ne les remplace pas, simplifie la migration. Intégrations futures : Alignement avec Microsoft 365 Agents SDK et Azure AI Foundry Agent Service. Sortie de Jackson 3.0 (bientôt les Jackson Five !!!) https://cowtowncoder.medium.com/jackson-3-0-0-ga-released-1f669cda529a Jackson 3.0.0 a été publié le 3 octobre 2025. Objectif : base propre pour le développement à long terme, suppression de la dette technique, architecture simplifiée, amélioration de l'ergonomie. Principaux changements : Baseline Java 17 requise (vs Java 8 pour 2.x). Group ID Maven et package Java renommés en tools.jackson pour la coexistence avec Jackson 2.x. (Exception: jackson-annotations ne change pas). Suppression de toutes les fonctionnalités @Deprecated de Jackson 2.x et renommage de plusieurs entités/méthodes clés. Modification des paramètres de configuration par défaut (ex: FAIL_ON_UNKNOWN_PROPERTIES désactivé). ObjectMapper et TokenStreamFactory sont désormais immutables, la configuration se fait via des builders. Passage à des exceptions de base non vérifiées (JacksonException) pour plus de commodité. Intégration des "modules Java 8" (pour les noms de paramètres, Optional, java.time) directement dans l'ObjectMapper par défaut. Amélioration du modèle d'arbre JsonNode (plus de configurabilité, meilleure gestion des erreurs). Testcontainers Java 2.0 est sorti https://github.com/testcontainers/testcontainers-java/releases/tag/2.0.0 Removed JUnit 4 support -> ups Grails 7.0 est sortie, avec son arrivée à la fondation Apache https://grails.apache.org/blog/2025-10-18-introducing-grails-7.html Sortie d'Apache Grails 7.0.0 annoncée le 18 octobre 2025. Grails est devenu un projet de premier niveau (TLP) de l'Apache Software Foundation (ASF), graduant d'incubation. Mise à jour des dépendances vers Groovy 4.0.28, Spring Boot 3.5.6, Jakarta EE. Tout pour bien démarrer et développer des agents IA avec ADK pour Java https://glaforge.dev/talks/2025/10/22/building-ai-agents-with-adk-for-java/ Guillaume a partagé plein de resources sur le développement d'agents IA avec ADK pour Java Un article avec tous les pointeurs Un slide deck et l'enregistrement vidéo de la présentation faite lors de Devoxx Belgique Un codelab avec des instructions pour démarrer et créer ses premiers agents Plein d'autres samples pour s'inspirer et voir les possibilités offertes par le framework Et aussi un template de projet sur GitHub, avec un build Maven et un premier agent d'exemple Cloud Internet cassé, du moins la partie hébergée par AWS #hugops https://www.theregister.com/2025/10/20/aws_outage_amazon_brain_drain_corey_quinn/ Panne majeure d'AWS (région US-EAST-1) : problème DNS affectant DynamoDB, service fondamental, causant des défaillances en cascade de nombreux services internet. Réponse lente : 75 minutes pour identifier la cause profonde; la page de statut affichait initialement "tout va bien". Cause sous-jacente principale : "fuite des cerveaux" (départ d'ingénieurs AWS seniors). Perte de connaissances institutionnelles : des décennies d'expertise critique sur les systèmes AWS et les modes de défaillance historiques parties avec ces départs. Prédictions confirmées : un ancien d'AWS avait anticipé une augmentation des pannes majeures en 2024. Preuves de la perte de talents : Plus de 27 000 licenciements chez Amazon (2022-2025). Taux élevé de "départs regrettés" (69-81%). Mécontentement lié à la politique de "Return to Office" et au manque de reconnaissance de l'expertise. Conséquences : les nouvelles équipes, plus réduites, manquent de l'expérience nécessaire pour prévenir les pannes ou réduire les temps de récupération. Perspective : Le marché pourrait pardonner cette fois, mais le problème persistera, rendant les futurs incidents plus probables. Web React a gagné "par défaut" https://www.lorenstew.art/blog/react-won-by-default/ React domine par défaut, non par mérite technique, étouffant ainsi l'innovation front-end. Choix par réflexe ("tout le monde connaît React"), freinant l'évaluation d'alternatives potentiellement supérieures. Fondations techniques de React (V-DOM, complexité des Hooks, Server Components) vues comme des contraintes actuelles. Des frameworks innovants (Svelte pour la compilation, Solid pour la réactivité fine, Qwik pour la "resumability") offrent des modèles plus performants mais sont sous-adoptés. La monoculture de React génère une dette technique (runtime, réconciliation) et centre les compétences sur le framework plutôt que sur les fondamentaux web. L'API React est complexe, augmentant la charge cognitive et les risques de bugs, contrairement aux alternatives plus simples. L'effet de réseau crée une "prison": offres d'emploi spécifiques, inertie institutionnelle, leaders choisissant l'option "sûre". Nécessité de choisir les frameworks selon les contraintes du projet et le mérite technique, non par inertie. Les arguments courants (maturité de l'écosystème, recrutement, bibliothèques, stabilité) sont remis en question; une dépendance excessive peut devenir un fardeau. La monoculture ralentit l'évolution du web et détourne les talents, nuisant à la diversité essentielle pour un écosystème sain et innovant. Promouvoir la diversité des frameworks pour un écosystème plus résilient et innovant. WebAssembly 3 est sortie https://webassembly.org/news/2025-09-17-wasm-3.0/ Data et Intelligence Artificielle UUIDv4 ou UUIDv7 pour vos clés primaires ? Ça dépend… surtout pour les bases de données super distribuées ! https://medium.com/google-cloud/understanding-uuidv7-and-its-impact-on-cloud-spanner-b8d1a776b9f7 UUIDv4 : identifiants entièrement aléatoires. Cause des problèmes de performance dans les bases de données relationnelles (ex: PostgreSQL, MySQL, SQL Server) utilisant des index B-Tree. Inserts aléatoires réduisent l'efficacité du cache, entraînent des divisions de pages et la fragmentation. UUIDv7 : nouveau standard conçu pour résoudre ces problèmes. Intègre un horodatage (48 bits) en préfixe de l'identifiant, le rendant ordonné temporellement et "k-sortable". Améliore la performance dans les bases B-Tree en favorisant les inserts séquentiels, la localité du cache et réduisant la fragmentation. Problème de UUIDv7 pour certaines bases de données distribuées et scalables horizontalement comme Spanner : La nature séquentielle d'UUIDv7 (via l'horodatage) crée des "hotspots d'écriture" (points chauds) dans Spanner. Spanner distribue les données en "splits" (partitions) basées sur les plages de clés. Les clés séquentielles concentrent les écritures sur un seul "split". Ceci empêche Spanner de distribuer la charge et de scaler les écritures, créant un goulot d'étranglement ("anti-pattern"). Quand ce n'est PAS un problème pour Spanner : Si le taux d'écriture total est inférieur à environ 3 500 écritures/seconde pour un seul "split". Le hotspot est "bénin" à cette échelle et n'entraîne pas de dégradation de performance. Solutions pour Spanner : Principe clé : S'assurer que la première partie de la clé primaire est NON séquentielle pour distribuer les écritures. UUIDv7 peut être utilisé, mais pas comme préfixe. Nouvelle conception ("greenfield") : ▪︎ Utiliser une clé primaire non-séquentielle (ex: UUIDv4 simple). Pour les requêtes basées sur le temps, créer un index secondaire sur la colonne d'horodatage, mais le SHARDER (ex: shardId) pour éviter les hotspots sur l'index lui-même. Migration (garder UUIDv7) : ▪︎ Ajouter un préfixe de sharding : Introduire une colonne `shard` calculée (ex: `MOD(ABS(FARM_FINGERPRINT(order_id_v7)), N)`) et l'utiliser comme PREMIER élément d'une clé primaire composite (`PRIMARY KEY (shard, order_id_v7)`). Réordonner les colonnes (si clé primaire composite existante) : Si la clé primaire est déjà composite (ex: (order_id_v7, tenant_id)), réordonner en (tenant_id, order_id_v7). Cela aide si tenant_id a une cardinalité élevée et distribue bien. (Un tenant_id très actif pourrait toujours nécessiter un préfixe de sharding supplémentaire). RAG en prod, comment améliorer la pertinence des résultats https://blog.abdellatif.io/production-rag-processing-5m-documents Démarrage rapide avec Langchain + Llamaindex: prototype fonctionnel, mais résultats de production jugés "subpar" par les utilisateurs. Ce qui a amélioré la performance (par ROI): Génération de requêtes: LLM crée des requêtes sémantiques et mots-clés multiples basées sur le fil de discussion pour une meilleure couverture. Reranking: La technique la plus efficace, modifie grandement le classement des fragments (chunks). Stratégie de découpage (Chunking): Nécessite beaucoup d'efforts, compréhension des données, création de fragments logiques sans coupures. Métadonnées à l'LLM: L'injection de métadonnées (titre, auteur) améliore le contexte et les réponses. Routage de requêtes: Détecte et traite les questions non-RAG (ex: résumer, qui a écrit) via API/LLM distinct. Outillage Créer un serveur MCP (mode HTTP Streamable) avec Micronaut et quelques éléments de comparaison avec Quarkus https://glaforge.dev/posts/2025/09/16/creating-a-streamable-http-mcp-server-with-micronaut/ Micronaut propose désormais un support officiel pour le protocole MCP. Exemple : un serveur MCP pour les phases lunaires (similaire à une version Quarkus pour la comparaison). Définition des outils MCP via les annotations @Tool et @ToolArg. Point fort : Micronaut gère automatiquement la validation des entrées (ex: @NotBlank, @Pattern), éliminant la gestion manuelle des erreurs. Génération automatique de schémas JSON détaillés pour les structures d'entrée/sortie grâce à @JsonSchema. Nécessite une configuration pour exposer les schémas JSON générés comme ressources statiques. Dépendances clés : micronaut-mcp-server-java-sdk et les modules json-schema. Testé avec l'inspecteur MCP et intégration avec l'outil Gemini CLI. Micronaut offre une gestion élégante des entrées/sorties structurées grâce à son support JSON Schema riche. Un agent IA créatif : comment utiliser le modèle Nano Banana pour générer et éditer des images (en Java, avec ADK) https://glaforge.dev/posts/2025/09/22/creative-ai-agents-with-adk-and-nano-banana/ Modèles de langage (LLM) deviennent multimodaux : traitent diverses entrées (texte, images, vidéo, audio). Nano Banana (gemini-2.5-flash-image-preview) : modèle Gemini, génère et édite des images, pas seulement du texte. ADK (Agent Development Kit pour Java) : pour configurer des agents IA créatifs utilisant ce type de modèle. Application : Base pour des workflows créatifs complexes (ex: agent de marketing, enchaînement d'agents pour génération d'assets). Un vieil article (6 mois) qui illustre les problèmes du format de fichier YAML https://ruudvanasseldonk.com/2023/01/11/the-yaml-document-from-hell YAML est extrêmement complexe malgré son objectif de convivialité humaine. Spécification volumineuse et versionnée (YAML 1.1, 1.2 diffèrent significativement). Comportements imprévisibles et "pièges" (footguns) courants : Nombres sexagésimaux (ex: 22:22 parsé comme 1342 en YAML 1.1). Tags (!.git) pouvant mener à des erreurs ou à l'exécution de code arbitraire. "Problème de la Norvège" : no interprété comme false en YAML 1.1. Clés non-chaînes de caractères (on peut devenir une clé booléenne True). Nombres accidentels si non-guillemets (ex: 10.23 comme flottant). La coloration syntaxique n'est pas fiable pour détecter ces subtilités. Le templating de documents YAML est une mauvaise idée, source d'erreurs et complexe à gérer. Alternatives suggérées : TOML : Similaire à YAML mais plus sûr (chaînes toujours entre guillemets), permet les commentaires. JSON avec commentaires (utilisé par VS Code), mais moins répandu. Utiliser un sous-ensemble simple de YAML (difficile à faire respecter). Générer du JSON à partir de langages de programmation plus puissants : ▪︎ Nix : Excellent pour l'abstraction et la réutilisation de configuration. Python : Facilite la création de JSON avec commentaires et logique. Gros binz dans la communauté Ruby, avec l'influence de grosses boîtes, et des pratiques un peu douteuses https://joel.drapper.me/p/rubygems-takeover/ Méthodologies Les qualités d'une bonne documentation https://leerob.com/docs Rapidité Chargement très rapide des pages (préférer statique). Optimisation des images, polices et scripts. Recherche ultra-rapide (chargement et affichage des résultats). Lisibilité Concise, éviter le jargon technique. Optimisée pour le survol (gras, italique, listes, titres, images). Expérience utilisateur simple au départ, complexité progressive. Multiples exemples de code (copier/coller). Utilité Documenter les solutions de contournement (workarounds). Faciliter le feedback des lecteurs. Vérification automatisée des liens morts. Matériel d'apprentissage avec un curriculum structuré. Guides de migration pour les changements majeurs. Compatible IA Trafic majoritairement via les crawlers IA. Préférer cURL aux "clics", les prompts aux tutoriels. Barre latérale "Demander à l'IA" référençant la documentation. Prêt pour les agents Faciliter le copier/coller de contenu en Markdown pour les chatbots. Possibilité de visualiser les pages en Markdown (ex: via l'URL). Fichier llms.txt comme répertoire de fichiers Markdown. Finition soignée Zones de clic généreuses (boutons, barres latérales). Barres latérales conservant leur position de défilement et état déplié. Bons états actifs/survol. Images OG dynamiques. Titres/sections lienables avec ancres stables. Références et liens croisés entre guides, API, exemples. Balises méta/canoniques pour un affichage propre dans les moteurs de recherche. Localisée Pas de /en par défaut dans l'URL. Routage côté serveur pour la langue. Localisation des chaînes statiques et du contenu. Responsive Excellents menus mobiles / support Safari iOS. Info-bulles sur desktop, popovers sur mobile. Accessible Lien "ignorer la navigation" vers le contenu principal. Toutes les images avec des balises alt. Respect des paramètres système de mouvement réduit. Universelle Livrer la documentation "en tant que code" (JSDoc, package). Livrer via des plateformes comme Context7, ou dans node_modules. Fichiers de règles (ex: AGENTS.md) avec le produit. Évaluations et modèles spécifiques recommandés pour le produit. Loi, société et organisation Microsoft va imposer une politique de Return To Office https://www.businessinsider.com/microsoft-execs-explain-rto-mandate-in-internal-meeting-2025-9 Microsoft impose 3 jours de présence au bureau par semaine à partir de février 2026, débutant par la région de Seattle Le CEO Satya Nadella explique que le télétravail a affaibli les liens sociaux nécessaires à l'innovation Les dirigeants citent des données internes montrant que les employés présents au bureau "prospèrent" davantage L'équipe IA de Microsoft doit être présente 4 jours par semaine, règles plus strictes pour cette division stratégique Les employés peuvent demander des exceptions jusqu'au 19 septembre 2025 pour trajets complexes ou absence d'équipe locale Amy Coleman (RH) affirme que la collaboration en personne améliore l'énergie et les résultats, surtout à l'ère de l'IA La politique s'appliquera progressivement aux 228 000 employés dans le monde après les États-Unis Les réactions sont mitigées, certains employés critiquent la perte d'autonomie et les bureaux inadéquats Microsoft rattrape ses concurrents tech qui ont déjà imposé des retours au bureau plus stricts Cette décision intervient après 15 000 licenciements en 2025, créant des tensions avec les employés Comment Claude Code est né ? (l'histoire de sa création) https://newsletter.pragmaticengineer.com/p/how-claude-code-is-built Claude Code : outil de développement "AI-first" créé par Boris Cherny, Sid Bidasaria et Cat Wu. Performance impressionnante : 500M$ de revenus annuels, utilisation multipliée par 10 en 3 mois. Adoption interne massive : Plus de 80% des ingénieurs d'Anthropic l'utilisent quotidiennement, y compris les data scientists. Augmentation de productivité : 67% d'augmentation des Pull Requests (PR) par ingénieur malgré le doublement de l'équipe. Origine : Commande CLI simple évoluant vers un outil accédant au système de fichiers, exploitant le "product overhang" du modèle Claude. Raison du lancement public : Apprendre sur la sécurité et les capacités des modèles d'IA. Pile technologique "on distribution" : TypeScript, React (avec Ink), Yoga, Bun. Choisie car le modèle Claude est déjà très performant avec ces technologies. "Claude Code écrit 90% de son propre code" : Le modèle prend en charge la majeure partie du développement. Architecture légère : Simple "shell" autour du modèle Claude, minimisant la logique métier et le code (suppression constante de code superflu). Exécution locale : Privilégiée pour sa simplicité, sans virtualisation. Sécurité : Système de permissions granulaire demandant confirmation avant chaque action potentiellement dangereuse (ex: suppression de fichiers). Développement rapide : Jusqu'à 100 releases internes/jour, 1 release externe/jour. 5 Pull Requests/ingénieur/jour. Prototypage ultra-rapide (ex: 20+ prototypes d'une fonctionnalité en quelques heures) grâce aux agents IA. Innovation UI/UX : Redéfinit l'expérience du terminal grâce à l'interaction LLM, avec des fonctionnalités comme les sous-agents, les styles de sortie configurables, et un mode "Learning". Le 1er Café IA publique a Paris https://www.linkedin.com/pulse/my-first-caf%25C3%25A9-ia-paris-room-full-curiosity-an[…]o-goncalves-r9ble/?trackingId=%2FPHKdAimR4ah6Ep0Qbg94w%3D%3D Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 5-6 novembre 2025 : Tech Show Paris - Paris (France) 5-6 novembre 2025 : Red Hat Summit: Connect Paris 2025 - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19-21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 24 novembre 2025 : Forward Data & AI Conference - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9-11 décembre 2025 : APIdays Paris - Paris (France) 9-11 décembre 2025 : Green IO Paris - Paris (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France) 29-31 janvier 2026 : Epitech Summit 2026 - Paris - Paris (France) 2-5 février 2026 : Epitech Summit 2026 - Moulins - Moulins (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 3-4 février 2026 : Epitech Summit 2026 - Lille - Lille (France) 3-4 février 2026 : Epitech Summit 2026 - Mulhouse - Mulhouse (France) 3-4 février 2026 : Epitech Summit 2026 - Nancy - Nancy (France) 3-4 février 2026 : Epitech Summit 2026 - Nantes - Nantes (France) 3-4 février 2026 : Epitech Summit 2026 - Marseille - Marseille (France) 3-4 février 2026 : Epitech Summit 2026 - Rennes - Rennes (France) 3-4 février 2026 : Epitech Summit 2026 - Montpellier - Montpellier (France) 3-4 février 2026 : Epitech Summit 2026 - Strasbourg - Strasbourg (France) 3-4 février 2026 : Epitech Summit 2026 - Toulouse - Toulouse (France) 4-5 février 2026 : Epitech Summit 2026 - Bordeaux - Bordeaux (France) 4-5 février 2026 : Epitech Summit 2026 - Lyon - Lyon (France) 4-6 février 2026 : Epitech Summit 2026 - Nice - Nice (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 26-27 mars 2026 : SymfonyLive Paris 2026 - Paris (France) 31 mars 2026 : ParisTestConf - Paris (France) 16-17 avril 2026 : MiXiT 2026 - Lyon (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 6-7 mai 2026 : Devoxx UK 2026 - London (UK) 22 mai 2026 : AFUP Day 2026 Lille - Lille (France) 22 mai 2026 : AFUP Day 2026 Paris - Paris (France) 22 mai 2026 : AFUP Day 2026 Bordeaux - Bordeaux (France) 22 mai 2026 : AFUP Day 2026 Lyon - Lyon (France) 17 juin 2026 : Devoxx Poland - Krakow (Poland) 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France) 17-18 septembre 2026 : API Platform Conference 2026 - Lille (France) 5-9 octobre 2026 : Devoxx Belgium - Antwerp (Belgium) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

The Doctor's Kitchen Podcast
#322 Neurologist Explains How to Protect Your Brain by improving Metabolic Health | Dr Shahrukh Mallik

The Doctor's Kitchen Podcast

Play Episode Listen Later Nov 5, 2025 114:04


When we think about brain health, most of us jump straight to memory, dementia, or even Alzheimer's. But what if the real starting point is our metabolism?In this episode, I'm joined by Dr Shahrukh Mallik, Consultant Neurologist, to explore how conditions like insulin resistance, type 2 diabetes, and chronic inflammation don't just affect the body, they directly impact the brain.We dive into: ⚡ Why people with type 2 diabetes have up to a 50% higher risk of developing Alzheimer's

UC Today - Out Loud
Mastering Microsoft 365: How VOSS Powers Optimisation, Automation & Analytics

UC Today - Out Loud

Play Episode Listen Later Oct 30, 2025 15:01


In this insightful UC Today interview, host Kieran Devlin sits down with Christopher Martini, VP of Microsoft Strategy at VOSS, to unpack how VOSS helps organizations take full control of their Microsoft 365 environment. From simplifying service delivery to driving AI-powered insights, this conversation is a must-watch for IT leaders and UC pros navigating the evolving Microsoft landscape.With years of experience at Microsoft and its partners, Christopher shares practical strategies and real-world success stories that highlight why optimization and automation are no longer optional—they're essential.Whether you're at the beginning of your Microsoft 365 journey or managing multiple tenants across geographies, this video dives into how VOSS helps organizations of all sizes tame complexity, cut costs, and unleash the power of AI and automation.In this video, you'll learn:Why different stages of the Microsoft 365 journey bring different UC challenges—and how to solve them.How VOSS empowers organizations with granular visibility, automation, and role-based access management.The role of AI in UC service delivery—from detecting network issues to enabling faster, smarter decisions.A real-life case study showing how a large enterprise automated onboarding, improved license management, and streamlined operations using VOSS Automate and VOSS Insights.Next Steps: Want to see what VOSS can do for your Microsoft 365 environment?

two & a half gamers
Creative optimisation 101

two & a half gamers

Play Episode Listen Later Oct 30, 2025 22:21


In this solo episode, Matej Lančarič dives into the new era of creative optimization — where AI tagging, unified dashboards, and ROAS-based insights replace manual testing and spreadsheet chaos.Everyone can create ads with AI, but the REAL BOTTLENECK is knowing which ones actually work. AppsFlyer's Creative Optimization tool analyzes millions of real-world insights to reveal what drives performance - so you can scale winners, cut wasted spend, and make smarter creative decisions.Check it out: https://www.appsflyer.com/products/creative-optimization/?utm_source=influencer&afc_source=influencer&utm_medium=referral&afc_medium=referral&utm_campaign=Marvelsnap_creative&afc_campaign=Marvelsnap_creative&utm_content=matej&afc_content=matej&utm_term=YouTube&afc_term=YouTube

La chronique d'Anthony Morel
Culture IA : Trouver son prochain job grâce à l'IA - 27/10

La chronique d'Anthony Morel

Play Episode Listen Later Oct 27, 2025 4:27


The Property Management Podcast with That Property Mum
Most Downloaded Moment: SEO & Website Optimisation for Beginners

The Property Management Podcast with That Property Mum

Play Episode Listen Later Oct 25, 2025 21:04


SEO has always felt like this mysterious digital code I wasn't quite sure how to crack – and if you're anything like me, you might feel the same. As women juggling careers, families, and running a business, we don't exactly have time to decipher algorithms! That's why I wanted to bring in an expert to simplify things and give us clear, practical strategies to grow our online visibility without the tech overwhelm.As property managers, we rely so heavily on word of mouth and referrals, but let's be honest – Google is the new word of mouth. Showing up on the first page can be the difference between someone calling you… or never finding you at all. In our fast-paced industry, we need marketing tools that work even when we're not. That's where smart SEO comes in – it's not just about keywords, it's about creating content that connects and converts.In this episode of The Property Management Podcast, I chat with SEO expert James, who breaks down the basics of search engine optimisation specifically for beginners in our industry. We cover everything from how Google ranks websites to using keyword tools, conducting SEO audits, optimising images, building backlinks, and leveraging online reviews. It's packed with practical, actionable advice to help you grow your property management business online – even while you're juggling everything else life throws at you.“You have to make it seem as natural as possible because the algorithm can tell if you're trying too hard to jam words in.” - James BealeyWe cover:Introduction to Search Engine Optimization (SEO) for beginnersExplanation of how Google's search engine functions and indexing processImportance of using tools like Google Keyword Planner for keyword researchConducting basic SEO audits to identify missing elementsEmphasis on quality content and the ideal word count for web pagesProper use of keywords and avoiding keyword stuffingImportance of internal and external linking for SEO benefitsOptimizing images for search engines with descriptive file names and alt tagsOverview of off-site SEO and the significance of building backlinksThe role of Google reviews and trusted review platforms in enhancing website authorityJoin my new FREE Masterclass

T'as vu avec ton comptable ?
[CAPSULE FE] La facturation électronique vue par une fintech - S4 E14

T'as vu avec ton comptable ?

Play Episode Listen Later Oct 22, 2025 27:51 Transcription Available


Dans cet épisode, nous accueillons Nicolas Benady, confondateur et CEO de Swan, un établissement de monnaie électronique novateur. Nicolas nous dévoile les coulisses de Swan, un service qui offre des comptes professionnels et des solutions bancaires intégrées. Au cours de notre discussion, nous mettons en lumière les défis que rencontrent de nombreuses entreprises, notamment la résistance de certains clients peu familiers avec les nouvelles technologies. Nous explorons également les opportunités que cette réforme offre pour moderniser le secteur comptable et améliorer l'expérience utilisateur. Nicolas insiste sur le fait que, bien que la transition puisse sembler complexe, elle est porteuse d'avantages considérables à long terme. Ne manquez pas cette occasion de vous informer sur un sujet qui impacte directement votre entreprise et votre comptabilité. La facturation électronique est là pour rester, et il est temps de s'y préparer ! Merci de votre écoute

Bye bye patron
Comment 48h en mode survie m'ont appris 5 leçons business !

Bye bye patron

Play Episode Listen Later Oct 22, 2025 53:37


Soirée en live de folie sur les 3 leviers de l'argent : inscription : https://www.grosbillets.com/levier

DigitalFeeling
Episode 135 - Qu'est ce que le GEO concrètement ?

DigitalFeeling

Play Episode Listen Later Oct 11, 2025 17:37


GEO vs SEO : Le guide complet Dans ce 135 ème épisode, je vous partage mes recherches sur le GEO. L'intelligence artificielle générative transforme la façon dont les utilisateurs recherchent et consomment l'information en ligne. Alors que le SEO (Search Engine Optimization) reste essentiel pour la visibilité sur Google, une nouvelle discipline émerge : le GEO ou Generative Engine Optimization.Avec l'adoption massive de ChatGPT, Claude, Gemini et Perplexity, les entreprises doivent repenser leur stratégie de visibilité digitale. Cet article explore en profondeur ce qu'est le GEO, ses différences avec le SEO, et comment mesurer efficacement vos performances tout en maintenant une approche éthique.Qu'est-ce que le GEO (Generative Engine Optimization) ?Définition du GEOLe GEO (Generative Engine Optimization) désigne l'ensemble des techniques visant à optimiser la visibilité et la présence d'une marque, d'un produit ou d'un contenu dans les réponses générées par les modèles de langage et les moteurs de recherche génératifs.Contrairement aux moteurs de recherche traditionnels qui affichent une liste de liens, les moteurs génératifs synthétisent l'information et fournissent des réponses directes, structurées et conversationnelles.L'émergence des moteurs génératifsLes principaux acteurs du marché incluent :ChatGPT (OpenAI) avec ses fonctionnalités de recherche webClaude (Anthropic) et ses capacités d'analyse approfondieGemini (Google) intégré progressivement à l'écosystème GooglePerplexity AI spécialisé dans la recherche conversationnelleBing Chat (Microsoft) propulsé par GPT-4Ces plateformes représentent des millions de requêtes quotidiennes, créant un nouveau canal de visibilité que les entreprises ne peuvent ignorer.GEO vs SEO : Les différences Le SEO : Une logique de destinationEn SEO traditionnel, l'objectif est clair : apparaître dans les premiers résultats de Google pour générer du trafic vers votre site web. Les utilisateurs cliquent sur votre lien et arrivent sur votre propriété digitale.Les piliers du SEO classique :Optimisation technique (vitesse, mobile-friendly, structure)Contenu de qualité ciblant des mots-clésNetlinking et autorité de domaineExpérience utilisateur (UX)Le GEO : Une logique de présenceLe GEO fonctionne différemment. Votre contenu peut être paraphrasé, synthétisé ou cité par une IA sans que l'utilisateur ne visite jamais votre site.Les piliers du GEO :Autorité informationnelle et expertise démontréeContenu structuré et facilement interprétablePrésence sur des sources d'autorité citées par les LLMCohérence et exactitude de l'informationFraîcheur et mise à jour régulière du contenuPourquoi les deux disciplines sont complémentairesLe GEO ne remplace pas le SEO, il le complète. Voici pourquoi :Google intègre l'IA : Les SGE (Search Generative Experience) combinent recherche classique et réponses générativesParcours utilisateur hybride : Les utilisateurs alternent entre recherche traditionnelle et requêtes conversationnellesSynergies techniques : Un bon contenu SEO est souvent bien positionné pour le GEOAutorité transversale : L'autorité construite en SEO bénéficie au GEO et vice-versaPourquoi le GEO est à étudier ?L'évolution des comportements de rechercheLes données récentes montrent une adoption massive des IA génératives :Des millions d'utilisateurs actifs mensuels sur ChatGPTUne croissance exponentielle des requêtes sur Perplexity AIL'intégration progressive de l'IA dans Google SearchLe nouveau parcours utilisateur :Question posée à une IA conversationnelleRéponse synthétisée avec quelques sources citéesDécision prise sans nécessairement visiter plusieurs sitesSi votre entreprise n'apparaît pas dans ces réponses, vous perdez en visibilité auprès d'une audience croissante.Les enjeux business du GEOPour la notoriété de marque :Être cité comme référence dans votre domaineConstruire une autorité perçue par des millions d'utilisateursInfluencer la perception de votre marque via les recommandations IAPour la génération de leads :Être recommandé dans les comparatifs de solutionsApparaître dans les listes de prestataires suggérésCapter l'attention avant même la phase de recherche activePour le e-commerce :Être mentionné dans les recommandations produitsInfluencer les décisions d'achat assistées par IAOptimiser la présence dans les requêtes "meilleurs produits pour..."Les risques de ne pas investir dans le GEOL'absence de stratégie GEO expose votre entreprise à plusieurs risques :Invisibilité générationnelle : La génération Z et les millennials adoptent massivement les IAPerte de parts de voix : Vos concurrents occupent l'espace que vous laissez vacantDésinformation : Sans contenu structuré, les IA peuvent véhiculer des informations erronées sur votre marqueObsolescence progressive : Le fossé se creuse entre leaders et retardatairesLes dérives potentielles à éviterComme toute nouvelle discipline marketing, le GEO peut donner lieu à des pratiques contestables :Le spam informationnel :Création massive de contenu de faible qualité uniquement pour être indexéMultiplication artificielle de sources citant votre marqueFermes de contenu déguiséesLa manipulation des sources :Création de faux sites d'autoritéFausses études ou statistiquesAstroturfing (faux avis, fausses communautés)L'exploitation de failles :Prompt injection pour forcer la mention de votre marqueGaming des algorithmes de citationManipulation des données d'entraînementLes principes d'un GEO responsable1. Authenticité avant toutCréez du contenu véritablement utile qui répond aux questions de votre audience. Les LLM sont entraînés à détecter la qualité et la pertinence. Un contenu authentique et expert sera naturellement mieux positionné.2. Transparence dans les relationsSi vous travaillez avec des partenaires, influenceurs ou plateformes pour améliorer votre visibilité GEO, soyez transparent sur ces collaborations. Les pratiques opaques finissent toujours par être exposées.3. Respect de l'utilisateur finalRappelez-vous que l'objectif des IA génératives est d'aider les utilisateurs à obtenir des informations de qualité. Votre optimisation doit servir cet objectif, pas le saboter avec de la désinformation ou du contenu trompeur.4. Qualité plutôt que quantitéIl vaut mieux être cité une fois de manière pertinente et dans un contexte positif que mentionné dix fois de façon inappropriée ou dans des comparaisons défavorables.5. Respect de la propriété intellectuelleLe GEO soulève des questions complexes de propriété intellectuelle. Assurez-vous que votre contenu respecte les droits d'auteur, et réfléchissez à la façon dont vous souhaitez que votre propre contenu soit utilisé par les IA.Le cadre légal émergentLa législation autour de l'IA évolue rapidement :AI Act européen : Régulation des systèmes d'IA et de leurs impactsLois sur le copyright : Débats sur l'utilisation des contenus pour l'entraînement des modèlesTransparence algorithmique : Obligations croissantes de disclosureUne approche éthique du GEO vous prépare aux évolutions réglementaires à venir et protège votre réputation à long terme.Comment mesurer les performances du GEO : KPIs et métriquesLe défi de la mesure en GEOContrairement au SEO où des outils établis existent (Google Search Console, Analytics, SEMrush, Ahrefs), le GEO présente un défi majeur : les LLM sont des boîtes noires.Vous ne pouvez pas facilement savoir :Combien de fois votre contenu a été utilisé dans les réponsesDans quels contextes vous êtes mentionnéQuelle est votre part de voix vs vos concurrentsQuelles requêtes génèrent des mentions de votre marqueTraquer les demandes sur les LLM 1. Les tests manuels systématiquesCréez un référentiel de 20 à 50 requêtes pertinentes pour votre activité et testez-les régulièrement sur différents LLM.Exemples de requêtes types :"Quels sont les meilleurs [type de produit] pour [cas d'usage] ?""Comment choisir un [votre catégorie de service] ?""Comparaison entre [votre marque] et [concurrent]""[Problème client] solutions"Fréquence recommandée : Mensuelle pour un suivi de tendance2. Les outils de Brand Mention Tracking pour IADe nouveaux outils émergent sur le marché :GEO-specific tools : Plateformes spécialisées dans le tracking des mentions dans les LLMAPI-based monitoring : Solutions utilisant les API des LLM pour tests automatisésCompetitive intelligence platforms : Outils comparant votre présence à celle de vos concurrents3. Études qualitatives utilisateursInterrogez votre audience :"Utilisez-vous des IA conversationnelles pour rechercher des informations ?""Avez-vous déjà obtenu des recommandations concernant notre secteur via une IA ?""Pouvez-vous partager des exemples de requêtes que vous posez aux IA ?"4. Analyse des tendances de rechercheMême sans accès direct aux données des LLM, vous pouvez :Analyser les questions posées sur les forums et réseaux sociauxSuivre les discussions sur Reddit, Quora concernant votre secteurMonitorer les hashtags et conversations mentionnant l'utilisation d'IALes KPIs du GEOKPIs de niveau 1 : PrésenceTaux de mention : Pourcentage de requêtes test où votre marque apparaîtObjectif initial : 20-30% sur vos requêtes coreObjectif mature : 50%+ sur vos requêtes prioritairesNombre de plateformes : Sur combien de LLM différents êtes-vous mentionné ?ChatGPT, Claude, Gemini, Perplexity, Bing ChatObjectif : Présence sur au moins 3 plateformes majeuresVolume de contenu indexable : Quantité de contenu de qualité publiéArticles de fond, études, livres blancs, recherchesObjectif : Publication régulière (au moins 4 contenus majeurs/mois)KPIs de niveau 2 : Qualité et contextePosition dans la réponse : Êtes-vous mentionné en premier, en milieu, en fin de réponse ?Premier tiers : ExcellentMilieu : BonDernier tiers : À améliorerContexte de mention :Positif (recommandation, expertise reconnue)Neutre (simple mention factuelle)Négatif (critique, comparaison défavorable)Objectif : 80%+ de mentions positives ou neutresPrécision des informations : Les informations données sur vous sont-elles exactes ?Scoring de 0 à 10 par requête testObjectif : Moyenne > 8/10Citations vs paraphrases : Êtes-vous cité comme source ou simplement paraphrasé ?Citation explicite avec mention : IdéalParaphrase sans attribution : À améliorerKPIs de niveau 3 : Impact businessBrand searches : Évolution des recherches de votre marque sur GoogleAugmentation = notoriété accrue potentiellement liée au GEOTracking via Google Trends et Search ConsoleTrafic qualifié : Visiteurs arrivant avec une connaissance préalable de votre offreTemps sur site plus élevéTaux de rebond plus faibleMeilleur taux de conversionQuestions clients : Analyse du service clientLes prospects mentionnent-ils avoir entendu parler de vous via une IA ?Questions reflétant les informations données par les LLMSocial listening : Mentions sur les réseaux sociauxDiscussions mentionnant votre marque ET une IAScreenshots de recommandations IA incluant votre marquePart de voix sectorielle : Comparaison avec vos concurrentsPourcentage de mentions vs vos 3-5 concurrents principauxObjectif : Leader ou top 3 de votre catégorieMéthodologie de mesure : Le framework en 3 étapesÉtape 1 : Établir votre baseline (1-2 mois)Définissez 30 requêtes test couvrant :Requêtes de marque (10)Requêtes catégorielles (10)Requêtes problème/solution (10)Testez sur 4-5 LLM principauxDocumentez :Taux de mention actuelContexte de mentionConcurrents citésQualité des informationsÉtape 2 : Optimisation et tracking (3-6 mois)Implémentez vos actions GEO :Publication de contenu optimiséAmélioration de la structure d'informationDéveloppement de l'autoritéTesting mensuel sur votre panel de requêtesAjustements basés sur les résultatsÉtape 3 : Analyse d'impact (à 6 mois)Corrélations avec les KPIs businessROI du GEO :Coût des actions GEO vs impact notoriétéValeur estimée de la présence dans les LLMComparaison avec autres canaux d'acquisitionOptimisation continueOutils recommandés pour mesurer le GEOPour les tests manuels :Tableur structuré avec historiqueScreenshots horodatés des réponsesGrille de scoring standardiséePour l'automatisation :Scripts utilisant les API des LLMOutils de monitoring émergents (à évaluer selon disponibilité)Plateformes de competitive intelligencePour l'analyse d'impact :Google Analytics 4 (segments personnalisés)Google Search Console (brand queries)Outils de social listening (Mention, Brandwatch)CRM pour tracking de la source de leadsLes limites éthiques de la mesureÉvitez le spam de requêtesInterroger massivement les LLM pour tester votre présence peut :Violer les conditions d'utilisation des plateformesGénérer des coûts importants (pour les API payantes)Être considéré comme un abus de serviceRecommandation : Limitez-vous à des tests raisonnables (30-50 requêtes/mois maximum par plateforme)Ne manipulez pas vos testsCertaines pratiques à éviter :Créer de faux signaux pour améliorer artificiellement vos métriquesUtiliser des techniques de prompt injection pour forcer votre mentionEntraîner localement des modèles biaisés pour gonfler vos scoresL'obsession des chiffresComme en SEO, focaliser uniquement sur les KPIs peut vous faire perdre de vue l'essentiel : créer de la valeur réelle pour vos utilisateurs.Un bon GEO résulte d'un excellent contenu et d'une expertise réelle, pas de manipulation de métriques.Des stratégies concrètes pour optimiser votre GEO1. Créez du contenu d'autoritéLes formats privilégiés :Études originales avec données propriétairesLivres blancs approfondisGuides complets (5000+ mots)Rapports annuels sectorielsCas d'usage détaillésPourquoi ça fonctionne : Les LLM privilégient les sources faisant autorité et offrant des informations approfondies et vérifiables.2. Structurez votre informationUtilisez un balisage sémantique fort :Schema.org markupHiérarchie claire (H1, H2, H3)Listes et tableaux structurésDéfinitions claires des conceptsPourquoi ça fonctionne : Les LLM comprennent mieux et citent plus facilement le contenu bien structuré.3. Développez votre présence sur les sources d'autoritéObjectif : Être mentionné sur les sites que les LLM considèrent comme fiables.Actions concrètes :Publications dans des médias sectoriels reconnusContributions à Wikipédia (si pertinent et factuel)Interviews et citations d'expertsPartenariats avec institutions académiquesPrésence dans des annuaires professionnels de qualité4. Optimisez pour la recherche conversationnellePensez questions-réponses :Identifiez les questions fréquentes de votre audienceCréez des FAQ détailléesRépondez de manière directe et complèteUtilisez un langage naturel, pas du jargon SEOExemple :❌ "Solutions CRM entreprises PME"✅ "Quel CRM choisir pour une PME de 50 salariés ?"5. Maintenez la cohérence de votre informationPrincipe de base : Les LLM valorisent les informations cohérentes à travers les sources.Actions :NAP consistency (Name, Address, Phone) sur toutes les plateformesDonnées produits identiques partoutMessages clés uniformesMise à jour régulière des informations obsolètes6. Encouragez les citations de qualitéStratégie de netlinking GEO :Créez du contenu tellement bon qu'il devient une référenceOffrez des données uniques que d'autres citerontDéveloppez des relations avec les créateurs de contenu d'autoritéParticipez à des podcasts, webinaires, conférencesIntégrer le GEO dans votre stratégie marketing GEO et Content MarketingLe content marketing devient le pilier central d'une stratégie GEO efficace.Alignement des objectifs :Content marketing : Créer de la valeur, éduquer, engagerGEO : Être la source d'information privilégiée des IASynergies naturelles :Le contenu de qualité sert les deux objectifsL'investissement en content marketing bénéficie directement au GEOLes insights GEO enrichissent votre stratégie de contenuGEO et SEO : La stratégie hybrideContenus gagnant-gagnant :Articles piliers (pillar content) : Excellent pour SEO et GEOÉtudes de cas détaillées : Génèrent des backlinks (SEO) et des citations (GEO)Glossaires et définitions : Bien référencés ET souvent cités par les IAWorkflow intégré :Recherche de mots-clés SEOIdentification des questions conversationnelles (GEO)Création de contenu répondant aux deux besoinsOptimisation technique SEOStructuration pour faciliter l'extraction par les LLMPromotion pour autorité (bénéfique aux deux)GEO et Réputation en ligneLe GEO devient un enjeu majeur de gestion de la réputation.Risques à gérer :Informations erronées propagées par les IAMentions négatives amplifiéesConcurrents mieux positionnés dans les recommandationsActions de protection :Monitoring actif de ce qui est dit sur vousCorrection proactive des informations erronéesPublication régulière de contenu à jourGestion de crise spécifique GEOCas d'usage par secteurE-commerce et RetailEnjeux :Apparaître dans les recommandations produitsÊtre cité dans les comparatifsStratégies spécifiques :Fiches produits ultra-détaillées avec specs complètesGuides d'achat par cas d'usageComparatifs honnêtes (oui, même avec vos concurrents)Reviews et témoignages structurésB2B et Services ProfessionnelsEnjeux :Établir l'autorité et l'expertiseÊtre recommandé comme solutionStratégies spécifiques :Thought leadership (articles d'experts)Études de cas chiffréesLivres blancs techniquesParticipation à des publications sectoriellesSanté et Bien-êtreEnjeux :Informations médicales correctes et responsablesConformité réglementaire stricteStratégies spécifiques :Contenu validé par des professionnels certifiésCitations de sources médicales reconnuesDisclaimers appropriésApproche ultra-éthique (enjeux de santé publique)Tourisme et HôtellerieEnjeux :Recommandations de destinations et établissementsInformations pratiques et à jourStratégies spécifiques :Guides détaillés de destinationsInformations pratiques constamment mises à jourExpériences client authentiquesPartenariats avec influenceurs voyageL'avenir du GEO L'intégration IA-Search continueGoogle SGE, Bing Chat et d'autres acteurs fusionnent recherche traditionnelle et génération de réponses. Le GEO et le SEO convergeront progressivement.Implication : Une stratégie unifiée devient nécessaire.La personnalisation des réponses IALes LLM apprendront des préférences individuelles et donneront des réponses de plus en plus personnalisées.Implication : Le GEO devra s'adapter à différents profils d'utilisateurs.La transparence des sourcesPression croissante pour que les IA révèlent leurs sources et leur raisonnement.Implication : Les marques avec contenu de qualité et traçabilité seront favorisées.L'émergence de standards GEOComme le SEO a ses guidelines (Google, Bing), des standards GEO émergeront.Implication : Early adopters bénéficieront d'un avantage compétitif.La régulation croissanteLégislations sur l'IA, le copyright, la transparence algorithmique se multiplieront.Implication : Les approches éthiques seront non seulement recommandées mais obligatoires.Conclusion Le GEO n'est pas une mode passagère, c'est une évolution structurelle de l'écosystème digital. Les entreprises qui investissent dès maintenant dans cette discipline construiront un avantage compétitif durable.Les principes clés à retenir :Complémentarité : Le GEO complète le SEO, il ne le remplace pasÉthique : Seules les approches responsables sont durablesQualité : L'expertise réelle prime sur l'optimisation techniqueMesure : Des métriques imparfaites valent mieux que l'absence de suiviAdaptation : Le GEO évoluera rapidement, restez agilesPar où commencer ?Auditez votre présence actuelle dans les LLM (30 requêtes test)Identifiez les gaps et opportunitésCréez du contenu d'autorité répondant aux questions de votre audienceStructurez votre information pour faciliter l'extraction par les IAMesurez régulièrement votre évolutionAjustez votre stratégie en fonction des résultatsLe GEO représente un nouveau terrain de jeu marketing où l'authenticité, l'expertise et la qualité sont récompensées. C'est une excellente nouvelle pour les marques qui ont véritablement quelque chose de valable à apporter à leur audience.L'avenir de la visibilité digitale se joue maintenant. Êtes-vous prêts ?Soutenez le podcast :✅ Abonnez-vous à DigitalFeeling sur LinkedIn✅ Rejoignez ma newsletter : substack.com/@elodiechenol✅ Laissez 5 ⭐ sur Apple Podcasts ou Spotify

UK Investor Magazine
Targeting 100x growth through ride-hailing AI optimisation with Odysse

UK Investor Magazine

Play Episode Listen Later Oct 3, 2025 19:08


The UK Investor Magazine was delighted to welcome Anant Prakash, CEO of Odysse, to discuss the company's vision, milestones, and live crowdfunding campaign.Odysse is building the UK's first all-electric, AI-powered ride-hailing fleet, already achieving ~£1M annual revenue and a five year contract with Bolt. In this episode, Anant explains the inspiration behind Odysse, the problems it is solving for drivers and riders, and how its model improves the service of incumbents like Uber and Bolt.The conversation also covers Odysse's rapid growth plans, scaling from 30 vehicles today to 3,000 by 2030, targeting £100M in revenue, and how funds from the crowdfunding campaign will accelerate this expansion. For listeners inspired by Odysse's mission, this episode shows how to experience the service and get involved in the investment opportunity.Visit their Republic page. Hosted on Acast. See acast.com/privacy for more information.

English and Beyond - Intermediate English Podcast
E57 Perfectly Miserable: The Culture of Optimisation - Advanced English Listening

English and Beyond - Intermediate English Podcast

Play Episode Listen Later Oct 2, 2025 17:37 Transcription Available


Are we becoming obsessed with optimisation?From Greek philosophy to Apple Watches, the idea of “the good life” has shifted from balance and virtue to data, tracking, and biohacking.In this episode of English and Beyond (Advanced), Oliver and César explore the culture of self-optimisation - from sleep divorces to clean eating, from supplements to billionaire blood transfusions.You'll hear natural British English conversation on:Where “healthy living” becomes obsessive control;Why sleep tracking, diets, and fitness apps can be both useful and harmful; andWhether we're chasing perfection or just trying to survive adulthood.

Optimising Human Performance
From Antarctica to Space: Lessons in Human Optimisation with Prof Nathalie Pattyn

Optimising Human Performance

Play Episode Listen Later Oct 1, 2025 51:21


In this episode, Martin & JP talk to Nathalie Pattyn about human performance in operational environments. They discuss the importance of rest and recovery in training, the role of robustness and the challenges of leadership in high-performance settings. Nathalie has extensive experience working in Antarctica, and the conversation explores the adaptability required to excel in that environment.Guest, Cast & CrewNathalie Pattyn is an emergency doctor, psychologist and academic with 30 years of experience in the Belgian defence force. She heads up VIPER – a research unit that investigates human performance in selected populations, from astronauts to special forces candidates. Hosted by Martin Jones & Jonpaul Nevin https://www.ophp.co.uk Produced & edited by Bess ManleyResourcesNathalie's open-access book ‘Handbook of Mental Performance' https://tinyurl.com/yxwa7n23 VIPER's publications http://viper.rma.ac.be/pub/index.html ‘An Astronaut's Guide to Life' by Chris Hadfield https://tinyurl.com/57b8yw6t Thanks for tuning in. If you found this podcast valuable, please take a moment to rate, share and review. If you have feedback, guest suggestions, or topics you'd love us to cover, please email us at info@ophp.co.uk or connect with us on LinkedIn. Chapters01:09 Founding the Viper Research Unit01:57 Research Focus and Applications02:54 Training for Extreme Roles04:23 The Importance of Rest and Recovery05:37 Selection and Robustness14:44 Challenges in Selection Processes24:22 Antarctic Missions and Remote Medicine31:46 Cognitive and Physiological Research38:50 Emerging Technologies and Practical Advice42:18 Leadership and Duty of Care46:57 Conclusion and Final ThoughtsThanks for reading this week's show notesFor more information about the podcast please visit our website: www.ophp.co.uk Follow us on LinkedIn: https://www.linkedin.com/company/ophp/and on Instagram: @ophumanperformanceFinally, please subscribe, share, and leave a review!Thanks! Hosted on Acast. See acast.com/privacy for more information.

Assur'actu
Intelligence Artificielle et Assurance : des cas d'usage concrets

Assur'actu

Play Episode Listen Later Oct 1, 2025 14:30


L'intelligence artificielle est déjà présente dans de nombreux secteurs, et l'assurance n'est pas en reste. C'est même l'un des domaines les plus propices à son développement, grâce à la richesse des données disponibles et aux enjeux métiers auxquels les assureurs doivent répondre.Amélioration de la relation client, optimisation des processus, anticipation des risques, gestion des sinistres simples… autant d'exemples où l'IA offre de vraies opportunités. Dans ce nouvel épisode, Guillaume partage de premiers cas d'usage concrets de l'IA dans le secteur de l'assurance.Un épisode intéressant qui montre comment l'IA commence à s'implanter dans le secteur assurantiel. Abonnez-vous pour d'autres cas d'usage que nous partagerons dans d'autres épisodes.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Parallax by Ankur Kalra
EP 143: GDMT Optimisation: Mitigating SCD Risk and Addressing Women's Cardiac Health

Parallax by Ankur Kalra

Play Episode Listen Later Sep 29, 2025 43:45


In this episode of Parallax, Dr Ankur Kalra speaks with Dr Benjamin A D'Souza, Associate Professor of Medicine at the University of Pennsylvania and Section Chief of Cardiac Electrophysiology at Presbyterian Medical Center. Together, they explore the challenges of mitigating sudden cardiac death and the evolving role of guideline-directed medical therapy in optimising patient outcomes. Dr D'Souza reflects on current strategies for risk assessment and prevention, highlighting the importance of medical therapy, careful monitoring and timely use of defibrillators. He stresses that management must be tailored to individual patients, with decisions guided by evidence, imaging and multidisciplinary collaboration. The conversation also turns to women's cardiac health and representation in electrophysiology. Dr D'Souza highlights the persistent under-enrolment of women in clinical trials and their lower access to ablation and device therapy. He stresses the need for inclusive trial design, mentorship and acknowledgement of systemic bias to improve equity in cardiovascular care. This series is supported by ZOLL and is intended for Health Care Professionals.

Outils du Manager - Tout ce que vous avez toujours voulu savoir sur le management sans jamais oser le demander !

Je t'accompagne pour mettre en place tes modèles mentaux ici : ICI***Découvre ce que nous avons créé pour t'aider à aller plus loin :Des formactions pratiques et concrètes pour manager efficacement, quel que soit ton rôle ou ton secteur.Une communauté unique en ligne, le CIEL, où dirigeants et cadres dirigeants, s'entraident pour réussir ensemble.L'offre exclusive du moment pour t'aider à passer à l'action dès aujourd'hui.Clique ici pour explorer le catalogue ODM : https://www.formactions.outilsdumanager.com/cataloguecomplet***Dans cet épisode d'Outils du Manager, je t'explique la différence entre un intrapreneur et un intellectuel frustré.Surtout, j'aimerais te donner les clés pour passer de l'un à l'autre.On parle de méthode pour développer ton système mental, apprendre de tes erreurs, tenir un journal pour booster ton efficacité et adopter une vraie stratégie de management.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Know Yourself Performance
Q&A: Struggling to Eat After Evening Training, Aggressive Fat-Loss, and Recovery Optimisation

Know Yourself Performance

Play Episode Listen Later Sep 24, 2025 18:10


Performance Nutrition Coaching: ⁠⁠⁠https://conoroneillnutrition.com/nutritioncoachingInstagram: ⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://instagram.com/conoroneillnutrition

T'as vu avec ton comptable ?
[CAPSULE FE] Banques, éditeurs, cabinets : partenaires ou concurrents dans la réforme ? - S4 E13

T'as vu avec ton comptable ?

Play Episode Listen Later Sep 24, 2025 32:01 Transcription Available


Êtes-vous prêt à plonger dans la plus grande révolution comptable depuis l'ère numérique ? Dans cet épisode, nous explorons le sujet brûlant de la facturation électronique, une réforme qui promet de transformer la gestion des factures pour les entreprises. L'animateur, accompagné de Sébastien Claeys, CEO d'iPaidThat, nous guide à travers les enjeux cruciaux de cette transition numérique. Sébastien partage son expertise sur la manière dont cette réforme va redéfinir le paysage comptable. Ensemble, ils abordent les défis liés à l'automatisation des processus, la nécessité d'adopter un système entièrement numérique, et les implications pour les experts-comptables qui doivent s'adapter à cette nouvelle norme. Au cœur de la discussion, Sébastien met en lumière comment iPaidThat permet de gagner du temps et de réduire les erreurs humaines, rendant la gestion des factures plus fluide et efficace. Mais ce n'est pas tout ! Cet épisode souligne également l'importance de la formation des utilisateurs finaux pour réussir cette transition. Sans une compréhension claire des nouvelles procédures, les entreprises risquent de rencontrer des obstacles majeurs. Les intervenants discutent des différents acteurs impliqués dans la mise en œuvre de la facturation électronique, des entreprises aux experts-comptables, et de la nécessité d'une collaboration étroite pour garantir une adoption réussie. Anticiper ces changements est essentiel pour être prêt le jour J. Cet épisode vous offre des insights précieux et des conseils pratiques pour naviguer dans cette nouvelle ère de la comptabilité. Merci de votre écoute

Best Friend Therapy
Joshua Fletcher: Self-optimisation culture, productivity anxiety and learning to fail better

Best Friend Therapy

Play Episode Listen Later Sep 15, 2025 44:57


Welcome back to Dial Emma! Each week, I'll be answering your dilemmas with honesty, empathy, and a few therapeutic truth bombs to help you make sense of life's stickiest moments. If you've ever wished you had a therapist in your back pocket, Dial Emma is here to help.This week, I'm joined by psychotherapist and author Joshua Fletcher, aka Anxiety Josh, to help a listener who is struggling with anxious feelings around self-optimisation - the pursuit of trying to be our 'best selves' (whatever that actually means). From 5am clubs to wellness trackers, we explore why trying to do everything right can leave us feeling wrong, and how embracing failure, feelings, and self-acceptance offers a far more authentic path to wellbeing.If you have a dilemma for Emma, please fill out this form. ---Dial Emma is hosted by Emma Reed Turrell, produced by Lauren Brook.---Social media:Emma Reed Turrell @emmareedturrellDial Emma @dialemmapodcastEmail: contact@dial-emma.uk

Marketing B2B
Comment optimiser le design de ton site web et tes landing page pour augmenter tes conversions - Dorian Colin - Lead UX designer chez Aircall et Fondateur de l'agence ooeo

Marketing B2B

Play Episode Listen Later Sep 5, 2025 20:53


Invité: Dorian Colin- Lead UX designer chez AircallDans cet épisode, nous avons Dorian Collin, Lead Brand Designer chez Aircall et cofondateur de l'agence digitale OEO, pour explorer le design au service des entreprises B2B, en particulier dans le secteur technologique. Dorian partage son expertise sur l'impact du design sur l'identité de marque et les conversions. Il souligne l'importance de l'analyse du comportement des utilisateurs pour informer la conception UX et UI, et discute des raisons clés pour une refonte de site web. Nous abordons également les meilleures pratiques pour les landing pages, notamment la correspondance avec les annonces publicitaires et l'influence des vidéos, tout en proposant des conseils pratiques pour optimiser l'expérience utilisateur à travers des outils analytiques. Cet échange offre des insights précieux sur l'optimisation du design dans le domaine B2B.Au menu de cette conversation entre Dorian et Mony :0:12 Introduction1:18 Insights Terrain et Conception UX/UI5:19 Importance des Landing Pages en Campagnes B2B8:05 Erreurs Fréquentes sur les Landing Pages10:34 Utilisation des Vidéos sur les Landing Pages12:42 Optimisation des Pages de Free Trial et Démo15:32 Étude de Cas d'Accompagnement Client17:46 Conseils pour Améliorer l'Expérience Utilisateur19:39 Analyse des Données avec HotjarRéférences :LinkedIn de Dorianhttps://www.linkedin.com/in/doriancolin/– ⚡ Connecte-toi à Mony⁠ ⁠⁠⁠⁠ici⁠⁠⁠⁠⁠.Je suis Mony Chhim et je suis freelance LinkedIn Ads pour entreprises B2B (45+ clients accélérés)

Art Eco Vert
Romain Vauquelin - Optimisation du procédé d'extraction du pigment indigo

Art Eco Vert

Play Episode Listen Later Aug 24, 2025 12:40 Transcription Available


Savez-vous que la majorité de l'indigo utilisé aujourd'hui est d'origine synthétique, entraînant des conséquences environnementales alarmantes ? Dans cet épisode d'ArtEcoVert, nous avons le plaisir d'accueillir Romain Vauquelin, un jeune chercheur passionné par la teinture végétale et les plantes tinctoriales, qui nous éclaire sur ses travaux de thèse novateurs. Romain, ingénieur agronome, se consacre à l'optimisation d'un procédé d'extraction de pigment indigo à partir de la plante Isatis tinctoria, une approche qui pourrait révolutionner le monde des colorants végétaux.Au fil de notre conversation, Romain partage avec nous les enjeux liés à la production d'indigo synthétique, notamment la pollution des eaux et les émissions de gaz à effet de serre. Il nous explique comment son approche d'extraction aqueuse permet de réduire l'impact environnemental tout en maximisant le rendement et la pureté des pigments extraits. En explorant les propriétés chimiques de l'indigo et de l'indirubine, il nous offre un aperçu fascinant des nuances et des possibilités qu'offrent les colorants biosourcés.Romain nous dévoile également les tests rigoureux qu'il a réalisés pour optimiser chaque étape du processus d'extraction, prouvant ainsi qu'il est possible de concilier innovation, durabilité et respect de l'environnement dans le domaine de la teinture. Cet épisode est une véritable ode à la couleur végétale, aux pigments végétaux et aux fibres naturelles, et nous invite à repenser notre rapport à la teinture et à l'agriculture tinctoriale.Ne manquez pas de suivre notre actualité sur la page Instagram d'ArtEcoVert pour découvrir les prochains invités qui partageront leur expertise et leurs expériences dans le monde fascinant des plantes tinctoriales. Votre soutien est précieux, alors n'hésitez pas à laisser vos commentaires et notes pour nous aider à faire grandir cette belle aventure dédiée à la couleur et à la nature.Nous espérons que vous apprécierez cet épisode autant que nous avons aimé le réaliser. Belle écoute !ArtEcoVert informe et inspire celles et ceux qui veulent repenser la couleur autrement, et les accompagne dans leur transition vers une couleur plus durable — avec des témoignages concrets le jeudi

Le Panier
#353 – Campsider  : 6M€ de volume d'affaires et l'obsession de la rentabilité : retour sur l'ascension d'une marketplace

Le Panier

Play Episode Listen Later Aug 22, 2025 74:42


Dans cet épisode, Laurent Kretz reçoit Thomas Gounot, cofondateur de Campsider pour explorer les coulisses de la première marketplace d'équipements de sport outdoor d'occasion. Ils reviennent sur l'apprentissage du modèle, la structuration autour de la supply et la bascule du C2C vers le B2C. Thomas aborde également les sujets de la croissance européenne et l'automatisation grâce à l'IA pour enrichir les fiches produits, le tout avec une seule obsession : la rentabilité.Chapitres00:00:00 – Introduction et genèse de Campsider00:07:00 – Le marché de la seconde main outdoor et les verticales clés00:14:00 – Passage du C2C au B2C : arbitrages et marges00:21:00 – Gestion et sélection de la supply, catalogue intelligent00:28:00 – Focus produit : IA, ranking, modération et conversion00:35:00 – Optimisation du stock, partenaires et data00:42:00 – Pricing dynamique, négociation et modules de vente00:49:00 – CRO, outils, assurance et accessoires00:56:00 – Internationalisation, ambitions et équilibre croissance/rentabilité01:03:00 – Conseils clés et perspectivesEt quelques dernières infos à vous partager :Suivez Le Panier sur Instagram lepanier.podcast !Inscrivez- vous à la newsletter sur lepanier.io pour cartonner en e-comm !Écoutez les épisodes sur Apple Podcasts, Spotify ou encore Podcast AddictLe Panier est un podcast produit par Cosa, du label Orso Media.Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

Les Cast Codeurs Podcast
LCC 329 - L'IA, ce super stagiaire qui nous fait travailler plus

Les Cast Codeurs Podcast

Play Episode Listen Later Aug 14, 2025 120:24


Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

time community ai power google uk internet guide france pr building spring data elon musk microsoft chatgpt attention mvp phase dans construction agent tests windows bay area patterns ces tout tea ia pas limitations faire openai gemini distribution extension runner nvidia passage rust blue sky api retour conf agile gpt python cela toujours sb nouveau ml unis linux java trois priorit guillaume github mieux activation int libert aur jest savoir num selon valid donner armin bom lam certains javascript exposition documentation apache llm opus mod donc nouvelles arnaud contr prise changement cpu gpu maven nouveaux parfois m1 travailler google cloud ast exp dns normandie certaines tester aff cinq construire vall grok counted sql principales verified lorsqu moser node cloudflare git loi utiliser pdg sujet anthropic sortie afin sig lancement fen deepmind accepter ssl gitlab axes spel optimisation enregistr mocha mongodb toutefois ci cd json modules mistral xai capacit configuration mcp paris france permet orta aot cli github copilot objet comportement repenser utilisation montrer capitole enregistrement prd fuite jit ecrire appels fixe favoriser sse firebase oauth commande crud jep oci vache bgp jetbrains swe bitwarden nuage github actions windsurf livrer propuls mistral ai faille xss a2a stagiaire optimis remplacement mocker websockets automatiser chris perry cvss devcon revues spring boot tom l personnalisation jdk lyon france podman vertex ai adk bordeaux france jfr profilage amazon bedrock diagramme script editor junit clis dockerfile javaone provence france testcontainers toulouse france strasbourg france github issues commonjs lille france micrometer codeurs sourcetree dijon france devoxx france
Radio Islam
Taxpayers Funded R779 Million in Security for State Properties — Minister Says Asset Optimisation Offers Relief

Radio Islam

Play Episode Listen Later Aug 14, 2025 4:51


Taxpayers Funded R779 Million in Security for State Properties — Minister Says Asset Optimisation Offers Relief by Radio Islam

Cryptoast - Bitcoin et Cryptomonnaies
Des robots vous volent quand vous faites des transactions crypto - avec Jonathan Passerat-Palmbach

Cryptoast - Bitcoin et Cryptomonnaies

Play Episode Listen Later Jul 27, 2025 50:44


Dans cet épisode explosif, on plonge dans les coulisses d'Ethereum avec Jonathan, chercheur chez Flashbots. On y décortique la MEV (Maximal Extractable Value), un mécanisme qui redistribue les cartes du pouvoir dans la DeFi... et pas forcément en ta faveur. Tu découvriras comment certains acteurs s'enrichissent en silence, les menaces de centralisation, et les solutions émergentes comme MEV-Boost, BuilderNet ou encore CoW Swap.Un épisode essentiel pour comprendre ce qui se joue vraiment derrière chaque transaction sur Ethereum.

Extraterrien
Cet expert nous donne 10 conseils pour protéger nos articulations - Christophe Carrio

Extraterrien

Play Episode Listen Later Jul 18, 2025 39:40


Clare FM - Podcasts
Core Optimisation Acquires International PR Agency To Fuel North American & MENA Expansion

Clare FM - Podcasts

Play Episode Listen Later Jul 2, 2025 9:57


One of Ireland's fastest-growing digital marketing agencies, Core Optimisation, has announced the acquisition of international PR agency, ClearStory. The acquisition forms part of a broader €500,000 investment in expanding the Shannon-based digital marketing firm's operations to North America and the United Arab Emirates. For more on this Alan Morrissey was joined by Caroline Dunlea, Co-founder of Core Optimisation. PHOTO CREDIT: Core Optimisation

Irish Tech News Audio Articles
Core Optimisation Acquires International PR Agency ClearStory to fuel North American & MENA Expansion

Irish Tech News Audio Articles

Play Episode Listen Later Jul 1, 2025 4:23


One of Ireland's fastest-growing digital marketing agencies, Core Optimisation, has announced the acquisition of international PR agency, ClearStory. The acquisition forms part of a broader €500,000 investment in expanding its operations to North America and the United Arab Emirates. Founded in 2015 by Caroline Dunlea and David Brett, Core Optimisation has developed a significant foothold in strategic digital consultancy over the past number of years. The company began its international expansion with the UK market and is now positioning itself to expand into North America and MENA markets. Core has an extensive client book across multiple sectors including global brands such as Waterwipes, Tirlan Country Life, Kirby Group and Aryzta. The acquisition of ClearStory International will accelerate this growth by integrating ClearStory's tech, finance, defence and hospitality focused PR client base and expanding Core's capabilities as a truly integrated digital marketing and PR consultancy agency. ClearStory International was founded by James McCann in 2017 as an international PR agency specialising in reputation building for emerging and scaling brands. The agency has since expanded its client base across North America, Europe and MENA to include major players across the tech, finance and defence sectors including; Techstars, the Asian Development Bank, Dynasafe, CoinDesk, and Riskline. Core Optimisation currently provides digital marketing services including SEO, PPC, paid social, data analytics and digital strategic consultancy. With more than 70 clients spanning a wide range of industries, Core Optimisation boasts a team of 60 professionals across Ireland and the UK. The planned €500,000 investment will be used to establish a permanent presence in key emerging markets and support the integration of digital PR into its 360° marketing solutions. Speaking about the acquisition, Co-founder of Core Optimisation, Caroline Dunlea, commented: "We are delighted to acquire ClearStory International as we focus on international markets. This acquisition strengthens our global capabilities and enhances our ability to offer a fully integrated digital marketing and PR service to our growing client base. As we are in the AI era, brands need cohesive, data-led narratives across every channel and our clients are increasingly seeking partners who can anticipate and respond to their evolving needs. "By combining ClearStory's strategic communications expertise with our digital performance capabilities, we're positioning ourselves closer to our clients' strategic objectives by delivering integrated, insight-driven campaigns that drive meaningful growth and truly move the needle. This full-service offering allows us to be more responsive to the future demands of the marketplace and creates even more value through deeper client relationships." Commenting on the acquisition, CEO of ClearStory International, James McCann, said: "Over the past eight years, we've had the privilege of working with more than 200 clients across 25 countries, helping them navigate some of the world's most complex media markets. We're now excited to bring our deep expertise in international storytelling and reputation building to Core Optimisation, as we pursue a shared ambition to build a world-renowned, Irish-owned agency." See more stories here. More about Irish Tech News Irish Tech News are Ireland's No. 1 Online Tech Publication and often Ireland's No.1 Tech Podcast too. You can find hundreds of fantastic previous episodes and subscribe using whatever platform you like via our Anchor.fm page here: https://anchor.fm/irish-tech-news If you'd like to be featured in an upcoming Podcast email us at Simon@IrishTechNews.ie now to discuss. Irish Tech News have a range of services available to help promote your business. Why not drop us a line at Info@IrishTechNews.ie now to find out more about how we can help you reach our audience. You can also find and follow us on Twitter, ...

Keep Optimising
Google Ads: Advanced Tips for Precision Conversion Tracking and Optimisation with Michael Cole, Everflow

Keep Optimising

Play Episode Listen Later Jun 25, 2025 38:35 Transcription Available


Precision tracking and reporting in Google Ads is key to effectively optimising your campaigns and driving meaningful sales. In today's episode, we dive into how understanding different buyer personas can significantly enhance your advertising strategy. We break down the importance of providing accurate attribution data to the Google Ads platform, which allows it to optimise for high-value customers rather than just any lead. Our guest, Michael Cole, shares insights from his experience at Everflow, where they successfully implemented these strategies to see a remarkable increase in quality leads.Precision tracking and reporting in Google Ads is crucial for driving sales and maximizing ROI. Michael emphasizes that merely relying on Google's native tracking can lead marketers astray, as the platform often attributes conversions based on a variety of factors that may not reflect the actual effectiveness of an ad. He suggests that using a third-party tool allows marketers to capture more accurate attribution data, enabling them to focus on high-value customers and optimise their ads accordingly. By sharing specific buyer behaviors and conversion metrics back to Google, advertisers can steer the algorithm towards what truly matters: identifying and targeting users who are likely to return for repeat purchases, thereby nurturing long-term customer relationships.We also explore the differing types of buyers and how understanding their behaviors can inform ad strategies. Michael shares insights from his own experience, showing how their approach led to a significant increase in quality leads, even in the competitive landscape of SaaS marketing. He outlines the need for businesses to adapt their tracking methods to capture not just immediate purchases but also long-term customer engagement, which can drastically change the effectiveness of ad campaigns.As we wrap up, Michael provides valuable insider tips on maximising Google Ads performance, encouraging listeners to prioritize understanding their customer data and refining their attribution models. Ultimately, the episode serves as a guide for marketers looking to refine their Google Ads strategies by focusing on precision tracking and effective reporting, ensuring that they can make informed decisions that lead to sustained growth and profitability.Takeaways:Understanding different buyer types is crucial for effective Google Ads marketing strategies. Utilizing third-party tools can significantly enhance the precision of your Google Ads tracking. It's essential to provide accurate conversion data back to Google Ads for optimal ad performance. Ad platforms often have different incentives than advertisers, making independent data crucial for success. Treat your customers differently based on their buying behavior to foster long-term relationships. Optimising Google Ads is a continuous process that requires regular adjustments and data analysis.Episode sponsored by Everflow. To find out how Everflow can help your brand, visit everflow.io .Find the notes here: https://keepopt.com/262Download our ebook >> https://keepopt.com/ebook "500 Top Tips to Make Your eCommerce Business More Profitable" ****Get all the links and resources we mention & join our email list at https://keepopt.comLove the show? Chloe would love your feedback - leave a review here: https://keepopt.com/review or reply to the episode Q&A on Spotify.Interested in being a Sponsor? go here:

The Aubrey Masango Show
Entrepreneurship Feature: Cost Optimisation – Part 2

The Aubrey Masango Show

Play Episode Listen Later Jun 24, 2025 37:19


Aubrey converses with Andisa Ramavhunga, Group Chief Advisor at Ntiyiso Consulting Group, about cost optimisation and how it can be used/considered or implemented successfully in a business. The Aubrey Masango Show is presented by late night radio broadcaster Aubrey Masango. Aubrey hosts in-depth interviews on controversial political issues and chats to experts offering life advice and guidance in areas of psychology, personal finance and more. All Aubrey’s interviews are podcasted for you to catch-up and listen. Thank you for listening to this podcast from The Aubrey Masango Show. Listen live on weekdays between 20:00 and 24:00 (SA Time) to The Aubrey Masango Show broadcast on 702 https://buff.ly/gk3y0Kj and on CapeTalk between 20:00 and 21:00 (SA Time) https://buff.ly/NnFM3Nk Find out more about the show here https://buff.ly/lzyKCv0 and get all the catch-up podcasts https://buff.ly/rT6znsn Subscribe to the 702 and CapeTalk Daily and Weekly Newsletters https://buff.ly/v5mfet Follow us on social media: 702 on Facebook: https://www.facebook.com/TalkRadio702 702 on TikTok: https://www.tiktok.com/@talkradio702 702 on Instagram: https://www.instagram.com/talkradio702/ 702 on X: https://x.com/Radio702 702 on YouTube: https://www.youtube.com/@radio702 CapeTalk on Facebook: https://www.facebook.com/CapeTalk CapeTalk on TikTok: https://www.tiktok.com/@capetalk CapeTalk on Instagram: https://www.instagram.com/ CapeTalk on X: https://x.com/CapeTalk CapeTalk on YouTube: https://www.youtube.com/@CapeTalk567See omnystudio.com/listener for privacy information.

Exposure Ninja Digital Marketing Podcast | SEO, eCommerce, Digital PR, PPC, Web design and CRO

It's not just Google's game anymore. ChatGPT, Perplexity, and Claude are becoming the first or only destination for consumers today.This consumer behavioral shift requires a marketing strategy switch, with SEO alone not being enough anymore.Your marketing strategy must include AI Search Optimisation.But what is it? And how does it differ to traditional Search Engine Optimisation?In this episode, I reveal:• The hidden mechanics behind how AI tools select which brands to recommend (including how they parse queries and build their unique search indexes)• The three-pillar framework that's driving 100-300% increases in AI mentions within three months — including why traditional SEO remains crucial as your foundation• Why AI tools "overwhelmingly reference list articles from high-authority websites" and how to leverage this preference across your own content, third-party publications, and user-generated platforms• The exact content formats that AI tools favour (and why generic, AI-generated content gets ignored)• How to systematically build brand authority through strategic mentions and sentiment management across the digital ecosystemI'll share real-world success stories, including how we helped Zugu Case achieve "total domination" in ChatGPT results by securing strategic placements on high-authority sites and fostering positive sentiment across multiple content types.As I explain in the podcast:"This is a massive land grab opportunity. The same number of products and services are going to be bought in the new world as they were in the old world. So the question really is, when somebody's searching, when they're doing their research using ChatGPT, using Claude, using Perplexity, are they being recommended your business products and services, or are they being recommended your competitors?"If you're ready to implement these strategies while your competitors remain fixated solely on traditional SEO, this episode provides your complete action plan for dominating this powerful new search landscape.Get the show notes:https://exposureninja.com/podcast/358/Listen to these episodes next:How To Rank in Google's AI Modehttps://exposureninja.com/podcast/357/How To Rank in ChatGPT (with Client Examples)https://exposureninja.com/podcast/348/How ChatGPT Shopping Works (and How to Feature in It)https://exposureninja.com/podcast/354/

Keep Optimising
Google Ads: The 5 Dos and 5 Don'ts of PMax Optimisation with Becky Hopkin and Jonny Hyams

Keep Optimising

Play Episode Listen Later Jun 4, 2025 35:13 Transcription Available


If you're looking to up your game with Google Ads, you're in the right place. We're diving deep into the world of Performance Max, or PMAX, and sharing the five essential dos and five key don'ts for optimising your campaigns. Understanding what you aim to achieve with your campaign is crucial before you even set your bid strategy. With insights from Google Ads experts Becky Hopkin and Johnny Hyams, we'll equip you with practical tips to fill your optimisation to-do list for months to come.The 5 Dos of PMax OptimisationUnderstand channel performance: PMax campaigns run across various Google channels, so it's important to analyze performance on each to optimise effectively. Use scripts to get data on channel performance and understand where your budget is going.Test feed-only PMax: To prioritize shopping and limit placements, create PMax campaigns using only a product feed and no other assets. This gives you more control and focuses spend on shopping, which often performs best for eCommerce.Use high-quality assets: If you include images, videos, headlines, and descriptions, ensure they are high quality and relevant. All creatives should work well together, and asset groups should be used to maintain coherence.Use negative keywords: Add negative keywords to your PMax campaigns to refine targeting and prevent irrelevant traffic. Google now allows adding negative keywords at the campaign level, which gives you greater control.Align bid strategy with objectives: Choose the right bid strategy and set appropriate targets to achieve your campaign goals.The 5 Don'ts of PMax OptimisationOnly use PMax campaigns: Don't rely solely on PMax; continue to use other campaign types like search, remarketing, and display for better control and targeting.Bid on your brand name in PMax: Exclude your brand name from PMax campaigns to avoid paying higher costs per click, and use separate search campaigns for brand terms.Let campaigns be limited by budget: If possible, avoid budget limitations, and adjust targets or increase budgets to maximize potential.Overly segment campaigns: Avoid excessive segmentation, as PMax needs sufficient conversions to optimise effectively.Leave final URL expansion on: Turn off the final URL expansion setting to control which pages users land on and prevent traffic from going to irrelevant pages.Find the notes here: https://keepopt.com/259Download our ebook >> https://keepopt.com/ebook "500 Top Tips to Make Your eCommerce Business More Profitable" ****Get all the links and resources we mention & join our email list at https://keepopt.comLove the show? Chloe would love your feedback - leave a review here: https://keepopt.com/review or reply to the episode Q&A on Spotify.Interested in being a Sponsor? go here: https://keepopt.com/sponsor

Transmission
Rethinking Route-to-Market in the Age of Optimisation with Rimshah Javed (Principal Originator @ Danske Commodities)

Transmission

Play Episode Listen Later May 29, 2025 45:40


As Europe's energy markets become more volatile and complex, the role of trading and optimisation is evolving fast. Real-time weather data, cross-border constraints, and fluctuating renewable output have made flexibility more valuable than ever, but also harder to manage. In this new environment, the line between asset optimisation and active trading is blurring, and originators are increasingly expected to deliver not just access to market, but strategy, risk management, and scale.In this episode of Transmission, we explore how the worlds of origination, power trading, and asset management are converging. From route-to-market agreements and co-located batteries to the rise of algorithmic trading platforms and 24/7 market operations, this conversation offers a window into the growing sophistication of Europe's energy traders and what it takes to stay ahead in a data-driven, weather-dependent system.In this episode, we cover:What energy origination really looks like today: How the role has shifted from pure offtake to strategic optimisation and deep market involvement.The growing complexity of trading: Why algorithmic strategies, intraday market moves, and volatility are changing the way energy companies operate.Battery storage and co-location models: How different asset types are managed across multiple markets, and how to adapt trading strategies.Scaling up software and teams: From startup environments to major trading desks.What makes a good offtake partner in 2025: Why trust, systems integration, and risk-sharing now matter more than ever.About our guestRimshah Javed is part of the origination team at Danske Commodities, one of Europe's largest energy trading houses. With a background in software, route-to-market strategy, and storage commercialisation, Rimshah brings experience from both startup and institutional energy environments. Before joining Danske Commodities, she helped build and scale optimisation offerings for standalone and co-located battery assets, giving her a unique perspective on how flexibility is monetised in today's dynamic energy markets.Danske Commodities is a leading European energy trading company, active in power and gas markets across more than 40 countries. Founded in Denmark, the company specialises in short-term trading, asset optimisation, and balancing services, helping integrate renewables and manage market volatility across the energy system. For more information on What they do, head to the website. https://danskecommodities.com/About Modo EnergyModo Energy helps the owners, operators, builders, and financiers of battery energy storage solutions understand the market - and make the most out of their assets.All of our podcasts are available to watch or listen to on the Modo Energy site. To keep up with all of our latest updates, research, analysis, videos, podcasts, data visualizations, live events, and more, follow us on LinkedIn or Twitter. Check out The Energy Academy, our bite-sized video series breaking down how power markets work. https://modoenergy.com/

Transmission
Rethinking Route-to-Market in the Age of Optimisation with Rimshah Javed (Principal Originator @ Danske Commodities)

Transmission

Play Episode Listen Later May 29, 2025 45:40


As Europe's energy markets become more volatile and complex, the role of trading and optimisation is evolving fast. Real-time weather data, cross-border constraints, and fluctuating renewable output have made flexibility more valuable than ever, but also harder to manage. In this new environment, the line between asset optimisation and active trading is blurring, and originators are increasingly expected to deliver not just access to market, but strategy, risk management, and scale.In this episode of Transmission, we explore how the worlds of origination, power trading, and asset management are converging. From route-to-market agreements and co-located batteries to the rise of algorithmic trading platforms and 24/7 market operations, this conversation offers a window into the growing sophistication of Europe's energy traders and what it takes to stay ahead in a data-driven, weather-dependent system.In this episode, we cover:What energy origination really looks like today: How the role has shifted from pure offtake to strategic optimisation and deep market involvement.The growing complexity of trading: Why algorithmic strategies, intraday market moves, and volatility are changing the way energy companies operate.Battery storage and co-location models: How different asset types are managed across multiple markets, and how to adapt trading strategies.Scaling up software and teams: From startup environments to major trading desks.What makes a good offtake partner in 2025: Why trust, systems integration, and risk-sharing now matter more than ever.About our guestRimshah Javed is part of the origination team at Danske Commodities, one of Europe's largest energy trading houses. With a background in software, route-to-market strategy, and storage commercialisation, Rimshah brings experience from both startup and institutional energy environments. Before joining Danske Commodities, she helped build and scale optimisation offerings for standalone and co-located battery assets, giving her a unique perspective on how flexibility is monetised in today's dynamic energy markets.Danske Commodities is a leading European energy trading company, active in power and gas markets across more than 40 countries. Founded in Denmark, the company specialises in short-term trading, asset optimisation, and balancing services, helping integrate renewables and manage market volatility across the energy system. For more information on What they do, head to the website.

Boost Your Biology with Lucas Aoun
320. Dave Asprey & Lucas Aoun Discuss Longevity, Health Optimisation & Biohacking

Boost Your Biology with Lucas Aoun

Play Episode Listen Later May 28, 2025 63:11


In this engaging conversation, Lucas Aoun interviews biohacking pioneer Dave Asprey, exploring the core drivers of accelerated aging, the impact of societal stressors, and the dangers of microplastics and mold. Asprey shares insights on detoxification strategies, essential foods for optimal health, and the importance of continuous glucose monitoring. The discussion also delves into leaky gut and its connection to autoimmune diseases, providing listeners with actionable takeaways for improving their health and longevity. In this conversation, Dave and Lucas delve into various aspects of health, focusing on gut health, the role of pharmaceuticals, liver health, and the impact of AI on healthcare. They explore the importance of understanding parasites, the benefits of certain medications, and the significance of liver detoxification. The discussion also touches on the concept of mitochondrial consciousness and personal development, emphasizing how fear and legacy influence human behavior and health. Dave shares insights from his experiences and research, advocating for a holistic approach to health and wellness.Relevant Links:Dave Asprey's New Book:https://daveasprey.com/heavily-meditated/Dave Asprey Biohacking Conference:https://biohackingconference.com/2025The Business Of Biohacking Summit:https://daveasprey.com/business-of-biohacking/Follow Dave Asprey On Instagram:https://www.instagram.com/dave.asprey/?hl=enCheck Out My Website For Coaching, Recommended Products and Much More:https://www.boostyourbiology.com/ Disclaimer:The information provided in this podcast episode is for entertainment purposes and is NOT MEDICAL ADVICE. If you have any questions about your health, contact a medical professional. This content is strictly the opinions of Lucas Aoun and is for informational and entertainment purposes only. It is not intended to provide medical advice or to take the place of medical advice or treatment from a personal physician. All viewers of this content are advised to consult with their doctors or qualified health professionals regarding specific health questions. Neither Lucas Aoun nor the publisher of this content takes responsibility for possible health consequences of any person or persons reading or following the information in this content. All consumers of this content especially taking prescription or over-the-counter medications should consult their physician before beginning any nutritional, supplement or lifestyle program.Chapters00:00 Introduction to Biohacking and Aging02:39 The Impact of Societal Stressors on Aging04:50 Microplastics and Detoxification Strategies07:36 Understanding Mold and Its Health Implications12:42 The Dangers of Mold Toxins18:32 Essential Foods for Optimal Health20:06 Insights from Continuous Glucose Monitoring26:17 Leaky Gut and Autoimmune Diseases29:01 Understanding Parasites and Gut Health32:35 The Role of Pharmaceuticals in Gut Healing36:30 Exploring Liver Health and Detoxification39:23 AI's Impact on Healthcare and Biohacking41:44 Mitochondrial Consciousness and Personal Development47:27 Legacy, Fear, and the Human Experience Hosted on Acast. See acast.com/privacy for more information.

BSD Now
612: Zip Bomb Protection

BSD Now

Play Episode Listen Later May 22, 2025 37:33


I use Zip Bombs to Protect my Server, Owning the Stack: Infrastructure Independence with FreeBSD and ZFS, Optimisation of parallel TCP input, Chosing between "it works for now" and "it works in the long term", Losing one of my evenings after an OpenBSD upgrade, What drive did I just remove from the system?, and more NOTES This episode of BSDNow is brought to you by Tarsnap (https://www.tarsnap.com/bsdnow) and the BSDNow Patreon (https://www.patreon.com/bsdnow) Headlines I use Zip Bombs to Protect my Server (https://idiallo.com/blog/zipbomb-protection) Owning the Stack: Infrastructure Independence with FreeBSD and ZFS (https://klarasystems.com/articles/owning-the-stack-infrastructure-independence-with-freebsd-zfs/?utm_source=BSD%20Now&utm_medium=Podcast) News Roundup Optimisation of parallel TCP input (https://www.undeadly.org/cgi?action=article;sid=20250508122430) Chosing between "it works for now" and "it works in the long term" (https://utcc.utoronto.ca/~cks/space/blog/sysadmin/WorksNowVsWorksGenerally) Losing one of my evenings after an OpenBSD upgrade (https://www.ncartron.org/losing-one-of-my-evenings-after-an-openbsd-upgrade.html) What drive did I just remove from the system? (https://dan.langille.org/2025/04/21/what-drive-did-i-just-remove-from-the-system/) Tarsnap This weeks episode of BSDNow was sponsored by our friends at Tarsnap, the only secure online backup you can trust your data to. Even paranoids need backups. Feedback/Questions Benjamin - Street PCs (https://github.com/BSDNow/bsdnow.tv/blob/master/episodes/613/feedback/Benjamin%20-%20street%20pcs.md) Send questions, comments, show ideas/topics, or stories you want mentioned on the show to feedback@bsdnow.tv (mailto:feedback@bsdnow.tv) Join us and other BSD Fans in our BSD Now Telegram channel (https://t.me/bsdnow)

The Interchange
It's uncertain times in solar and storage. How can we use smarter grid optimisation to give developers some assurance? | Recorded live at SESS 2025

The Interchange

Play Episode Listen Later Apr 24, 2025 28:27


Over the past couple of years unprecedented low prices for solar panels have spurred incredible growth. But there's a big shift underway. In this special episode of the show, recorded live from the stage at Wood Mackenzie's Solar & Energy Storage Summit 2025, host Sylvia Leyva Martinez, Principal Analyst at Wood Mackenzie, sits down with Ben Sigrin, Senior Product Manager at GridBeyond, to make sense of the turbulent market. With nearly 44 gigawatts of new solar expected this year, developers are under pressure to make faster, smarter decisions. GridBeyond helps solar and storage players optimise in real time, turning market volatility into opportunity. How do they do it? Are there other ways for off takers to get some certainty? Smart site selection is one of them, but what informs those decisions? Plus, hear the lessons from global solar markets that developers are bringing to the US. See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.