POPULARITY
Categories
In this episode of the PowerShell Podcast, we're live from TechMentor at the Microsoft campus with two incredible guests: longtime advocate, educator, and PM on the PowerShell team at Microsoft - Jason Helmick and newcomer Troy Brown. This special episode captures the heart of community, innovation, and the transformative power of PowerShell—from seasoned insight to beginner breakthroughs. Jason drops serious knowledge on two game-changing technologies: AI Shell: Think ChatGPT, but built directly into your terminal. Learn how it enhances shell UX, assists with command building, explains parameters, and keeps you focused without switching contexts. DSC v3 (Desired State Configuration): Now fully cross-platform and decoupled from PowerShell, DSC v3 is lighter, more extensible, and suitable for everything from servers to IoT. Jason walks us through the evolution, real-world use cases (like flipping Windows from dark mode to light mode!), and what's next for the configuration platform. Highlights: Microsoft's hidden campus lore, including a piece of the Berlin Wall! The evolution of PowerShell ReadLine and its impact on productivity AI Shell's support for OpenAI, Azure Copilot, ollama, Gemini, and even custom agents Exporting configs from existing machines—a long-awaited DSC feature Why DSC v3 might be the most developer- and sysadmin-friendly release yet The cultural backbone of the PowerShell team: being “scrappy” and driven by customer success Troy Brown's First TechMentor Experience First-time conference-goer Troy Brown shares his experience diving into PowerShell: How a PowerShell workshop with Sean Wheeler, Steven Judd, and Jason Helmick helped him finally understand modules The journey from using PDQ to push basic PowerShell scripts to deeper automation potential Navigating the learning curve with community support His message to fellow newcomers: “Don't take things personally, and embrace the journey.” Resource Links: DSC v3 on GitHub Leanpub DSC v3 Book by Gijs https://leanpub.com/thedscv3handbook The Phoenix Project (book) (a must-read for IT pros) https://www.amazon.com/Phoenix-Project-DevOps-Helping-Business/dp/0988262592 https://discord.gg/pdq The PowerShell Podcast on YouTube: https://youtu.be/_f5oYxzkinI The PowerShell Podcast Hub: https://pdq.com/the-powershell-podcast
We speak with Ethical Hacker Juan Francisco 'Fran' Bolivar and Sajeeb Lohani, Global TISO for Bugcrowd. Fran successfully claimed 90 bounties as a result of a ServiceNow configuration compromise, with bounties ranging between $100K and $3K.Fran provides insight into his methodologies, learning outcomes and the challenges of being an ethical hacker.For more information and to access more, including the Bugcrowd Report series - visit https://mysecuritymarketplace.com/bugcrowd-register-to-access/#bugcrowd #cisoseries #mysecuritytv #cybersecurity #ITMOAH #ethicalhackers
The download mentioned: Chemistrymadesimple.net/2In this episode we consider how quantum mechanics effects the atomic model and more:There's more to electron shellsSubshells and orbitals3D shape of orbitalsOrbitals, bond angles and shape of moleculesThe reason the periodic table gets broader down the table Find out how I can help you throughout your chemistry A-Level here.--------------------------------------------------------------------------------------------Want to know more, or support the show? Become a Patreon supporter of the podcast and get more from each episode patreon.com/chemistrymadesimpleFind out more about the programme mentioned in the episode Chemistry Made Simple academyContact me:Instagram @chemistrymadesimpleEmail Matthew@ChemistryMadeSimple.netJoin the discussion at the Chemistry Made Simple podcast community.
Feeling overwhelmed by cloud operations? This session dives into Domain 5 of the CCSP exam—Cloud Operations & Security Management, equipping you with the skills to manage, monitor, and secure cloud environments effectively.
For most of us, workplace engagement isn't a solo sport—it's a team one. The ADP (yes, the payroll people) Research Institute's study across 19 countries found that most of us, regardless of company size, are immersed in team life. In companies of 150 or more employees, 82% of employees work on teams, and nearly 3/4ths juggle more than one team. Even if your employer has fewer than 20 people, 2/3rds of us are teaming up on one, two or even three teams. This matters: team membership doubles our odds of scoring high on Gallup's engagement metrics, with this research concluding that the sweet spot belonging is being on five distinct teams. It is not just the number of teams, but whether we trust the team leader that can make us 12 times more likely to be fully engaged. Let's go back to the holy grail of Google's Project Aristotle, which took team-obsession to a new level. Google spent twp years studying 180 teams to crack the high-performing team code. They discovered that talent and resources aren't the magic ingredients—they're just the gravy. The meat and potatoes or tofu and rice for the team? Psychological safety—the freedom to speak up, take risks, and make mistakes without fear of public humiliation. It turns out, when people feel safe to contribute, they get bold, creative, and collaborative. Leaders create psychological safety with dependability, structure and clarity, meaning, and impact. McKinsey's research builds on this, showing that effective teams come in different “archetypes.” A cycling team is like a NASCAR pit crew—specialized, coordinated, but with independent metrics. Agile software teams are more like relay squads—high interdependence and shared outcomes, where dropped balls ripple through the race. Surgical teams? Think rowing crew—total synchronicity, clearly defined roles, and an unshakable sense of belonging. To truly hum, teams need to tend to their “health drivers,” grouped into four areas. Configuration means having the right roles and perspectives. Alignment is clarity on purpose and shared commitment. Execution covers collaboration, communication, decision making, and feedback. Renewal—the often-overlooked one—ensures long-term sustainability through belonging, psychological safety, recognition, and trust. Not every team needs to nail all of the team health drivers - of the 17 identified health drivers even top performing teams are only “very good” at about 11, which is like a C-! Four health drivers stand out as the performance heavyweights: trust, communication, innovative thinking, and decision making. Much of this is what we know - what is surprising is that just getting some of the elements that create healthy and effective teams right is a game-changer in the workplace.
Event Recap: Kieran Human at Black Hat USA 2025 — ThreatLocker Unveils Configuration Defense, Achieves FedRAMP Status & MoreThreatLocker introduced DAC configuration monitoring and achieved FedRAMP certification at Black Hat 2025, strengthening zero trust capabilities while expanding government market access through practical security solutions.Zero trust security continues evolving beyond theoretical frameworks into practical business solutions, as demonstrated by ThreatLocker's latest announcements at Black Hat USA 2025. The company introduced Defense Against Configuration (DAC), a monitoring tool addressing a critical gap in zero trust implementations.Kieran Human, Special Projects Engineer at ThreatLocker, explained the challenge driving DAC's development. Organizations implementing zero trust often struggle with configuration management, potentially leaving systems vulnerable despite security investments. DAC monitors configurations continuously, alerting administrators to potential security issues and mapping findings to compliance frameworks including Essential 8.The tool addresses human factors in security implementation. Technical staff sometimes create overly permissive rules to minimize user complaints, compromising security posture. DAC provides weekly reports to executives, ensuring oversight of configuration decisions and maintaining security standards across the organization.ThreatLocker's approach distinguishes itself through "denied by default, allowed by exception" methodology, contrasting with traditional endpoint detection and response solutions that permit by default and block threats reactively. This fundamental difference requires careful implementation to avoid business disruption.The company's learning mode capabilities address deployment concerns. With over 10,000 built-in application profiles, ThreatLocker automates policy creation while learning organizational workflows. This reduces manual configuration requirements that previously made zero trust implementations tedious and time-intensive.FedRAMP certification represents another significant milestone, opening government sector opportunities. Federal compliance requirements previously excluded ThreatLocker from certain contracts, despite strong customer demand for their zero trust capabilities. This certification enables expansion into highly regulated environments requiring stringent security controls.Customer testimonials continue validating the approach. One user reported preventing three breaches after implementing ThreatLocker's zero trust solution, demonstrating measurable security improvements. Such feedback reinforces the practical value of properly implemented zero trust architecture.The balance between security and business functionality remains crucial. Organizations need security solutions that protect assets without hampering productivity. ThreatLocker's principle of least privilege implementation focuses on enabling business requirements with minimal necessary permissions rather than creating restrictive environments that impede operations.Human described working closely with CEO Danny Jenkins, emphasizing the collaborative environment that drives product innovation. His engineering perspective provides valuable insights into customer needs while maintaining focus on practical security solutions that work in real-world environments.As zero trust adoption accelerates across industries, tools like DAC become essential for maintaining security posture while meeting business demands. The combination of automated learning, configuration monitoring, and compliance mapping addresses practical implementation challenges facing security teams today.Learn more about ThreatLocker: https://itspm.ag/threatlocker-r974Note: This story contains promotional content. Learn more.Guest: Kieran Human, Special Project Engineer at ThreatLocker | On LinkedIn | https://www.linkedin.com/in/kieran-human-5495ab170/ResourcesLearn more and catch more stories from ThreatLocker: https://www.itspmagazine.com/directory/threatlockerLearn more and catch more stories from our Black Hat USA 2025 coverage: https://www.itspmagazine.com/bhusa25Learn more about ITSPmagazine Brand Story Podcasts: https://www.itspmagazine.com/purchase-programsNewsletter Archive: https://www.linkedin.com/newsletters/tune-into-the-latest-podcasts-7109347022809309184/Business Newsletter Signup: https://www.itspmagazine.com/itspmagazine-business-updates-sign-upAre you interested in telling your story?https://www.itspmagazine.com/telling-your-story
When we looked at outages from the first half of 2025, we saw distinct patterns in how distributed systems failed. Consistent with our ongoing outage analysis, our data revealed a rise in subtle functional failures and service degradations where symptoms often seem disconnected from their root causes. Tune in to hear more about our findings from 2025 outages so far, or use the chapters below to jump to the sections that most interest you. CHAPTERS: 00:00 Intro 00:46 The Impact of Agile Development 04:40 Hidden Functional Failures 08:04 Outages With Cascading Effects 11:52 Configuration-related Outages 12:39 Backend Issues 16:55 By the Numbers: 2025 Outage Trends 18:11 Get in Touch ——— For additional insights, check out the links below: - The Internet Report's latest blog post: https://www.thousandeyes.com/blog/internet-report-outage-patterns-in-2025?utm_source=soundcloud&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast - The Guide to Next-generation Assurance: https://www.thousandeyes.com/resources/guide-to-next-generation-assurance-ebook?utm_source=soundcloud&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast - Internet Outage Map: https://www.thousandeyes.com/outages?utm_source=youtube&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast - Internet Outages Timeline: https://www.thousandeyes.com/resources/internet-outages-timeline?utm_source=youtube&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast - Internet Outage Survival Kit: https://www.thousandeyes.com/resources/the-internet-outage-survival-kit?utm_source=youtube&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast ——— Want to get in touch? If you have questions, feedback, or guests you would like to see featured on the show, send us a note at InternetReport@thousandeyes.com. Or follow us on LinkedIn or X. ——— ABOUT THE INTERNET REPORT This is The Internet Report, a podcast uncovering what's working and what's breaking on the Internet—and why. Tune in to hear ThousandEyes' Internet experts dig into some of the most interesting outage events from the past couple weeks, discussing what went awry—was it the Internet, or an application issue? Plus, learn about the latest trends in ISP outages, cloud network outages, collaboration network outages, and more. Catch all the episodes on YouTube or your favorite podcast platform: - Apple Podcasts: https://podcasts.apple.com/us/podcast/the-internet-report/id1506984526 - Spotify: https://open.spotify.com/show/5ADFvqAtgsbYwk4JiZFqHQ?si=00e9c4b53aff4d08&nd=1&dlsi=eab65c9ea39d4773 - SoundCloud: https://soundcloud.com/ciscopodcastnetwork/sets/the-internet-report
When we looked at outages from the first half of 2025, we saw distinct patterns in how distributed systems failed. Consistent with our ongoing outage analysis, our data revealed a rise in subtle functional failures and service degradations where symptoms often seem disconnected from their root causes.Tune in to hear more about our findings from 2025 outages so far, or use the chapters below to jump to the sections that most interest you.CHAPTERS00:00 Intro00:46 The Impact of Agile Development04:40 Hidden Functional Failures08:04 Outages With Cascading Effects11:52 Configuration-related Outages12:39 Backend Issues16:55 By the Numbers: 2025 Outage Trends18:11 Get in Touch———For additional insights, check out the links below:- The Internet Report's latest blog post: https://www.thousandeyes.com/blog/internet-report-outage-patterns-in-2025?utm_source=wistia&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast- The Guide to Next-generation Assurance: https://www.thousandeyes.com/resources/guide-to-next-generation-assurance-ebook?utm_source=wistia&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast- Internet Outage Map: https://www.thousandeyes.com/outages?utm_source=wistia&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast- Internet Outages Timeline: https://www.thousandeyes.com/resources/internet-outages-timeline?utm_source=wistia&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast- Internet Outage Survival Kit: https://www.thousandeyes.com/resources/the-internet-outage-survival-kit?utm_source=wistia&utm_medium=referral&utm_campaign=fy26q1_internetreport_q1fy26ep2_podcast———Want to get in touch?If you have questions, feedback, or guests you would like to see featured on the show, send us a note at InternetReport@thousandeyes.com. Or follow us on LinkedIn and X at @thousandeyes.———ABOUT THE INTERNET REPORTThis is The Internet Report, a podcast uncovering what's working and what's breaking on the Internet—and why. Tune in to hear ThousandEyes' Internet experts dig into some of the most interesting outage events from the past couple weeks, discussing what went awry—was it the Internet, or an application issue?Plus, learn about the latest trends in ISP outages, cloud network outages, collaboration network outages, and more.Catch all the episodes on YouTube or your favorite podcast platform:- Apple Podcasts: https://podcasts.apple.com/us/podcast/the-internet-report/id1506984526- Spotify: https://open.spotify.com/show/5ADFvqAtgsbYwk4JiZFqHQ?si=00e9c4b53aff4d08&nd=1&dlsi=eab65c9ea39d4773- SoundCloud: https://soundcloud.com/ciscopodcastnetwork/sets/the-internet-report
Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
At Black Hat USA 2025, Danny Jenkins, CEO of ThreatLocker, shares how his team is proving that effective cybersecurity doesn't have to be overly complex. The conversation centers on a straightforward yet powerful principle: security should be simple enough to implement quickly and consistently, while still addressing the evolving needs of diverse organizations.Jenkins emphasizes that the industry has moved beyond selling “magic” solutions that promise to find every threat. Instead, customers are demanding tangible results—tools that block threats by default, simplify approvals, and make exceptions easy to manage. ThreatLocker's platform is built on this premise, enabling over 54,000 organizations worldwide to maintain a secure environment without slowing business operations.A highlight from the event is ThreatLocker's Defense Against Configurations (DAC) module. This feature performs 170 daily checks on every endpoint, aligning them with compliance frameworks like NIST and FedRAMP. It not only detects misconfigurations but also explains why they matter and how to fix them. Jenkins admits the tool even revealed gaps in ThreatLocker's own environment—issues that were resolved in minutes—proving its practical value.The discussion also touches on the company's recent FedRAMP authorization process, a rigorous journey that validates both the product's and the company's security maturity. For federal agencies and contractors, this means faster compliance with CMMC and NIST requirements. For commercial clients, it's an assurance that they're working with a partner whose internal security practices meet some of the highest standards in the industry.As ThreatLocker expands its integrations and modules, Jenkins stresses that simplicity remains the guiding principle. This is achieved through constant engagement with customers—at trade shows, in the field, and within the company's own managed services operations. By actively using their own products at scale, the team identifies friction points and smooths them out before customers encounter them.In short, the message from the booth at Black Hat is clear: effective security comes from strong fundamentals, simplified management, and a relentless focus on the user experience.Learn more about ThreatLocker: https://itspm.ag/threatlocker-r974Note: This story contains promotional content. Learn more.Guest: Danny Jenkins, CEO of ThreatLocker | On LinkedIn | https://www.linkedin.com/in/dannyjenkinscyber/ResourcesLearn more and catch more stories from ThreatLocker: https://www.itspmagazine.com/directory/threatlockerLearn more and catch more stories from our Black Hat USA 2025 coverage: https://www.itspmagazine.com/bhusa25Learn more about ITSPmagazine Brand Story Podcasts: https://www.itspmagazine.com/purchase-programsNewsletter Archive: https://www.linkedin.com/newsletters/tune-into-the-latest-podcasts-7109347022809309184/Business Newsletter Signup: https://www.itspmagazine.com/itspmagazine-business-updates-sign-upAre you interested in telling your story?https://www.itspmagazine.com/telling-your-story
In this week's episode Bart discusses what he calls the "CTC" matrix -- counting combos, evaluating board texture and considering configuration in NL cash hands played at the WSOP at the Paris in Las Vegas.
The National Association of Automobile Manufacturers of South Africa (Naamsa) warns that if South African cannot retain markets such as that of the United States of America, the country runs the risk of turning vibrant industrial hubs such as East London in the Eastern Cape, into ghost towns. This comes as the country braces itself for a 30 percent tariff on its exports to the US from tomorrow. Naamsa adds that the announcement and anticipation of the recent tariffs have had a devastating and immediate impact on trade performance - even before the formal effect of the tariffs. CEO, Mikel Mabassa says vehicle exports to the U.S. dropped by 73 percent in the first quarter of 2025, followed by a further decline of 80 percent and 85 percent in April and May, respectively. Sakina Kamwendo spoke to Economist, Khaya Sithole
For memberships: join this channel as a member here:https://www.youtube.com/channel/UC_mGuY4g0mggeUGM6V1osdA/joinSummaryIn this conversation, Nitish Tiwari discusses Parseable, an observability platform designed to address the challenges of managing and analyzing large volumes of data. The discussion covers the evolution of observability systems, the design principles behind Parseable, and the importance of efficient data ingestion and storage in S3. Nitish explains how Parseable allows for flexible deployment, handles data organization, and supports querying through SQL. The conversation also touches on the correlation of logs and traces, failure modes, scaling strategies, and the optional nature of indexing for performance optimization.References:Parseable: https://www.parseable.com/GitHub Repository: https://github.com/parseablehq/parseableArchitecture: https://parseable.com/docs/architecture Chapters:00:00 Introduction to Parseable and Observability Challenges05:17 Key Features of Parseable12:03 Deployment and Configuration of Parseable18:59 Ingestion Process and Data Handling32:52 S3 Integration and Data Organisation35:26 Organising Data in Parseable38:50 Metadata Management and Retention39:52 Querying Data: User Experience and SQL44:28 Caching and Performance Optimisation46:55 User-Friendly Querying: SQL vs. UI48:53 Correlating Logs and Traces50:27 Handling Failures in Ingestion53:31 Managing Spiky Workloads54:58 Data Partitioning and Organisation58:06 Creating Indexes for Faster Reads01:00:08 Parseable's Architecture and Optimisation01:03:09 AI for Enhanced Observability01:05:41 Getting Involved with ParseableFor memberships: join this channel as a member here:https://www.youtube.com/channel/UC_mGuY4g0mggeUGM6V1osdA/joinDon't forget to like, share, and subscribe for more insights!=============================================================================Like building stuff? Try out CodeCrafters and build amazing real world systems like Redis, Kafka, Sqlite. Use the link below to signup and get 40% off on paid subscription.https://app.codecrafters.io/join?via=geeknarrator=============================================================================Database internals series: https://youtu.be/yV_Zp0Mi3xsPopular playlists:Realtime streaming systems: https://www.youtube.com/playlist?list=PLL7QpTxsA4se-mAKKoVOs3VcaP71X_LA-Software Engineering: https://www.youtube.com/playlist?list=PLL7QpTxsA4sf6By03bot5BhKoMgxDUU17Distributed systems and databases: https://www.youtube.com/playlist?list=PLL7QpTxsA4sfLDUnjBJXJGFhhz94jDd_dModern databases: https://www.youtube.com/playlist?list=PLL7QpTxsA4scSeZAsCUXijtnfW5ARlrsNStay Curios! Keep Learning!#database #s3 #objectstorage #opentelemetry #logs #metrics
Michael Breen, CCO, audax Financial Technologyaudax Financial Technology is a comprehensive digital banking solutions provider empowering banks and financial institutions to scale and modernise at speed. audax has enabled new business models and revenue streams for Standard Chartered under the SC nexus proposition. The result, Standard Chartered became the first global bank to provide Banking-as-a-Service in Asia. Robin Amlôt of IBS Intelligence speaks to Michael Breen, CCO of audax.
Dans ce podcast, nous vous proposons une présentation du jeu Pokémon et de son accessibilité pour la version Game Boy émulée sur PC. Ce guide vous permettra de profiter de Pokémon Jaune avec une configuration optimisée pour l'accessibilité sur PC. Procédure d'installation et de configuration Étape 1 : Téléchargement du jeu Téléchargez la ROM du jeu Pokémon Jaune (compatible avec les versions Bleu, Rouge et Jaune). Lien : pokemonrom.net Note : Assurez-vous de sélectionner la version pour Game Boy. Attention : Le script peut fonctionner avec d'autres versions, mais la stabilité n'est pas garantie. Étape 2 : Téléchargement des outils Téléchargez l'émulateur VBA et le script Pokémon Access via ce lien : Lien : mega.nz Dézippez l'archive téléchargée. Étape 3 : Configuration de l'émulateur Lancez le fichier vba.exe. Désactiver l'audio (recommandé pour éviter les interférences avec la synthèse vocale) : Appuyez sur Alt + O. Sélectionnez la touche A. Sélectionnez la touche V. Étape 4 : Chargement de la ROM Accédez au menu déroulant “File” > “Open GBA ROM”. Recherchez la ROM Pokémon Jaune téléchargée et cliquez sur Ouvrir. Étape 5 : Chargement du script Accédez au menu déroulant “Tools” > “Load Script Lua” > “New Lua Script Windows”. Dans l'interface qui s'ouvre : Cliquez sur “Browse” et sélectionnez le fichier “pokemon.lua”. Cliquez sur “Ouvrir”. Appuyez sur “Tab” pour atteindre le bouton “Run”, puis cliquez dessus. Appuyez sur “Échap” pour quitter l'interface et lancer le jeu. Contrôles dans le jeu Voici les touches utilisées dans Pokémon Jaune sur l'émulateur : W : Bouton A X : Bouton B Touches directionnelles : Croix directionnelle J, K, L (système “path”) : J et L : Faire défiler le nom des objets. K : Lire le nom de l'objet. P : Indique le chemin pour atteindre un objet. Espace : Bouton Start Entrée : Bouton Select Amusez-vous bien ! Ultra-son
In this CPQ Podcast episode, Frank Sohn speaks with Frits Haas, consultant at Twyn.ai—a no-code, AI-powered platform purpose-built for the telecom industry. Based in South Africa and backed by Jurumani with 450+ employees, Twyn.ai delivers a unified OSS/BSS solution that includes CRM, CPQ, order management, help desk, and more. Frits shares how Twyn.ai empowers Tier 1 to Tier 3 telcos and ISPs across Africa, Europe, and beyond—offering end-to-end quoting, product configuration, and proposal workflows powered by NLP and intelligent automation. He explains how the platform's rule-based configurator and geospatial tools help simplify complex telecom offerings, while real-time APIs enable seamless integration with systems like Salesforce, SAP, and Oracle BI. Beyond tech, Frits emphasizes that "people buy from people"—a lesson rooted in his role as a trusted advisor and his passion for competitive mounted archery on his farm near Johannesburg. Tune in to discover how Twyn.ai is changing the CPQ landscape for telcos—one digital twin at a time. This episode is packed with real-world advice for CPQ professionals, ServiceNow customers, and anyone interested in scaling smarter with AI, governance, and business-led configuration.
In this episode of PhotoWork with Sasha Wolf, Sasha welcomes two extraordinary guests: artist and curator Justine Kurland and Marina Chao, a curator at CPW. Together, they discuss their collaboration on The Rose, an exhibition that explores collage as a feminist form, strategy, and genealogy. Featuring works by over fifty contemporary artists and key figures from the 1960s and 1970s, the exhibition examines collage as both a means of world-building and a survival strategy in times of crisis. Sasha, Justine, and Marina delve into the layered responsibilities of artists and discuss the assumption that interpreting a straightforward photograph is inherently simpler than reading and interpreting conceptual art. https://www.justinekurland.com https://cpw.org/staff/ https://cpw.org/exhibition/the-rose/ Justine Kurland is an artist known for her utopian photographs of American landscapes and the fringe communities, both real and imagined, that inhabit them. Her early work comprises photographs, taken during many cross-country road trips, that counter the masculinist mythology of the American landscape, offering a radical female imaginary in its place. Her recent series of collages, SCUMB Manifesto, continues to make space for women by transforming books by canonized male photographers through destruction and reparation. Kurland's work has been exhibited at museums and galleries in the United States and abroad. Her work is included in permanent collections of the Whitney Museum of American Art, New York; Solomon R. Guggenheim Museum of Art, New York; Museum of Modern Art, New York; Carnegie Museum, Pennsylvania; Getty Museum, California; National Gallery of Art, Washington, D.C.; and the Museum of Fine Arts, Montreal, among others. She works with Higher Pictures in New York. Marina Chao has previously held curatorial positions at the International Center of Photography and the Museum of Modern Art in New York. As assistant curator at ICP she organized the exhibition Multiply, Identify, Her (2018) and contributed to the publication Public, Private, Secret: On Photography and the Configuration of Self (Aperture and ICP, 2018). She was awarded a 2019 Curatorial Research Fellowship from the Andy Warhol Foundation for the Visual Arts for Seeing Meaning, a project exploring the intersections of image, language, and technology.
This week on the show I walk you through diagnosing a C2206 setting in the 4x4 module of a Jeep Liberty. The transfer case is stuck in 4 wheel drive and the shop has replaced several components in attempts to fix without results. This code pertains to a configuration error with one of the modules on the network, but a restore configuration, VIN check, & part number check all come up with no issues. How do we solve this? Website- https://autodiagpodcast.com/Facebook Group- https://www.facebook.com/groups/223994012068320/YouTube- https://www.youtube.com/@automotivediagnosticpodcas8832Email- STmobilediag@gmail.comPlease make sure to check out our sponsors!SJ Auto Solutions- https://sjautosolutions.com/Automotive Seminars- https://automotiveseminars.com/L1 Automotive Training- https://www.l1training.com/Autorescue tools- https://autorescuetools.com/
In this episode, Steve Goodman and Bastiaan Verdonk interview Victor King from Quest on best practices for Active Directory security. They discuss identifying misconfigurations, managing privileged access, and continuous environmental monitoring.Want to stay up to date on all things Practical 365? Follow us on Twitter, Facebook, and Linkedin to stay up to date on all things Microsoft!
L'ancien ambassadeur de France en Israël Eric Danon, invité de la matinale est revenu sur l'attaque israélienne visant les sites nucléaires iraniens. Il estime que l'intensité des combats va durer « environ une semaine »Mention légales : Vos données de connexion, dont votre adresse IP, sont traités par Radio Classique, responsable de traitement, sur la base de son intérêt légitime, par l'intermédiaire de son sous-traitant Ausha, à des fins de réalisation de statistiques agréées et de lutte contre la fraude. Ces données sont supprimées en temps réel pour la finalité statistique et sous cinq mois à compter de la collecte à des fins de lutte contre la fraude. Pour plus d'informations sur les traitements réalisés par Radio Classique et exercer vos droits, consultez notre Politique de confidentialité.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
The Hidden Costs of Stagnation: Why Running EOL Software is a Ticking Time Bomb, Maintaining FreeBSD in a Commercial Product – Why Upstream Contributions Matter, LLMs ('AI') are coming for our jobs whether or not they work, Implement Anubis to give the bots a harder time, erspan(4): ERSPAN Type II collection, Just my memory here is how I've configure OpenBSD and FreeBSD for a IPv6 Wifi, and more NOTES This episode of BSDNow is brought to you by Tarsnap (https://www.tarsnap.com/bsdnow) and the BSDNow Patreon (https://www.patreon.com/bsdnow) Headlines The Hidden Costs of Stagnation: Why Running EOL Software is a Ticking Time Bomb (https://freebsdfoundation.org/blog/the-hidden-costs-of-stagnation-why-running-eol-software-is-a-ticking-time-bomb/) Maintaining FreeBSD in a Commercial Product – Why Upstream Contributions Matter (https://klarasystems.com/articles/maintaining-freebsd-commercial-product-why-upstream-contributions-matter/?utm_source=BSD%20Now&utm_medium=Podcast) News Roundup LLMs ('AI') are coming for our jobs whether or not they work (https://utcc.utoronto.ca/~cks/space/blog/tech/LLMsVersusOurJobs) Implement Anubis to give the bots a harder time (https://dan.langille.org/2025/05/03/implement-anubis-to-give-the-bots-a-harder-time/) erspan(4): ERSPAN Type II collection (https://www.undeadly.org/cgi?action=article;sid=20250512100219) Just my memory here is how I've configure OpenBSD and FreeBSD for a IPv6 Wifi (https://vincentdelft.be/post/post_20250208) Beastie Bits Some Interesting pieces of history Netnews History (https://www.cs.columbia.edu/~smb/papers/netnews-hist.pdf) History of Solaris (https://cse.unl.edu/~witty/class/csce351/howto/history_of_solaris.pdf) Nuclear Wall Charts (https://econtent.unm.edu/digital/collection/nuceng/search) [TUHS] The Case of UNIX vs. The UNIX System (https://www.tuhs.org/pipermail/tuhs/2025-February/031403.html) Tarsnap This weeks episode of BSDNow was sponsored by our friends at Tarsnap, the only secure online backup you can trust your data to. Even paranoids need backups. Feedback/Questions Paul - my setup (https://github.com/BSDNow/bsdnow.tv/blob/master/episodes/614/feedback/Paul%20-%20my%20setup.md) Send questions, comments, show ideas/topics, or stories you want mentioned on the show to feedback@bsdnow.tv (mailto:feedback@bsdnow.tv) Join us and other BSD Fans in our BSD Now Telegram channel (https://t.me/bsdnow)
The Commanders have 2 position groups on the roster that will require players to step up and perform higher than the expectation, defensive line and secondary, however when looking into the secondary, the players that might end up playing most of the snaps could truly go in a million different ways ... Logan and Craig breakdown which players have the best chance to break through and get a big role in the secondary and discuss how the secondary could make or break this defense To learn more about listener data and our privacy practices visit: https://www.audacyinc.com/privacy-policy Learn more about your ad choices. Visit https://podcastchoices.com/adchoices
We will dive deep into the FPGA architecture. This episode is about slices. Content of this Episode: * What are slices? * Difference between FPGA manufacturer * Configuration * Housekeeping And for now come into our Newsletter and also follow us on LinkedIn. The post WFP027 – FPGA Slices appeared first on World of FPGA by David Kirchner.
The episode discusses the concept of Minimum Viable Continuous Delivery (Minimum CD), which represents a counter-movement to heavyweight frameworks like SAFe. The hosts explore how Minimum CD provides a set of essential practices for successfully building software-based products without unnecessary complexity. The approach focuses on core principles rather than rigid frameworks, making it particularly relevant for embedded systems development.The discussion covers the fundamental requirements for continuous delivery, including automated testing, pipeline-driven deployments, and trunk-based development. The hosts emphasize that while these practices may seem challenging for embedded systems, they become increasingly important as devices become more sophisticated and connected.A key theme throughout the episode is the importance of building trust in the development process through automation, consistent practices, and cultural commitment. The hosts stress that while some practices may seem difficult to implement in embedded systems, the more challenging they are, the more valuable they become when successfully implemented.Timestamps and Topics:00:00:00 - Introduction and overview of Minimum CD00:02:00 - Discussion of Minimum CD as counter-movement to complex frameworks00:03:45 - Continuous Integration fundamentals00:15:35 - Pipeline as the only way to deploy00:27:00 - Production-like test environments00:29:45 - Rollback capabilities for connected devices00:32:25 - Configuration deployment with artifacts00:34:50 - Trunk-based development principles00:39:30 - Automated testing requirements00:41:10 - Maintaining delivered work integrity00:45:55 - Wrap-up and closing thoughtsShownotes:Link to minimumcd.org: https://minimumcd.org/ Reference to Brian Finster as instigator of Minimum CD Reference to Raymond Chen's blog about Windows backward compatibility Reference to previous episode on trunk-based development Reference to interviews with Philip Johnston from Embedded Artistry Reference to interview with Francois from Mend Fault Link to Agile Embedded Slack group You can find Jeff at https://jeffgable.com.You can find Luca at https://luca.engineer.Want to join the agile Embedded Slack? Click here
News includes Phoenix 1.8.0-rc release with DaisyUI styled Tailwind components and magic link authentication, a new design pattern called "scopes", a new privacy-focused feature in Ecto for schema redaction, the Elixir Secure Coding Training project finding a new home at TvLabs, a helpful iex shell tip for multiline commands, and more! We interview Krzysztof Nalepa, the primary creator of LiveDebugger, discussing how this powerful tool helps debug LiveView states and structures, how the project originated, upcoming features, and more. Show Notes online - http://podcast.thinkingelixir.com/249 (http://podcast.thinkingelixir.com/249) Elixir Community News https://paraxial.io/ (https://paraxial.io/?utm_source=thinkingelixir&utm_medium=shownotes) – Paraxial.io is sponsoring today's show! Sign up for a free trial of Paraxial.io today and mention Thinking Elixir when you schedule a demo for a limited time offer. https://phoenixframework.org/blog/phoenix-1-8-released (https://phoenixframework.org/blog/phoenix-1-8-released?utm_source=thinkingelixir&utm_medium=shownotes) – Phoenix 1.8.0-rc released with DaisyUI styled Tailwind components, magic link authentication, revised layouts, and new scopes pattern for data access and authorization. https://elixirforum.com/t/phoenix-1-8-0-rc-0-released/70256 (https://elixirforum.com/t/phoenix-1-8-0-rc-0-released/70256?utm_source=thinkingelixir&utm_medium=shownotes) – Discussion forum post about the Phoenix 1.8.0-rc.0 release. https://github.com/phoenixframework/phoenix/blob/b1c459943b3279f97725787b9150ff4950958d12/CHANGELOG.md (https://github.com/phoenixframework/phoenix/blob/b1c459943b3279f97725787b9150ff4950958d12/CHANGELOG.md?utm_source=thinkingelixir&utm_medium=shownotes) – Changelog detailing the few deprecations in Phoenix 1.8. https://hexdocs.pm/phoenix/1.8.0-rc.0/scopes.html (https://hexdocs.pm/phoenix/1.8.0-rc.0/scopes.html?utm_source=thinkingelixir&utm_medium=shownotes) – New scopes guide in Phoenix 1.8, designed to make secure data access the default. https://github.com/elixir-ecto/ecto/pull/4599 (https://github.com/elixir-ecto/ecto/pull/4599?utm_source=thinkingelixir&utm_medium=shownotes) – Privacy/security focused PR merged into Ecto adding a @schema_redact module attribute to make redacting fields easier. https://bsky.app/profile/nezteb.net/post/3lm6nbpgelk2b (https://bsky.app/profile/nezteb.net/post/3lm6nbpgelk2b?utm_source=thinkingelixir&utm_medium=shownotes) – Bluesky post about the new Ecto schema redaction feature. https://github.com/erlef/elixir-secure-coding (https://github.com/erlef/elixir-secure-coding?utm_source=thinkingelixir&utm_medium=shownotes) – Elixir Secure Coding Training (ESCT) project, an interactive cybersecurity curriculum for Elixir teams, has found a new maintainer in TvLabs. https://bsky.app/profile/davelucia.com/post/3llwjpgsrgs2u (https://bsky.app/profile/davelucia.com/post/3llwjpgsrgs2u?utm_source=thinkingelixir&utm_medium=shownotes) – Announcement about the ESCT project maintainership transition, with plans to eventually move it to the EEF. https://bsky.app/profile/bobbby.online/post/3llwpqtwwf22r (https://bsky.app/profile/bobbby.online/post/3llwpqtwwf22r?utm_source=thinkingelixir&utm_medium=shownotes) – Tip for Elixir users - setting export VISUAL=youreditorof_choice allows entering multiline commands in iex shell by pressing ESCAPE+o. https://dep-mcp.9elements.com/ (https://dep-mcp.9elements.com/?utm_source=thinkingelixir&utm_medium=shownotes) – Daniel Hoelzgen created a new MCP Server that brings package repository awareness for Hex.pm and other package managers to code editors supporting Model Context Protocol. https://x.com/brainlid/status/1909600607935381553 (https://x.com/brainlid/status/1909600607935381553?utm_source=thinkingelixir&utm_medium=shownotes) – Configuration instructions for using the dep-mcp server in Cursor. https://elixirconf.com/ (https://elixirconf.com/?utm_source=thinkingelixir&utm_medium=shownotes) – ElixirConf US 2025 in Orlando is open for submitting talks (deadline Apr 29) and workshops (deadline Apr 15). https://x.com/elixirconf/status/1907843035544826137 (https://x.com/elixirconf/status/1907843035544826137?utm_source=thinkingelixir&utm_medium=shownotes) – Announcement about ElixirConf US 2025 with information about joining the waitlist for pre-sale tickets. Do you have some Elixir news to share? Tell us at @ThinkingElixir (https://twitter.com/ThinkingElixir) or email at show@thinkingelixir.com (mailto:show@thinkingelixir.com) Discussion Resources https://github.com/software-mansion/live-debugger (https://github.com/software-mansion/live-debugger?utm_source=thinkingelixir&utm_medium=shownotes) https://elixirforum.com/t/livedebugger-tool-for-debugging-liveview-apps/69668 (https://elixirforum.com/t/livedebugger-tool-for-debugging-liveview-apps/69668?utm_source=thinkingelixir&utm_medium=shownotes) https://blog.swmansion.com/introduction-to-livedebugger-a-tool-for-debugging-phoenix-liveview-apps-bf7e56ab00fb (https://blog.swmansion.com/introduction-to-livedebugger-a-tool-for-debugging-phoenix-liveview-apps-bf7e56ab00fb?utm_source=thinkingelixir&utm_medium=shownotes) https://github.com/esl/MongooseIM (https://github.com/esl/MongooseIM?utm_source=thinkingelixir&utm_medium=shownotes) https://swmansion.com/ (https://swmansion.com/?utm_source=thinkingelixir&utm_medium=shownotes) https://membrane.stream/ (https://membrane.stream/?utm_source=thinkingelixir&utm_medium=shownotes) https://react.dev/learn/react-developer-tools (https://react.dev/learn/react-developer-tools?utm_source=thinkingelixir&utm_medium=shownotes) https://github.com/JohnnyCurran/TimeTravel (https://github.com/JohnnyCurran/TimeTravel?utm_source=thinkingelixir&utm_medium=shownotes) https://github.com/ash-project/igniter/ (https://github.com/ash-project/igniter/?utm_source=thinkingelixir&utm_medium=shownotes) Guest Information - https://x.com/swmansion (https://x.com/swmansion?utm_source=thinkingelixir&utm_medium=shownotes) – Software Mansion on Twitter/X - https://bsky.app/profile/swmansion.com (https://bsky.app/profile/swmansion.com?utm_source=thinkingelixir&utm_medium=shownotes) – Software Mansion on Bluesky - https://github.com/software-mansion/live-debugger (https://github.com/software-mansion/live-debugger?utm_source=thinkingelixir&utm_medium=shownotes) – LiveDebugger on Github - https://blog.swmansion.com/ (https://blog.swmansion.com/?utm_source=thinkingelixir&utm_medium=shownotes) – Software Mansion Site - https://x.com/kraleppa (https://x.com/kraleppa?utm_source=thinkingelixir&utm_medium=shownotes) – Krzysztof on Twitter/X - https://bsky.app/profile/kraleppa.bsky.social (https://bsky.app/profile/kraleppa.bsky.social?utm_source=thinkingelixir&utm_medium=shownotes) – Krzysztof on Bluesky - https://github.com/kraleppa (https://github.com/kraleppa?utm_source=thinkingelixir&utm_medium=shownotes) – Krzysztof on Github Find us online - Message the show - Bluesky (https://bsky.app/profile/thinkingelixir.com) - Message the show - X (https://x.com/ThinkingElixir) - Message the show on Fediverse - @ThinkingElixir@genserver.social (https://genserver.social/ThinkingElixir) - Email the show - show@thinkingelixir.com (mailto:show@thinkingelixir.com) - Mark Ericksen on X - @brainlid (https://x.com/brainlid) - Mark Ericksen on Bluesky - @brainlid.bsky.social (https://bsky.app/profile/brainlid.bsky.social) - Mark Ericksen on Fediverse - @brainlid@genserver.social (https://genserver.social/brainlid) - David Bernheisel on Bluesky - @david.bernheisel.com (https://bsky.app/profile/david.bernheisel.com) - David Bernheisel on Fediverse - @dbern@genserver.social (https://genserver.social/dbern)
This show has been flagged as Clean by the host. Intro Hello, this is your host, Archer72, for Hacker Public Radio. In this episode, this is my third show involving my record player. I am using a Zoom H1essential Stereo Handy Recorder microphone, recording into Audacity for this show. Why visit the record shop? Picking up a record at the record shop expands my music choices. I get a chance to talk to the owner on the weekend when searching for new music. He is an archaeologist and a teacher at a local college during the week, and is knowledgeable on all the music in the store. One Year With the Institute - Archive.org I wanted a way to listen to the records while on my laptop, preferably with headphones, as to not disturb the household. How is this accomplished? This is done using a combination of Darkice to capture the stream, and Icecast to stream it to the local network. What is Icecast? Icecast is a streaming media (audio/video) server which currently supports Ogg (Vorbis and Theora), Opus, WebM and MP3 streams. It can be used to create an Internet radio station or a privately running jukebox and many things in between. It is very versatile in that new formats can be added relatively easily and supports open standards for communication and interaction. Icecast is distributed under the GNU GPL, version 2. The default config file is located in /usr/share/doc/icecast2/icecast.xml.dist.gz icecast.xml.dist if the default config gets mangled or corrupted by myself. Several other types of configs are also in /usr/share/doc/icecast2/ that include a bare bones config and the installed icecast2 config is located in /etc/icecast2/icecast.xml Configuration needed to be personalized Cynthiana,KY ricemark20.nospam@nospam.gmail.com Change the passwords from hackme to a more secure password hackme hackme admin hackme 192.168.x.x mountPoint = live # mount point of this stream on the IceCast2 server name = DarkIce Vinyl Stream # name of the stream description = This is my Vinyl stream # description of the stream url = http://localhost # URL related to the stream genre = Podcast # genre of the stream public = yes # advertise this stream? localDumpFile = recording.ogg # Record also to a file metadata = yes # enable metadata What is Darkice? DarkIce is a live audio streamer designed to record audio from an audio interface, such as a sound card, encode it, and send it to a streaming server. It supports various streaming servers including IceCast 1 and 2, ShoutCast, and Darwin Streaming Server. DarkIce can encode audio in formats like MP3 and Ogg Vorbis. To use DarkIce, you configure it with settings such as the audio input device, sample rate, and streaming server details, including the server's address, port, and authentication information. This description of Darkice is a result of using the Brave Search LLM, or Large Language Model. The default config file is located in /usr/share/doc/darkice/examples/darkice.cfg.gz and is copied to the /etc directory. From there, use the gunzip command, for example gunzip darkice.cfg.gz I used the config file from a blog by Steffen Müller on stmllr.net August 10, 2012 as a template for my configuration darkice.cfg This is the configuration I used in the end. darkice-pi.cfg Changes to the template The audio device is configured in the [input] section, defined by arecord dash lowercase ‘L' to list the capture device, which in my case is the Behringer UMC202HD USB Audio Interface [general] duration = 0 # duration of encoding, in seconds. 0 means forever The section of the config file for audio input looks like this. [input] device = plughw:0,0 # This refers to card 0, device 0 Start Darkice darkice & Update Metadata I was looking for a way to update the Currently Playing metadata, but my coding skills are not too good. For this, I used Claude.ai to generate code from the prompt: BASH script to send HTTP request to change metadata on icecast stream update-metadata.sh Default values HOST="localhost" # 192.168.x.x PORT="8000" # Default Icecast port MOUNT="/stream" USER="admin" PASSWORD="hackme" # Icecast admin password SONG="Unknown" Usage update-metadata.sh -s "HPR Test" If there are any suggestions for improvements, please leave a comment or upload a show. I look forward to hearing about if an how other people are using a personal streaming server. Also, I am looking forward to the show from the Reserve Queue, 2024-10-13 Fred Black What LP records do I have Other References Radiostreaming for Beginners Provide feedback on this episode.
#circuitpythonparsec Here's a demo of Feather RP2040 USB Host running a USB gamepad to read data and remap button presses inside of CircuitPython. https://learn.adafruit.com/adafruit-feather-rp2040-with-usb-type-a-host/usb-host-read-data https://github.com/jedgarpark/parsec/blob/main/2025-03-25/ https://www.adafruit.com/product/5723 Learn about CircuitPython: https://circuitpython.org Visit the Adafruit shop online - http://www.adafruit.com ----------------------------------------- LIVE CHAT IS HERE! http://adafru.it/discord Subscribe to Adafruit on YouTube: http://adafru.it/subscribe New tutorials on the Adafruit Learning System: http://learn.adafruit.com/ -----------------------------------------
May The Farce Be With You continues on as we discuss the three Family Guy Star Wars episodes; Blue Harvest, Something, Something, Something, Dark Side, and It's A Trap. Do these episodes not work for the uninitiated Family Guy viewers, or do they stand alone in the annals of Star Wars parody-dom? To find the answer you better prepare flowers for Alderaan and fix your bent dong action heroes or Darth Maul will get dat ass. Turn up your headphones, dial back your sensibilities, and join the wretched hive of scum and villainy as we take the low road to resistance on Season Five, Episode Forty of Force Insensitive!Send Email/Voicemail: mailto:forceinsensitive@gmail.comDirect Voice Message: https://www.speakpipe.com/ForceInsensitiveStart your own podcast: https://www.buzzsprout.com/?referrer_id=386Use our Amazon link: http://amzn.to/2CTdZzKFB Group: https://www.facebook.com/groups/ForceInsensitive/Twitter: http://twitter.com/ForceNSensitiveFacebook: http://facebook.com/ForceInsensitiveInstagram: http://instagram.com/ForceInsensitive
Outages connected to configuration mishaps were a common theme last year, and we've continued to see incidents like these in 2025. Configuration changes triggered two consecutive Asana outages in early February, and configuration or update-related issues may also have contributed to recent disruptions at Barclays, ChatGPT, Jira, and Discord.Tune in to hear The Internet Report's Mike Hicks unpack these incidents and discuss ways ITOps teams can guard against similar issues.———CHAPTERS:00:00 Intro01:06 Asana Outages11:40 ChatGPT Disruption19:34 Barclays Outage21:57 Jira Outage22:59 Discord Outage24:31 By the Numbers30:15 Get in Touch———For additional insights, check out The Internet Report's latest blog: https://www.thousandeyes.com/blog/internet-report-configuration-mishaps-asana-outages?utm_source=transistor&utm_medium=referral&utm_campaign=fy25q3_internetreport_q3fy25ep2_podcastAnd to learn more about how to deliver seamless digital experiences in a distributed IT landscape, read this eBook: https://www.thousandeyes.com/resources/guide-to-next-generation-assurance-ebook?utm_source=transistor&utm_medium=referral&utm_campaign=fy25q3_internetreport_q3fy25ep2_podcast ———Want to get in touch?If you have questions, feedback, or guests you would like to see featured on the show, send us a note at InternetReport@thousandeyes.com. Or follow us on LinkedIn or X at @thousandeyes.
Outages connected to configuration mishaps were a common theme last year, and we've continued to see incidents like these in 2025. Configuration changes triggered two consecutive Asana outages in early February, and configuration or update-related issues may also have contributed to recent disruptions at Barclays, ChatGPT, Jira, and Discord. Tune in to hear The Internet Report's Mike Hicks unpack these incidents and discuss ways ITOps teams can guard against similar issues. ——— CHAPTERS: 00:00 Intro 01:06 Asana Outages 11:40 ChatGPT Disruption 19:34 Barclays Outage 21:57 Jira Outage 22:59 Discord Outage 24:31 By the Numbers 30:15 Get in Touch ——— For additional insights, check out The Internet Report's latest blog: https://www.thousandeyes.com/blog/internet-report-configuration-mishaps-asana-outages?utm_source=soundcloud&utm_medium=referral&utm_campaign=fy25q3_internetreport_q3fy25ep2_podcast And to learn more about how to deliver seamless digital experiences in a distributed IT landscape, read this eBook: https://www.thousandeyes.com/resources/guide-to-next-generation-assurance-ebook?utm_source=soundcloud&utm_medium=referral&utm_campaign=fy25q3_internetreport_q3fy25ep2_podcast ——— Want to get in touch? If you have questions, feedback, or guests you would like to see featured on the show, send us a note at InternetReport@thousandeyes.com. Or follow us on LinkedIn or X. ——— ABOUT THE INTERNET REPORT This is The Internet Report, a podcast uncovering what's working and what's breaking on the Internet—and why. Tune in to hear ThousandEyes' Internet experts dig into some of the most interesting outage events from the past couple weeks, discussing what went awry—was it the Internet, or an application issue? Plus, learn about the latest trends in ISP outages, cloud network outages, collaboration network outages, and more. Catch all the episodes on YouTube or your favorite podcast platform: - Apple Podcasts: https://podcasts.apple.com/us/podcast/the-internet-report/id1506984526 - Spotify: https://open.spotify.com/show/5ADFvqAtgsbYwk4JiZFqHQ?si=00e9c4b53aff4d08&nd=1&dlsi=eab65c9ea39d4773 - SoundCloud: https://soundcloud.com/ciscopodcastnetwork/sets/the-internet-report
Two years later, interest in CPQ and AI remains strong. While AI is now widely used daily for various tasks, CPQ adoption of AI is less clear. Although many vendors have announced AI capabilities (or rebranded existing machine learning as AI, which is technically accurate), it's still unclear what AI features customers truly need in CPQ solutions. Therefore, I explored what different language models suggest by asking them some basic questions. I encourage you to listen to their responses and use these tools for your own research, both before selecting a CPQ solution and after it's installed.
Welcome to Episode 395 of the Microsoft Cloud IT Pro Podcast. In this episode, we dive into Azure Virtual Desktop (AVD) and how it enables organizations to deliver secure, scalable Virtual Desktop Infrastructure (VDI) in the cloud. Whether you're looking to modernize remote work, enhance security, or optimize IT costs, AVD provides a flexible solution for accessing virtualized Windows desktops and applications from anywhere.Topics covered include: What is Azure Virtual Desktop? A breakdown of AVD's features, benefits, and common use cases. Deployment essentials – Setting up host pools, session hosts, and assigning users. Configuration best practices – Managing user profiles with FSLogix and securing AVD with Microsoft Intune. Cost estimation – Key factors affecting pricing and how to optimize expenses. Getting started – Steps to connect via the Remote Desktop client on multiple platforms. Whether you're an IT admin or just exploring VDI in Azure, this episode is packed with insights to help you get started. Tune in and take your remote desktop strategy to the next level! Your support makes this show possible! Please consider becoming a premium member for access to live shows and more. Check out our membership options. Show Notes Azure Virtual Desktop documentation Understand and estimate costs for Azure Virtual Desktop Azure Virtual Desktop Azure Virtual Desktop documentation for users Get started with the Remote Desktop client FSLogix for user profiles Managing with Intune Manage the operation system of sessions hosts (with Intune) About the sponsors Would you like to become the irreplaceable Microsoft 365 resource for your organization? Let us know!
This show has been flagged as Clean by the host. What Is The Indie Archive? I'm Hairy Larry and you're listening to the Plain Text Programs podcast. The Indie Archive is a archival solution for indie producers. Since most indie producers run on a shoestring budget it's important that the Indie Archive is inexpensive to install and run. It's especially important that monthly expenses are minimal because a reasonable expense most months will sometimes be more than an indie producer can afford during some months. The first major constraint is cost. So I'll be talking about prices a lot in this podcast and get more technical in future podcasts about The Indie Archive. Indie Archive is an archival system which is different than a backup system. If you don't have a backup system do that first. My backup system uses the same tools as Indie Archive, rsync and rsnapshot. My brother uses the online backup service Carbonite. There are many other options. A good backup system runs automatically to back up everything frequently and preserve version history. It's also good to have backups offsite. An archival system, like Indie Archive, keeps multiple redundant copies across several hard drives on several systems in multiple locations. An archival system also checks file integrity as protection against file corruption or user error. When you have a project you really never want to lose, like a finished novel, a music album, a video, or any other major effort that involves significant work, that's when you need an archival system. So The Indie Archive does not automatically backup your projects every day. That's what your backup system should do. The Indie Archive is an archival system where the producer of the content decides what needs to be archived and when it needs to be archived and then manually moves a directory containing the files onto the Indie Archive carefully preserving the file's metadata during the transfer. Then these files are propagated over at least 7 hard drives on 4 different systems in three locations. File integrity checks are run daily comparing the files and reporting discrepancies. Two of the systems are kept in the studio where the content is produced. I call them the primary and secondary systems. They have a boot drive and two data drives each. One of the systems is kept offsite at a nearby location. I call it the remote system. It also has a boot drive and two data drives. If you have a more distant location where you can put a second remotes system you can have remotenear and remotefar systems. Otherwise ... The final system is somewhere in the cloud provided by a professional data storage provider. It has a single copy of the data and usually some additional data retention. The provider makes the backups of this data. This is the part that might involve a monthly bill. So, depending on the size of your file set, it could be free or it could cost so much a month. There are a lot of options for cloud storage providers. But first I'm going to discuss the three systems, primary, secondary, and remote, and how they function. As far as the hardware goes the systems are the same. Now, I"m a Linix guy and I do all my production work on Linux so I'm using Linux. I want to test the system on several versions of Linux and with BSD. I'm not a Mac guy or a Windows guy so I won't be going there. The software is open source and the required programs run on all three platforms so I'll let a Mac or Windows programmer test The Indie Archive for their systems. My guess is that the Mac fork will be easier than the Windows fork because of the file metadata. It might even be possible to add Mac folders to The Indie Archive running Linux but I'll let someone who actually has a Mac figure that out. I don't think the same is true for Windows. Windows file metadata is different and so if you want to preserve the metadata you will probably have to install The Indie Archive on Windows systems. So, I'm developing and deploying on Linux and I will also test on BSD. So far I have tested Debian, Ununtu, FreeBSD, Midnight BSD, and Xubuntu and The Indie Archive works fine all of these operating systems. So, back to the hardware. Pretty much any older system that will support at least three sata drives will work. I'm using older business class desktops, Dell and HP. I pulled mine out of storage but they are very inexpensive to buy if you're not like me with a shed full of old computer stuff. I just bought a Small Form Factor HP Desktop on ebay for $30 including tax and shipping. To clarify, it's best if the primary system supports 4 sata drives. The secondary and remote systems do not need an optical drive so they should support three sata drives but they can be run on two sata drives if you boot from the primaryfile drive. I am currently testing a remote system with two sata drives running Midnight BSD. The Dell desktops made a big deal about being green. I am open to suggestions on what would be the best energy efficient systems for The Indie Archive, because of both the cost of electricity and the impact on the environment. There are three drives on each system, a boot drive and two data drives. The boot drives can be SSD or spinning hard drives and need to be big enough to hold the OS comfortably. The data drives need to be large enough to hold the files you want to archive and they should be high quality spinning drives, I use the multi terrabyte HGST drives and I am also looking at some Dell drives made by HGST. There will be a data drive and a snapshot drive on each system. If they are not the same size the snapshot drives should be larger. I am testing with 3 terrabyte data drives and 4 terrabyte snapshot drives. Besides the main data set that is being archived the snapshot drives also hold the version history of files that have been deleted or changed. So, that's why they should be the larger drive. So my primary system has a primaryfiles directory with a 3 terrabyte drive mounted to it and a primarysnapshots directory with a 4 terrabyte drive mounted to it. Same for the secondary and remote systems. Now, so far I only had to buy one drive but generally speaking the six data drives will be the major expense in assembling the systems. So a good bargain on six 4 terrabyte drives could be $120 used or $270 new. And this is the most expensive part. I install used HGST drives all the time and rarely have problems with them. I have worked for clients who won't buy used, only new. Since the file integrity checks should give early warning on a drive failure and since there is a seven drive redundancy on the data files, if I were buying drives for The Indie Archive I'd go with six used 4 terrabyte HGST drives for $120. There is no reason not to use drives all the same size as long as the snapshot drives are large enough. The size of data drives you need depends on the size of your projects and the time it takes to do a project. Look at your hard drives on your working systems. Think about what directories you would like to see in archival storage. What is the total size of these directories? Check how many gigabytes these projects have consumed in the last year. Think forward a few years. Assume you will use more disc space in the future than you are now. Do some quick arithmetic and make a decision. Like I said I only had to buy one drive so far because I'm weird and I had a bunch of 3 terrabyte drives available. If I had to buy drives I probably would have tried to start larger. I am sure that at some point in the not to distant future, when I am running The Indie Archive and not developing it, I will have to upgrade my drives. The primary system is the console for The Indie Archive. When you copy a project onto The Indie Archive the directory goes into the primaryfiles directory. From there it is propagated out to the primarysnapshots directory, the secondary system, the cloud storage (if you are using it), and eventually to the remote systems. All of the data propagation is done with rsync using the archive setting that is desigend to preserve the file metadata like owner, permissions, and date last modified. So I have been using rsync with the archive setting to move the files from the work system to a usb drive and from the usb drive to the primaryfiles folder. At first I thought I would use an optical disc to move the files but optical discs do not preserve file metadata. Also I had some weird results with a usb flash drive because it was formatted fat32. fat32 does not support Linux metadata so if you're going to move projects over on a flash drive or a usb external drive be sure to format to ext4. Another way to move projects over to the primaryfiles directory is with tar compression. This preserves metadata when the files are extracted so this might be easier and it works with optical drives. If your directory will fit on an optical drive this also gives you another backup on another media. If you have any suggestions on how to transfer projects while preserving the file metadata let me know. I know that there are network options available but I am hesitant to recommend them because if I can transfer files from a system to the primary sytem over the LAN than anyone can do the same. Or delete files. Or accidentally delete directories. I kind of want to keep tight control over access to the primary system. It kind of ruins the archival quality of The Indie Archive if anyone on the LAN can accidentally mess with it. So, I am open to dialogue on these issues. I'm kind of where I want it to be easy to add projects to The Indie Archive but not too easy, if you know what I mean. I feel like having to sit down at the primary system and enter a password should be the minimum amount of security required to access the primary system. The primary system also runs file integrity checks daily from a cron job. All of the propagation and file integrity scripts have to be run as root to preserve the metadata since only root can write a file that it doesn't own. The secondary system is the ssh server for The Indie Archive. The primary system logs onto the secondary system as root using ssh. Security is managed with public and private keys so entering a password is not required. After the keys are set up for both the primary and remote systems, password authentication is disabled for the ssh server so only those two systems can ssh into the secondary system. When the propagation script is run on the primary system rsnapshot is used to create a current version of the primaryfiles directory in the primarysnapshots directory. Then the primary system uses rsync over ssh to make a copy of the primaryfiles directory to the secondaryfiles directory. Then the primary system logs onto the secondary system as root and rsnapshot is used to create a current version of the secondaryfiles directory on the secondarysnapshots directory. Finally, if cloud storage is being used, the primary system uses gcloud rsync to make a copy of the primaryfiles directory to a google cloud storage bucket archive. I have this bucket set to 90 days soft delete. If you are using another type of cloud storage on Google, AWS, Mega, or other storage providers this command will have to be adjusted. The reason I chose the gcloud archive bucket is because of the storage cost per gigabyte. They have the cheapest cost per gigabyte that I found. This will keep the monthly bill low. Once a day the primary system runs the file integrity check from a cron job using rsync to compare the primaryfiles directory to the current version, alpha.0, in the primarysnapshots directory logging any discrepancies. It then does the same comparing primaryfiles to secondaryfiles and to the current version in the secondarysnapshots directory, logging discrepancies and notifying the maintainer of any discrepancies. Notification is done by email using curl and an SMTP provider. The remote system runs on it's own schedule, logging into the secondary system daily to copy data from secondaryfiles to remotefiles and then using rsnapshot to make a copy of remotefiles to the remotesnapshots directory. Since it's run on a daily schedule it uses rsnapshot with the standard daily, weekly, monthly, and yearly backups. The remote system also runs a daily file integrity check comparing remotefiles to the current version on remotesnapshots and comparing remotefiles to both data directories on the secondary system, again logging the results and notifying the maintainer of any discrepancies. If there is an outward facing static IP at the location with the primary and secondary systems then the remote system can use that static IP to ssh into the secondary system. If there is not a static IP then the remote system uses a DuckDNS subdomain to log onto the secondary system. Any system using the same router as the secondary system can run a cron job to update DuckDNS with the current IP address. Since a static IP is a monthly expense it's important that there's an alternative that does not require paying another bill. So the secondary system has the ssh server but it doesn't really do much. Both of the other systems connect to it and use it as the junction for data propagation and file integrity checks. So, as you can tell, there's a lot going on to make The Indie Archive work. Future podcasts will get down into the details and discuss some of the choices I had to make and why I made them. The funny thing about this project is that the actual code was the least amount of work. Figuring out exactly how rsync and rsnapshot work together was quite a bit of work. Configuration for both rsnapshot and ssh took a bit of head scratching. Then there were a few user id tricks I had to work through to make The Indie Archive usable. But, by far the most work was writing The Indie Archive installation document detailing each step of installing the software on three systems. It's been fun so far. If you have input I always appreciate the help. I get quite a bit of help on Mastodon. If you go to home.gamerplus.org you will find the script for this podcast with the Mastodon comment thread embedded in the post. This podcast is being read from a document that is a work in progress. Current versions of the What Is The Indie Archive document will be posted at codeberg when I'm ready to upload the project. Thanks for listening. https://www.theindiearchive.com/ Provide feedback on this episode.
Daniel shares his unique career path and how his background informs his approach to business. He discusses how servicePath helps businesses manage complex product configurations, pricing, and deployments. In the interview, you'll learn about: How servicePath evolved from addressing the challenges of Managed Service Providers (MSPs) to a broader solution for various industries. The platform's unique features, including detailed financial analysis tools and the ability to handle complex pricing scenarios. How servicePath integrates with other systems and their commitment to continuous innovation. The potential and challenges of integrating AI into CPQ systems, including ensuring accuracy and a user-friendly experience. This episode is a must-listen for anyone interested in CPQ solutions, the future of AI in sales, and insights from a successful CEO. servicePath contact information: Email: daniel.kube@servicepath.co Website: https://servicepath.co/ LinkedIn: https://www.linkedin.com/in/danielkube/
Episode 58: This week we discuss the RTX 5080 (and how underwhelming it is), more implications for the GPU market, some current thoughts on the Arc B580 and Steve's lukewarm take on Radeon's future.CHAPTERS00:00 - Intro00:38 - Initial Thoughts on the RTX 508008:40 - The Configuration is Wrong15:25 - Nvidia's Strategy27:21 - Nvidia is Hurting Their Brand Now37:13 - RTX 40 Series vs RTX 50 Series45:44 - Difficulties in Achieving Gains vs Honest Marketing55:17 - Current State of Intel Arc B5801:03:07 - Steve's Take on RadeonSUBSCRIBE TO THE PODCASTAudio: https://shows.acast.com/the-hardware-unboxed-podcastVideo: https://www.youtube.com/channel/UCqT8Vb3jweH6_tj2SarErfwSUPPORT US DIRECTLYPatreon: https://www.patreon.com/hardwareunboxedLINKSYouTube: https://www.youtube.com/@Hardwareunboxed/Twitter: https://twitter.com/HardwareUnboxedBluesky: https://bsky.app/profile/hardwareunboxed.bsky.social Hosted on Acast. See acast.com/privacy for more information.
In this week's episode Bart discusses the importance of not out leveling yourself and giving your opponents too much credit. He does this through a hand history where it was very important to examine the details of a given configuration.
Skalierung und verteilte Berechnungen: Sind mehr CPUs wirklich immer schneller?Stell dir vor, du bist Softwareentwickler*in und jeder spricht von Skalierung und verteilten Systemen. Doch wie effizient sind diese eigentlich wirklich? Heißt mehr Rechenpower gleich schnellere Ergebnisse?In dieser Episode werfen wir einen Blick auf ein wissenschaftliches Paper, das behauptet, die wahre Leistung von verteilten Systemen kritisch zu hinterfragen. Wir diskutieren, ab wann es sich lohnt, mehr Ressourcen einzusetzen, und was es mit der mysteriösen Metrik COST (ausgesprochen Configuration that Outperforms a Single Thread) auf sich hat. Hör rein, wenn du wissen willst, ob Single-Threaded Algorithmen in vielen Fällen die bessere Wahl sind.Bonus: Ggf. machen nicht alle Wissenschaftler so wissenschaftliche Arbeit.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
An airhacks.fm conversation with Ladislav Thon (@ladicek) about: CDI history and evolution, transition from XML-based configuration to annotation-based dependency injection, introduction of CDI lite in version 4.0, differences between portable extensions and build-compatible extensions, Arc as Quarkus CDI implementation, challenges in implementing CDI at build time, new features in CDI 4.0 and 4.1 including lifecycle events and method invokers, comparison of CDI with other dependency injection frameworks, discussion on decorators, interceptors, and stereotypes in CDI, performance implications of CDI in Quarkus, Convention over Configuration in CDI, upcoming changes in CDI 5, removal of expression language dependency from CDI API, benefits of build-time oriented implementations like Quarkus, challenges in migrating portable extensions to build-compatible extensions, introduction of synthetic beans and observers, addition of priority support for stereotypes, improvements in invocation context API, ability to declare priority on producers in CDI 4.1, integration of CDI with application programming models, Convention over Configuration paired with dependency injection, performance considerations of CDI in Quarkus compared to manual dependency management Ladislav Thon on twitter: @ladicek
Configuration changes played an outsized role 2024 outages. Tune in to hear more about this and other outage trends—and learn how ITOps teams should plan accordingly in the year ahead.We'll also share insights from recent incidents at OpenAI and Google Cloud's Pub/Sub, and dive deeper into a degradation incident that Netflix experienced at the end of 2024.Read on to learn more, or use the chapters below to jump to the sections that most interest you.CHAPTERS00:00 Intro00:58 Cloud Service Provider (CSP) Outages Continue To Rise 01:52 Accidental Misconfigurations Trending for Clouds and Apps07:10 OpenAI Outage09:55 Google Cloud's Pub/Sub Disruption14:47 Lessons From a Netflix Incident18:57 Recent Outage Trends: By the Numbers21:01 Get in Touch———For additional insights, check out the links below:- The Internet Report blog: https://www.thousandeyes.com/blog/internet-report-configuration-change-outages?utm_source=transistor&utm_medium=referral&utm_campaign=fy25q2_internetreport_q2fy25ep5_podcast- 2024 Outage Trends Solidify; Plus OpenAI & Meta Outages: https://www.thousandeyes.com/blog/internet-report-2024-outage-trends-openai-meta-outages?utm_source=transistor&utm_medium=referral&utm_campaign=fy25q2_internetreport_q2fy25ep5_podcast- Netflix Broadcast Disruption: Lessons for Major Live Events: https://www.thousandeyes.com/blog/netflix-disruption-analysis-november-15-2024?utm_source=transistor&utm_medium=referral&utm_campaign=fy25q2_internetreport_q2fy25ep5_podcast- And join our upcoming webinar, “Top Outages of 2024, Explained: Lessons in Digital Resilience.” We'll unpack notable outages and performance degradations of 2024 and share lessons IT Operations teams can take away from these incidents to strengthen their digital resilience: https://www.thousandeyes.com/webinars/na-top-outages-2024-lessons-in-digital-resilience?utm_source=transistor&utm_medium=referral&utm_campaign=fy25q2_internetreport_q2fy25ep5_podcast ———Want to get in touch?If you have questions, feedback, or guests you would like to see featured on the show, send us a note at InternetReport@thousandeyes.com. Or follow us on LinkedIn or X at @thousandeyes
Configuration changes played an outsized role 2024 outages. Tune in to hear more about this and other outage trends—and learn how ITOps teams should plan accordingly in the year ahead. We'll also share insights from recent incidents at OpenAI and Google Cloud's Pub/Sub, and dive deeper into a degradation incident that Netflix experienced at the end of 2024. Read on to learn more, or use the chapters below to jump to the sections that most interest you. CHAPTERS 00:00 Intro 00:58 Cloud Service Provider (CSP) Outages Continue To Rise 01:52 Accidental Misconfigurations Trending for Clouds and Apps 07:10 OpenAI Outage 09:55 Google Cloud's Pub/Sub Disruption 14:47 Lessons From a Netflix Incident 18:57 Recent Outage Trends: By the Numbers 21:01 Get in Touch ——— For additional insights, check out the links below: - The Internet Report blog: https://www.thousandeyes.com/blog/internet-report-configuration-change-outages?utm_source=soundcloud&utm_medium=referral&utm_campaign=fy25q2_internetreport_q2fy25ep5_podcast - 2024 Outage Trends Solidify; Plus OpenAI & Meta Outages: https://www.thousandeyes.com/blog/internet-report-2024-outage-trends-openai-meta-outages?utm_source=soundcloud&utm_medium=referral&utm_campaign=fy25q2_internetreport_q2fy25ep5_podcast - Netflix Broadcast Disruption: Lessons for Major Live Events: https://www.thousandeyes.com/blog/netflix-disruption-analysis-november-15-2024?utm_source=soundcloud&utm_medium=referral&utm_campaign=fy25q2_internetreport_q2fy25ep5_podcast - And join our upcoming webinar, “Top Outages of 2024, Explained: Lessons in Digital Resilience.” We'll unpack notable outages and performance degradations of 2024 and share lessons IT Operations teams can take away from these incidents to strengthen their digital resilience: https://www.thousandeyes.com/webinars/na-top-outages-2024-lessons-in-digital-resilience?utm_source=soundcloud&utm_medium=referral&utm_campaign=fy25q2_internetreport_q2fy25ep5_podcast ——— Want to get in touch? If you have questions, feedback, or guests you would like to see featured on the show, send us a note at InternetReport@thousandeyes.com. Or follow us on LinkedIn or X at @thousandeyes ——— ABOUT THE INTERNET REPORT This is The Internet Report, a podcast uncovering what's working and what's breaking on the Internet—and why. Tune in to hear ThousandEyes' Internet experts dig into some of the most interesting outage events from the past couple weeks, discussing what went awry—was it the Internet, or an application issue? Plus, learn about the latest trends in ISP outages, cloud network outages, collaboration network outages, and more. Catch all the episodes on YouTube or your favorite podcast platform: - Apple Podcasts: https://podcasts.apple.com/us/podcast/the-internet-report/id1506984526 - Spotify: https://open.spotify.com/show/5ADFvqAtgsbYwk4JiZFqHQ?si=00e9c4b53aff4d08&nd=1&dlsi=eab65c9ea39d4773 - SoundCloud: https://soundcloud.com/ciscopodcastnetwork/sets/the-internet-report
Du lundi au jeudi, Stéphanie de Muru reçoit un invité au centre de l'actualité.
Today we are talking about being the CTO of the Drupal Association, How the job has changed, and How its impacted Drupal with guests Josh Mitchell & Tim Lehnen. We'll also cover Automatic Anchors as our module of the week. For show notes visit: https://www.talkingDrupal.com/477 Topics How long ago were you CTO Josh Tim when did you take over DA infrastructure Drupal Credit System Josh's proudest moment Tim's proudest moment Growth Josh if you could do one thing differently Tim if you could make one change Future of the CTO job Resources OOP Hook conversion Oregon State University Open Source Lab Whuffie: Cory doctorow Down and Out in the Magic Kingdom Rethink weighing of contrib projects and credits Guests Tim Lehnen - aspenthornpress.com hestenet Hosts Nic Laflin - nLighteneddevelopment.com nicxvan John Picozzi - epam.com johnpicozzi Joshua "Josh" Mitchell - joshuami.com joshuami MOTW Correspondent Martin Anderson-Clutz - mandclu.com mandclu Brief description: Have you ever wanted headings on your Drupal site to have unique id values, so links can be created to take users to specific parts of any page? There's a module for that. Module name/project name: Automatic Anchors Brief history How old: created in Jun 2020 by Chris Komlenic (komlenic) of Penn State Versions available: 2.1.1-beta1, which supports Drupal 8.8, 9, and 10 Maintainership Test coverage Number of open issues: x open issues, y of which are bugs against the current branch Usage stats: 137 sites Module features and usage By default, the module automatically generates ids on , , , , and elements within the page content Even if two headings have the same content, the module will make sure their ids are unique, as well as making sure they are i18n-friendly, use hyphens instead of spaces, and are short enough to be useful The module won't interfere with or change manually-added or already-existing HTML ids There's a permission to view helpful links on each heading that the ids obvious and easy to copy Configuration options include the root element it should look within (defaults to the body tag), which elements should get ids, what content to use for the displayed links, and whether or not generate ids on admin pages
App intents can be exposed in various ways beyond shortcuts, such as custom controls, focus filters, and spotlight actions. They enable users to perform specific actions without launching the app, making them more accessible and user-friendly. App intents can also be used to configure widgets, interact with hardware, and handle preferences, providing a seamless user experience across different platforms.(00:00) - Introduction (04:20) - App Intents (06:57) - Become a member (07:17) - Some examples (16:31) - Action Centered Design (17:52) - Get some Coffee (20:04) - Examples from Barc (21:39) - What makes a good App Intent (27:26) - Creating an App Intent (30:03) - Using Queries and Configuration (32:36) - Get SetApp (55:35) - Cocoatype.com (55:38) - Support the podcast Mentioned in this episodeThe way we interact with apps is changing, so should the way they are designedWWDC Developer video for getting started with App IntentsBecome a Patreon member and help this Podcast survivehttps://www.patreon.com/compileswiftFollow me on Mastodonhttps://iosdev.space/@Compileswift Thanks to our monthly supporters Tung Vo Adam Wulf bitSpectre Arclite ★ Support this podcast on Patreon ★
In this episode, Jason Kikta discusses the critical relationship between IT and security, emphasizing that great security begins with a solid IT foundation. He explores the importance of establishing a baseline for normalcy, the role of user safety in preventing security breaches, and the need to understand insider threats. Jason concludes with discussing the 'big three' of cybersecurity, which are: Network Inventory: Knowing what's on your network is crucial. This involves having a comprehensive inventory of all devices and systems connected to the network.Configuration and Patching: Keeping systems configured correctly and up-to-date with patches is essential to prevent vulnerabilities that could be exploited by malicious actors.Identity and Authentication Protection: Ensuring robust identity and authentication measures are in place to protect against unauthorized access and maintain the integrity of user accounts.
Hour 2--J&J Show Tuesday 10/1/24-- Rundown-Lion/Raiders/Adams NFL, Grizz, new CFB configuration, media stuff + Memphis/No PAC 12 --- Geoff's van full 3107 Tue, 01 Oct 2024 19:52:58 +0000 d8WXQbZeEhUkUWX2Ap3ubwiu4r248n2Z sports Jason & John sports Hour 2--J&J Show Tuesday 10/1/24-- Rundown-Lion/Raiders/Adams NFL, Grizz, new CFB configuration, media stuff + Memphis/No PAC 12 --- Geoff's van Local columnists and hoops insiders Jason Smith and John Martin appear daily 11am - 2pm on 929FM ESPN/680AM! 2024 © 2021 Audacy, Inc.
In this episode, follow an in-depth, step-by-step journey of transforming a surprisingly decent Ozark Trail mountain bike into the first Pedalshift e-bike (n=3 or 4 if you're counting). This mega-pod takes you from the initial setup to final tweaks, including component replacements, brake and pedal adjustments, and install of a mid drive motor. I'm hardly a bike mechanic, so will things to go sideways at least once like my typical bike adventures? eBike Project - The Build Hey I got an ebike! Where did I end up? Decided on build over buy - more flexibility Decided on new over used - couldn't find a good used one that wasn't $$$ Went with a Bafang middrive motor and a 52v 20Ah frame mounted battery - smaller than Brian's, but still pretty big. Watched a ton of YouTube videos and bought some tools! This took me several weeks because the bike lived at the cabin and I was back and forth a bit as I built it This was a journey… and the episode is a little long, but definitely brings you along tour journals style for how it went… 00:00 Introduction and Episode Overview 01:54 Choosing the Right Bike for the E-Bike Conversion 05:52 Initial Setup and Component Replacements 10:56 Challenges and Adjustments 18:05 Programming and Configuration 28:45 Battery Insights and Expectations 41:03 Assembly and Troubleshooting 48:11 Rear Brake Discovery 48:27 Chain Installation Challenges 48:30 Nighttime Reflections 49:27 Final Adjustments and Cable Management 50:51 Chain Sizing Tips 51:47 First Ride Impressions 52:32 Handlebar and Screen Setup 52:51 Rear Brake Issues 55:28 Pedal and Crank Problems 58:54 Cable and Sensor Installations 01:01:44 Tire Upgrade 01:04:14 Battery and Range Concerns 01:04:53 Shakedown Ride Plans 01:07:23 Final Preparations 01:16:47 Shakedown Ride Execution 01:25:48 E-Bike Confidence Boost 01:30:36 Closing Remarks and Future Plans
Feature flagging tools have grown in popularity as a way to decouple releases and deployment, but they can introduce their own long-term problems and tech debt. Lekko is a startup democratizing the practice of dynamic configuration. Their motivating idea is to empower engineers to focus on software releases, and business teams and other stakeholders to The post Lekko and Dynamic Configuration with Konrad Niemiec appeared first on Software Engineering Daily.
In this episode, recorded live at Laracon US, we talk about the current moment we're seeing in the Laravel world, reflecting on Laravel's evolution and where it stands today. We also dedicate time to answering your questions from Laracon US, mainly about Laravel Cloud, bringing insights directly from the heart of the Laravel community.Taylor Otwell's Twitter Matt Stauffer's TwitterLaravel TwitterLaravel WebsiteTighten WebsitePodcast Suggestions Laravel Cloud-----Editing and transcription sponsored by Tighten.
The COSMIC desktop is just around the corner. We get the inside scoop from System76 and go hands-on with an early press build.Sponsored By:Core Contributor Membership: Take $1 a month of your membership for a lifetime!Tailscale: Tailscale is a programmable networking software that is private and secure by default - get it free on up to 100 devices! 1Password Extended Access Management: 1Password Extended Access Management is a device trust solution for companies with Okta, and they ensure that if a device isn't trusted and secure, it can't log into your cloud apps. Support LINUX UnpluggedLinks: