POPULARITY
Simon takes you through a big list of cool new things - something for everyone.
AWS Morning Brief for the week of September 2nd, 2025, with Corey Quinn. Links:How Ancestry optimizes a 100-billion-row Iceberg tableMastering Amazon Q Developer with Rules Bob's Used Books: Build a .NET Serverless Application on AWS – Part 2: ArchitectureHow Amazon Finance built an AI assistant using Amazon Bedrock and Amazon Kendra to support analysts for data discovery and business insights Building Your Open Source Commercial Strategy with AWSHow to optimize Amazon RDS and Amazon Aurora database costs/performance with AWS Compute OptimizerGracefully handle failed AWS Lambda events from Amazon DynamoDB StreamsAnnouncing the AWS Billing and Cost Management MCP serverAWS joins the DocumentDB project to build interoperable, open source document database technologyCount Tokens API supported for Anthropic's Claude models now in Amazon Bedrock
Panther CEO William Lowe explains how integrating Amazon Bedrock AI into their security platform delivered 50% faster alert resolution for enterprise customers while maintaining the trust and control that security practitioners demand.Topics Include:Panther CEO explains how Amazon partnership accelerates security outcomes for customersCloud-native security platform delivers 100% visibility across enterprise environments at scaleCustomers like Dropbox and Coinbase successfully replaced Splunk with Panther's solutionPlatform processes petabytes monthly with impressive 2.3-minute average threat detection timeCritical gap identified: alert resolution still takes 8 hours despite fast detectionSecurity teams overwhelmed by growing attack surfaces and severe talent burnoutConstant context switching across tools creates inefficiency and organizational collaboration problemsAI integration with Amazon Bedrock designed to accelerate security team decision-makingFour trust principles: verifiable actions, secure design, human control, customer data ownershipResults show 50% faster alert triage; future includes Slack integration and automationParticipants:· William H Lowe – CEO, PantherSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon.com/isv/
What does it really take to move from a GenAI prototype to a production-ready system? In this episode, AWS AI Engineering Specialist Dennis Traub breaks down the hard truths behind scaling, securing, and monitoring AI systems — and why the future belongs to startups who learn how to productionize AI fast. What You'll Learn in This Episode: Why most GenAI prototypes fail when pushed to production The role of MCP (Model Context Protocol) in securely connecting AI to APIs How agentic workflows differ from simple prompt chains Why observability and cost monitoring are non-negotiable for startups The AWS Bedrock + Agent Core stack for startups scaling AI in Europe Counterintuitive lessons: when not to use AI
Confused by AI jargon and unsure which tools actually move the needle for your business? We break down the real differences between traditional algorithms, large language models (LLMs), and agents — including agentic AI — and give practical guidance leaders can use now.Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Thoughts on this? Join the convo.Upcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:Choosing AI: Algorithms vs. AgentsUnderstanding AI Models and AgentsUsing Conditional Statements in AIImportance of Data in AI TrainingRisk Factors in Agentic AI ProjectsInnovation through AI ExperimentationEvaluating AI for Business SolutionsTimestamps:00:00 AWS AI Leader Departs Amid Talent War03:43 Meta Wins Copyright Lawsuit07:47 Choosing AI: Short or Long Term?12:58 Agentic AI: Dynamic Decision Models16:12 "Demanding Data-Driven Precision in Business"20:08 "Agentic AI: Adoption and Risks"22:05 Startup Challenges Amidst Tech Giants24:36 Balancing Innovation and Routine27:25 AGI: Future of Work and SurvivalKeywords:AI algorithms, Large Language Models, LLMs, Agents, Agentic AI, Multi agentic AI, Amazon Web Services, AWS, Vazhi Philemon, Gen AI efforts, Amazon Bedrock, talent wars in tech, OpenAI, Google, Meta, Copyright lawsuit, AI training, Sarah Silverman, Llama, Fair use in AI, Anthropic, AI deep research model, API, Webhooks, MCP, Code interpreter, Keymaker, Data labeling, Training datasets, Computer vision models, Block out time to experiment, Decision-making, If else conditional statements, Data-driven approach, AGI, Teleporting, Innovation in AI, Experiment with AI, Business leaders, Performance improvements, Sustainable business models, Corporate blade.Send Everyday AI and Jordan a text message. (We can't reply back unless you leave contact info) Ready for ROI on GenAI? Go to youreverydayai.com/partner
In today's Cloud Wars Minute, I explore AWS's bold new approach to eliminating AI hallucinations using automated reasoning and formal logic.Highlights00:04 — AWS has announced that automated reasoning checks, a new Amazon Bedrock guardrails policy, are now generally available. In a blog post, AWS's Chief Evangelist (EMEA), Danilo Poccia said that: "Automated reasoning checks help you validate the accuracy of content generated by foundation models against domain knowledge. This can help prevent factual errors due to AI hallucinations."00:38 —The policy uses mathematical logic and formal verification techniques to validate accuracy. The biggest takeaway from this news is AWS's approach differs dramatically from probabilistic reasoning methods. Instead, automated reasoning checks provide 99% verification accuracy.01:10 — This means that the new policy is significantly more reliable in ensuring factual accuracy than traditional methods. The issue of hallucinations was a significant concern when generative AI first emerged. The problems associated with non-factual content are becoming increasingly damaging. This new approach represents an important leap forward. Visit Cloud Wars for more.
Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
Startups love GenAI. But most founders are using it unsafely — and exposing their team, their customers, and their legal risk without even realizing it. In this episode of Startuprad.io, we sat down with Dennis Traub, AI Engineering Specialist at AWS, to unpack what safe adoption of Generative AI really means for founders, CTOs, and product leads. Dennis introduces the “Artificial Intern” framework — a practical way for startups to implement GenAI without hallucinations, GDPR violations, or broken trust. He walks us through where to start, what not to do, and how to pick your very first AI use case.
Raj Koo, CTO of DTEX Systems, discusses how their enterprise-grade generative AI platform detects and disarms insider threats and enables them to stay ahead of evolving risks.Topics Include:Raj Koo, CTO of DTEX Systems, joins from Adelaide to discuss insider threat detectionDTEX evolved from Adelaide startup to Bay Area headquarters, serving Fortune 500 companiesCompany specializes in understanding human behavior and intention behind insider threatsMarket shifting beyond cyber indicators to focus on behavioral analysis and detectionRecent case: US citizen sold identity to North Korean DPRK IT workersForeign entities used stolen credentials to infiltrate American companies undetectedDTEX's behavioral detection systems helped identify this sophisticated identity theft operationGenerative AI becomes double-edged sword - used by both threat actors and defendersBad actors use AI for fake resumes and deepfake interviewsDTEX uses traditional machine learning for risk modeling, GenAI for analyst interpretationGoal is empowering security analysts to work faster, not replacing human expertiseAWS GenAI Innovation Center helped develop guardrails and usage boundaries for enterpriseChallenge: enterprises must follow rules while hackers operate without ethical constraintsDTEX gains advantage through proprietary datasets unavailable to public AI modelsAWS Bedrock partnership enables private, co-located language models for data securityPrivate preview launched February 2024 with AWS Innovation Center acceleration supportSoftware leaders should prioritize privacy-by-design from day one of GenAI adoptionFuture threat: information sharing shifts from files to AI-powered data queriesMonitoring who asks what questions of AI systems becomes critical security concernDTEX contributes to OpenSearch development while building vector databases for analysisParticipants:Rajan Koo – Chief Technology Officer, DTEX SystemsFurther Links:DTEX Systems WebsiteDTEX Systems AWS MarketplaceSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon.com/isv/
Episode Summary:AWS Morning Brief for the week of August 11th, 2025, with Corey Quinn.Links: AWS Cloud Visibility Best PracticesThis Ars articleAWS European Sovereign Cloud to be operated by EU citizensAmazon killing a user's accountMountpoint for Amazon S3 CSI driver v2: Accelerated performance and improved resource usage for Kubernetes workloadsStreamlining outbound emails with Amazon SES Mail ManagerAWS Lambda now supports GitHub Actions to simplify function deploymentAnthropic's Claude Opus 4.1 now in Amazon BedrockAmazon CloudWatch introduces organization-wide VPC flow logs enablementUnderstanding and Remediating Cold Starts: An AWS Lambda PerspectiveAmazon SQS increases maximum message payload size to 1 MiBOpenAI open weight models now available on AWS Best practices for analyzing AWS Config recording frequenciesAmazon EKS adds safety control to prevent accidental cluster deletionAWS Console Mobile App now offers access to AWS SupportAmazon EC2 now supports force terminate for EC2 instances Amazon DynamoDB adds support for Console-to-CodeUsing generative AI for building AWS networksSimplify network connectivity using Tailscale with Amazon EKS Hybrid NodesCost tracking multi-tenant model inference on Amazon Bedrock
AWS's Mark Relph draws fascinating parallels between today's AI revolution and the 1900s agricultural mechanization that delivered 2,000% productivity gains, while exploring how agentic AI will fundamentally reshape every aspect of software business models.Topics Include:Mark Relph directs AWS's data and AI partner go-to-market strategy teamHis role focuses on making ISV partners a force multiplier for customer successPreviously ran go-to-market for Amazon Bedrock, AWS's fastest growing service everCurrent AI adoption pace exceeds even the early cloud computing boom yearsHistorical parallel: 1900s agricultural mechanization delivered 2,000% productivity gains and 95% resource reductionFirst commercial self-propelled farming equipment revolutionized entire economies and never looked back500 machines formed the "Harvest Brigade" during WWII, harvesting from Texas to CanadaMark has spoken to 600+ AWS customers about GenAI over two yearsOrganizations range from AI pioneers to those still "fending off pirates" internallyGenAI has become a phenomenal assistant within organizations for content and automationAWS's AI stack has three layers: infrastructure, Bedrock, and applicationsBottom layer provides complete control over training, inference, and custom applicationsMiddle layer Bedrock serves as the "operating system" for generative AI applicationsTop layer offers ready-to-use AI through Q assistants and productivity toolsAI systems are rapidly becoming more complex with multiple model chainsMany current "agents" are just really, really long prompts (Mark's hot take)Task-specific models are emerging as one size won't fit all use casesEvolution moves from human-driven AI to agent-assisted to fully autonomous agentsAgent readiness requires APIs that allow software to interact autonomouslyTraditional UIs become unnecessary when agents interface directly with systemsCore competencies shift when AI handles the actual "doing" of tasksSales and marketing must adapt to agents delivering outcomes autonomouslyGo-to-market strategies need complete rethinking for an agentic worldThe agentic age is upon us and AWS partners should shape the futureParticipants:Mark Relph – Director – Data & AI Partner Go-To-Market, Amazon Web ServicesSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon.com/isv/
Industry leaders from Celonis and AWS explain why 2025 marks the inflection point for agentic AI and how early adopters are gaining significant competitive advantages in efficiency and innovation.Topics Include:AWS's Cristen Hughes and Celonis's Jeff Naughton discuss AI agent transformationAndy Jassy declares AI agents will fundamentally change how we workThree key trends make AI agents practical: smarter models, longer tasks, cheaper costsAI now beats humans on complex benchmarks for the first time everClaude 3.7 cracked graduate-level reasoning where humans previously dominated completelyAI evolved from brief interactions to managing sustained multi-step complex workflowsProcessing costs plummeted 99.7% making enterprise-grade AI economically viable at scaleWe're transitioning from 2023's adaptation era to 2025's human-AI collaboration eraBy 2028, AI will suggest actions to humans rather than vice versaAgents are autonomous software that plan, act, and reason independently with minimal interventionAgent workflow: receive human request, create plan, execute actions, review, adjust, deliverFour agent components: brain (LLM), memory (context), actions (tools), persona (role definition)AWS offers three building approaches: ready-made solutions, managed platform, DIY developmentKey enterprise applications: software development acceleration, customer care automation, knowledge work optimizationManual processes like accounts payable offer huge transformation opportunities through intelligent automationDeep process analysis is critical before deploying agents for maximum effectivenessCelonis pioneered process mining to help enterprises understand their actual workflow realitiesCompanies are collections of interacting processes that agents need proper context to navigateProcess intelligence provides agents with placement guidance, data feeds, monitoring, and workflow directionCelonis-AWS partnership demonstrates order management agents that automatically handle at-risk situationsParticipants:Jeff Naughton – SVP and Fellow, CelonisCristen Hughes – Solutions Architecture Leader, ISV, North America, Amazon Web ServicesFurther Links:Celonis WebsiteCelonis on AWS MarketplaceSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon.com/isv/
Simon and Jillian take you on a fast paced update of all things new on AWS!
AWS Morning Brief for the week of July 28th, 2025, with Corey Quinn. Links:Launching Amazon CloudWatch generative AI observability (Preview) Amazon CloudWatch adds IPv6 supportBoost cold-start recommendations with vLLM on AWS Trainium AWS Private CA now supports issuing up to 100 million certificates per CA Amazon Connect announces per-day pricing for external voice connectors Amazon RDS for Db2 adds support for group-based authorization with self-managed Active Directory Manage multi-tenant Amazon Bedrock costs using application inference profilesSimplify serverless development with console to IDE and remote debugging for AWS Lambda | AWS News Blog AWS Generative AI for Developers Professional Certificate Simplify AWS Organization Tag Policies using new wildcard statement Security Update for Amazon Q Developer Extension for Visual Studio Code (Version #1.84) Cost Optimization Hub now supports account names in optimization opportunities Year One of Valkey: Open-Source Innovations and ElastiCache version 8.1 for Valkey - go listen to the audio version of this newsletter specifically for this item. AWS Security Incident Response: The customer's journey to accelerating the incident response lifecycle AWS Service Reference Information now supports actions for last accessed services - Five facts about how the CLOUD Act actually works | AWS Security Blog Bob's Used Books: Build a .NET Serverless Application on AWS, Part 1: Deployment and Setup Amazon EC2 now supports skipping the operating system shutdown when stopping or terminating instances New whitepaper available: AICPA SOC 2 Compliance Guide on AWS Why 2025 is the Inflection Point for AWS Cloud Migration Beyond IAM access keys: Modern authentication approaches for AWS Introducing SRA Verify – an AWS Security Reference Architecture assessment tool Supercharging Ad Creative with Amazon Bedrock and Amazon Nova: How AI is Revolutionizing Content Generation for Advertising & Marketing Use-CasesBuilding resilient multi-tenant systems with Amazon SQS fair queues How Truth For Life transformed its viewer analytics while optimizing costs
Sam Johnson, Chief Customer Officer of Jamf, discusses the implementation of AI built on Amazon Bedrock that is a gamechanger in helping Jamf's 76,000+ customers scale their device management operations.Topics Include:Sam Johnson introduces himself as Chief Customer Officer from Jamf companyJamf's 23-year mission: help organizations succeed with Apple device managementCompany manages 33+ million devices for 76,000+ customers worldwide from MinneapolisJamf has used AI since 2018 for security threat detectionReleased first customer-facing generative AI Assistant just last year in 2024Presentation covers why, how they built it, use cases, and future plansJamf serves horizontal market from small business to Fortune 500 companiesChallenge: balance powerful platform capabilities with ease of use and adoptionAI could help get best of both worlds - power and simplicityAI also increases security posture and scales user capabilities significantlyCustomers already using ChatGPT/Claude but wanted AI embedded in productBuilt into product to reduce "doorway effect" of switching digital environmentsCreated small cross-functional team to survey land and build initial trailRest of engineering organization came behind to build the production highwayTeam needed governance layer with input from security, legal, other departmentsEvaluated multiple providers but ultimately chose Amazon Bedrock for three reasonsAWS team support, large community, and integration with existing infrastructureUses Lambda, DynamoDB, CloudWatch to support the Bedrock AI implementationAI development required longer training/validation phase than typical product featuresReleased "AI Assistant" with three skills: Reference, Explain, and Search capabilitiesParticipants:Sam Johnson – Chief Customer Officer, JamfFurther Links:Jamf.comJamf on AWS MarketplaceSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon.com/isv/
Everyone wants the latest and greatest AI buzzword. But at what cost? And what the heck is the difference between algos, LLMs, and agents anyway? Tune in to find out.Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Thoughts on this? Join the convo.Upcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:Choosing AI: Algorithms vs. AgentsUnderstanding AI Models and AgentsUsing Conditional Statements in AIImportance of Data in AI TrainingRisk Factors in Agentic AI ProjectsInnovation through AI ExperimentationEvaluating AI for Business SolutionsTimestamps:00:00 AWS AI Leader Departs Amid Talent War03:43 Meta Wins Copyright Lawsuit07:47 Choosing AI: Short or Long Term?12:58 Agentic AI: Dynamic Decision Models16:12 "Demanding Data-Driven Precision in Business"20:08 "Agentic AI: Adoption and Risks"22:05 Startup Challenges Amidst Tech Giants24:36 Balancing Innovation and Routine27:25 AGI: Future of Work and SurvivalKeywords:AI algorithms, Large Language Models, LLMs, Agents, Agentic AI, Multi agentic AI, Amazon Web Services, AWS, Vazhi Philemon, Gen AI efforts, Amazon Bedrock, talent wars in tech, OpenAI, Google, Meta, Copyright lawsuit, AI training, Sarah Silverman, Llama, Fair use in AI, Anthropic, AI deep research model, API, Webhooks, MCP, Code interpreter, Keymaker, Data labeling, Training datasets, Computer vision models, Block out time to experiment, Decision-making, If else conditional statements, Data-driven approach, AGI, Teleporting, Innovation in AI, Experiment with AI, Business leaders, Performance improvements, Sustainable business models, Corporate blade.Send Everyday AI and Jordan a text message. (We can't reply back unless you leave contact info) Try Gemini 2.5 Flash! Sign up at AIStudio.google.com to get started. Try Gemini 2.5 Flash! Sign up at AIStudio.google.com to get started.
IT leaders in regulated industries know the pain of navigating outdated, slow procurement systems – especially when critical missions depend on modern tools. In this episode, Bryana Tucci, Lead of the AWS Marketplace for the US Intelligence Community, shares how government agencies are overcoming legacy procurement bottlenecks to access cutting-edge software, AI tools, and cloud services faster and more securely.Listeners will gain insight into:Why traditional government procurement can take up to two years – and how that's changing.How air-gapped environments complicate innovation and what's being done about it.How generative AI is reshaping national security workflows.What kinds of tech companies are best positioned to succeed in the public sector.This episode is a must-listen for IT leaders interested in procurement innovation, cloud adoption in secure environments, and where AI fits into the future of public sector IT. Enjoy!Key Moments00:00 Meet Bryana Tucci, AWS06:58 The Pain Point: Procurement Then vs. Now11:31 Unique Challenges in Public Sector Tech15:55 The Long Road to Selling in Government19:23 Vetting and Onboarding Sellers (how to meet federal standards)23:49 Government + AI: A Game-Changer30:34 Cost Efficiency, Saving Time, and the Future of Procurement41:46 What's Next for AWS Marketplace ---Produced by the team at Mission.org and brought to you by Brightspot.
L'Intelligenza Artificiale non è più futuro, è il presente che sta ridisegnando il business. Ma come si traduce in pratica? Dalla prevenzione cyber all'evoluzione del cloud, passando per la comunicazione che unisce digitale e reale, la vera sfida oggi è l'implementazione concreta.Nella nuova puntata del Late Tech Show, ho avuto il piacere di discutere di queste trasformazioni con quattro ospiti eccezionali, ognuno con una prospettiva unica:
Claude 4 Opus and Sonnet, the most powerful models from Anthropic for coding and advanced reasoning, are now available on Amazon Bedrock. Plus, AWS Transform can now accelerate your Mainframe, .NET and VMWare workload modernization. Learn about these updates and more with your hosts Shruthi and Jillian. 00:00 - Intro, 00:21 - Amazon Bedrock, 03:40 - AWS Transform, 07:51 - EC2 P6/B200 Instances, 11:35 - Analytics, 16:55 - Business Applications, 17:27 - Cloud Financial Management, 17:46 - Compute, 20:14 - Containers, 21:27 - ECS, 21:54 - Databases, 27:08 - Developer Tools, 29:15 - End User Computing, 29:53 - Management & Governance, 32:36 - Migration & Transfer, 35:12 - Networking and Content Delivery, 35:35 - Security Entity and Compliance, 36:07 - Service Changes, 37:06 - Services end of support, 38:26 - Wrap up Show Notes: https://dqkop6u6q45rj.cloudfront.net/shownotes-20250530-194643.html
Can Generative AI Be Secured? Amazon's Chief Security Officer Weighs In In this episode of Eye on AI, Amazon's Chief Security Officer Stephen Schmidt pulls back the curtain on how Amazon is using AI-powered cybersecurity to defend against real-world threats. From global honeypots to intelligent alarm systems and secure AI agent networks, Steve shares never-before-heard details on how Amazon is protecting both its infrastructure and your data in the age of generative AI. We dive deep into: Amazon's MadPot honeypot network and how it tracks adversaries in 90 seconds The role of AI in threat detection, alarm triage, and code validation Why open-source vs. closed-source models are a real security debate The critical need for data privacy, secure LLM usage, and agent oversight Amazon's $5M+ Nova Trusted AI Challenge to battle adversarial code generation Whether you're building AI tools, deploying models at scale, or just want to understand how the future of cybersecurity is evolving—this episode is a must-listen. Don't forget to like, subscribe, and turn on notifications to stay updated on the latest in AI, security, and innovation. Stay Updated: Craig Smith on X:https://x.com/craigss Eye on A.I. on X: https://x.com/EyeOn_AI (00:00) Preview (00:52) Stephen Schmidt's Role and Background at Amazon (02:11) Inside Amazon's Global Honeypot Network (MadPot) (05:26) How Amazon Shares Threat Intel Through GuardDuty (08:06) Are Cybercriminals Using AI? (10:28) Open Source vs Closed Source AI Security Debate (13:09) What Is Amazon GuardDuty (17:44) How Amazon Protects Customer Data at Scale (20:18) Can Autonomous AI Agents Handle Security? (25:14) How Amazon Empowers SMBs with Agent-Driven Security (26:18) What Tools Power Amazon's Security Agents? (29:25) AI Security Basics (35:34) Securing AI-Generated Code (37:26) Are Models Learning from Our Queries? (39:44) Risks of Agent-to-Agent Data Sharing (42:08) Inside the $5M Nova Trusted AI Security Challenge (47:01) Supply Chain Attacks and State Actor Tactics (51:32) How Many True Adversaries Are Out There? (53:04) What Everyone Needs to Know About AI Security
Send us a textApril 2025 news. A lot of news for you, dear listener, from Google, AWS and AzureTakeaway by the aiThe FinOps News podcast targets hardcore Phenops enthusiasts.Conflict can lead to better team dynamics and outcomes.Azure's VM hibernation feature offers cost-efficient workload management.Amazon EC2 introduces high-performance storage optimized instances.Bare metal instances provide significant performance improvements.Prompt optimization in Amazon Bedrock enhances AI model performance.AWS Database Migration Service now supports automatic storage scaling.Cloud gaming may benefit from new GPU instance offerings.The importance of feedback in improving cloud services is emphasized.The podcast aims to provide in-depth insights into cloud technology. Amazon S3 has significantly reduced its storage and request prices.Google Cloud's FinOps Hub 2.0 offers new tools for cost management.GKE now provides insights to optimize resource requests and limits.Azure AKS cost recommendations help identify savings opportunities.Google Cloud's backup services now support DB2 databases.Amazon Redshift introduces serverless reservations for cost predictability.AWS CodeBuild enhancements allow for better resource configuration.Microsoft Cost Management has improved export functionalities.Microsoft Copilot in Azure offers tailored prompts for cost analysis.Azure Static Web Apps will discontinue dedicated pricing plans.
Executive leaders from UneeQ and Zeta Global discuss the revolutionary impact of AI technologies that enable enhanced customer experiences and improved sales performances.Topics Include:Dave Cristini introduces panel on AI in advertising and marketing.Panel explores personalized experiences at scale with privacy focus.UneeQ creates AI-powered digital humans for brand interactions.Zeta Global uses AI to optimize customer messaging.LLMs combined with traditional ML empowers marketers to create models.Marketers can now build models without needing data scientists.AI agents integrated into systems can take action, not just respond.Agent chaining orchestrates sophisticated marketing actions automatically.AWS Bedrock provides tools to shape AI marketing future.Hyper-personalization becoming more achievable through AI automation.Ethics requires authenticity in brand AI representation.Transparency about data usage builds customer trust.Win-win approach: AI should augment teams, not just reduce costs.Integration difficulties remain a major challenge for AI implementation.AI agents have limited context windows and memory.Solution: Create specialized agents with persistent viewpoints.Companies need strong integration capabilities before implementing AI.Privacy regulations impact AI use in global marketing.Highly regulated industries require careful AI implementation strategies.Generative AI creates compliance challenges with unpredictable outputs.Digital humans eliminate judgment, revealing new customer insights.Banking clients discovered customers didn't understand financial terminology.Zeta improved onboarding with AI agents for data mapping.AI data mapping increased NPS scores and accelerated monetization.CMOs and CIOs increasingly collaborating on AI initiatives.Tension exists between marketing (quick wins) and IT (security).Strategic alignment with approved infrastructure enables scaling AI solutions.CEOs have critical role in aligning AI goals across departments.Internal AI use case: practicing sales with digital humans.Sales teams achieved 500% higher sales through AI role-playing.Participants:Danny Tomsett – Chief Executive Officer, UneeQRoman Gun – Vice President, Product, Zeta GlobalDavid Cristini – Director, ISV Sales, North America – Business Applications, AWSSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon.com/isv/
Web and Mobile App Development (Language Agnostic, and Based on Real-life experience!)
In this episode, host Krish Palaniappan welcomes back Ramya Ganesh to discuss Amazon Bedrock and its applications in AI and cloud computing. Ramya shares her extensive experience with AWS, particularly in cybersecurity and AI, and explains the differences between Bedrock and SageMaker. The conversation delves into practical use cases, such as code generation and architectural diagrams, while also addressing the challenges and considerations when integrating Bedrock into existing applications. The episode concludes with insights on prototyping with AWS AI tools and the future of AI development. In this conversation, Krish Palaniappan and Ramya Ganesh delve into the intricacies of using AWS Bedrock for model selection and application development. They explore the open-source nature of certain applications, the importance of selecting the right model for specific problems, and the nuances of model configurations. The discussion also covers how to compare different models and the next steps for integrating these models into applications.
Amazon on Thursday released what it claims is the largest, most capable AI model in its Nova family, Nova Premier. Nova Premier, which can process text, images, and videos (but not audio), is available in Amazon Bedrock, the company's AI model development platform. Learn more about your ad choices. Visit podcastchoices.com/adchoices
We're excited to welcome Faye Ellis — Pluralsight instructor, AWS Hero, and one of my favorite people to learn from! In this session, Faye shares inexpensive and accessible ways you can start learning about Foundation Models (FMs), Large Language Models (LLMs), and AI. Whether you're just starting your AI journey or looking for practical experiments without a huge investment, this episode is packed with actionable insights. Faye also shares the top AI skills needed in 2025!
Send us a textIn this episode of What's New in Cloud Phenops, Stephen Old and Frank discuss the latest updates in cloud computing, focusing on Azure, Google Cloud, and AWS. They cover the retirement of certain Azure virtual machines, the introduction of serverless GPUs, and the benefits of Amazon Bedrock for cost transparency. The conversation also touches on new features for Azure databases, insights from a Forrester study on Spanner, and the importance of calculating AI costs. Additionally, they discuss licensing changes for Amazon FSX, tiered storage for Spanner, and the deprecation of the AWS connector to Azure. The episode concludes with a look at sustainability efforts and upcoming events in the cloud computing space.takeawaysServerless GPUs enable on-demand AI workloads with automatic scaling.Amazon Bedrock introduces real-time cost transparency for custom models.Physical snapshots for Azure databases enhance backup flexibility.Forrester study shows significant ROI with Spanner.Understanding AI costs on Google Cloud is crucial for budgeting.Amazon FSX for NetApp removes SnapLock licensing fees.Tiered storage for Spanner optimizes cost and performance.AWS connector to Azure is deprecated, focusing on native solutions.Azure OpenAI service offers discounts for provisioned reservations.
Learn about the latest new FM in the Nova family that simplifies conversational AI with low latency, and build safely with new capabilities for Amazon Bedrock Guardrails. 00:00 - Intro, 00:27 - Amazon Nova Sonic, 03:13 - Amazon Bedrock Guardrails, 05:23 - Analytics, 08:18 - Application Integration, 08:37 - Artificial Intelligence, 12:06 - Business Applications, 13:01 - Cloud Financial Management, 13:44 - Compute, 15:04 - Contact Center, 16:29 - Containers, 16:49 - Databases, 19:57 - Developer Tools, 20:59 - Frontend Web and Mobile, 21:20 - Management and Governance, 23:39 - Media Services, 25:37 - Migration and Transfer, 26:46 - Networking and Content Delivery, 28:45 - Artificial Intelligence, 29:58 - Security, Identity, and Compliance, 32:51 - Serverless, 33:57 - Storage, 37:29 - Wrap up Show Notes: https://dqkop6u6q45rj.cloudfront.net/run-sheet-20250418-173723.html
SentinelOne's Ric Smith shares how Purple AI, built on Amazon Bedrock, helps security teams handle increasing threat volumes while facing budget constraints and talent shortages.Topics Include:Introduction of Ric Smith, President of Product Technology and OperationsSentinelOne overview: cybersecurity company focused on endpoint and data securityCustomer range: small businesses to Fortune 10 companiesProducts protect endpoints, cloud environments, and provide enterprise observabilityRic oversees 65% of company operationsPurple AI launched on AWS BedrockPurple AI helps security teams become more efficient and productiveSecurity teams face budget constraints and talent shortagesPurple AI helps teams manage increasing alert volumesTop security challenge: increased malware variants through AIAI enables more convincing spear-phishing attemptsIdentity breaches through social engineering are increasingVoice deepfakes used to bypass security protocolsFuture threats: autonomous AI agents conducting orchestrated attacksSentinelOne helps with productivity and advanced detection capabilitiesSentinelOne primarily deployed on AWS infrastructureUsing SageMaker and Bedrock for AI capabilitiesBest practice: find partners for AI training and deploymentCustomer insight: Purple AI made teams more confident and creativeAI frees security teams from constant anxietySentinelOne's hyper-automation handles cascading remediation tasksMultiple operational modes: fully automated or human-in-the-loopAgent-to-agent interactions expected within 24 monthsCommon misconception: generative AI is infallibleAI helps with "blank slate problem" providing starting frameworksAI content still requires human personalization and reviewAWS partnership provides cost efficiency and governance benefitsParticipants:· Ric Smith – President – Product, Technology and Operations, SentinelOneSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon/isv/
Join Dan Vega and DaShaun Carter as they welcome James Ward, Principal Developer Advocate at AWS. This episode explores James' career journey, his podcast work, and his expertise in Java development. The conversation dives into Amazon's Nova model and James' recent article on Model Context Protocol (MCP). Learn about building AI agents with Spring AI and discover how Spring developers can implement MCP clients and servers on AWS for powerful, integrated AI applications.The hosts get James' unique perspective on the evolving intersection of Spring, Java, and cloud AI services, with practical insights for developers looking to enhance their applications with AI capabilities. You can participate in our live stream to ask questions or catch the replay on your preferred podcast platform.Show NotesRunning MCP Agents (Clients & Servers) on AWSAWS NovaModel Context Protocol
Hosts Simon and Jillian discuss how you can uncover hidden trends and make data-driven decisions - all through natural conversation, with Amazon Q in Quicksight, plus, more of the latest updates from AWS. 00:00 - Intro, 00:22 - Top Stories, 02:50 - Analytics, 03:35 - Application Integrations, 04:48 - Amazon Sagemaker, 05:29 - Amazon Bedrock Knowledge Bases, 05:48- Amazon Polly, 06:46 - Amazon Bedrock, 07:31 - Amazon Bedrock Model Evolution LLM, 08:29 - Business Application, 08:58 - Compute, 09:51 - Contact Centers, 10:54 - Containers, 11:12 - Database, 14:21 - Developer Tools, 15:20 - Front End Web and Mobile, 15:45 - Games, 16:04 - Management and Governance, 16:35 - Media Services, 16:47 - Network and Content Delivery, 19:39 - Security Identity and Compliance, 20:24 - Serverless, 21:48 - Storage, 22:43 - Wrap up Show Notes: https://dqkop6u6q45rj.cloudfront.net/shownotes-20250404-184823.html
PDI Technologies' Steve Antonakakis shares how his company is implementing generative AI across their fuel and retail technology ecosystem through a practical, customer-focused approach using Amazon Bedrock.Topics Include:PDI's COO/CTO discussing generative AI implementationPractical step-by-step approach to AI integrationTesting in real-world settings with customer feedbackAWS Bedrock and Nova models exceeded expectationsEarly adoption phase with huge potentialFuel/retail industry processes many in-person transactionsPDI began in 1983 as ERP providerGrew through 33+ acquisitionsProvides end-to-end fuel industry solutionsOwns GasBuddy and Shell Fuel RewardsProcesses millions of transactions dailyGenerative AI fits into their intelligence plane architectureAWS Bedrock integrates well with existing infrastructureFocus on trusted, controlled, accountable AIProductizing AI features harder than traditional featuresCreated entrepreneurial structure alongside regular product teamsTeam designed to fail fast but stay customer-focusedAI features can access databases without disrupting applicationsCustomers want summarization across different business areasAI provides insights and actionable recommendationsConversational AI replaces traditional reporting limitationsWorking closely with customers to solve problems togetherBeyond prototyping phase, now in implementationAWS Nova provides excellent cost-to-value ratioFocus on measuring customer value over immediate profitabilityRFP use case saved half a million dollarsEarly prompts were massive, now more structuredSetting realistic customer expectations is importantData security approach same as other applicationsTreating AI outputs with same data classification standardsParticipants:Steve Antonakakis – COO & CTO, Retail & Energy, PDI TechnologiesSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon/isv/
New game-changing AI developments are here, from SageMaker Unified Studio to Bedrock's new multi-agent capabilities. Join your hosts Simon and Jillian for the latest updates from AWS. 00:00:00 - Intro 00:00:49 - Top Stories 00:02:31 - Amazon Bedrock 00:05:35 - Analytics 00:06:08 - Application Integration 00:06:41 - AWS Step Function Workflow Studio 00:06:59 - Amazon Bedrock 00:07:26 - GraphRAG 00:09:08 - Amazon Nova Pro Foundation Model 00:09:32 - Amazon S3 Table and Sagemaker Lakehouse 00:12:00 - Compute 00:13:30 - Customer Engagement 00:14:39 - Data Bases 00:15:09 - Developer Tools 00:17:09 - End User Computing 00:17:25 - Front end Web and Mobile 00:18:08 - Games Internet of things 00:20:12 - Management and Governance 00:20:31 - Networking and Content Delivery 00:20:41 - AWS Application Load Balancer 00:21:06 - Security Identity End Compliance 00:22:32 - Storage 00:23:47 - Wrap up
Web and Mobile App Development (Language Agnostic, and Based on Real-life experience!)
In this conversation, Krish Palaniappan delves into the AWS AI series, focusing on Amazon Bedrock and its foundational models. He discusses the differences between serverless models and the Bedrock marketplace, the importance of selecting the right model for specific use cases, and the training and inference processes in AI. The conversation also compares AWS Bedrock with Azure's offerings and emphasizes the complexities of AI architecture in modern development. In this conversation, Krish Palaniappan delves into the complexities of selecting AI models and platforms, particularly focusing on Bedrock and Hugging Face. He discusses the challenges startups face in asset comparisons, the importance of initial architecture in software development, and the evolving landscape of AI tools. The conversation emphasizes the need for a strategic approach to model selection, deployment, and understanding pricing structures, while also highlighting the significance of community engagement in the AI space. Snowpal Products Backends as Services on AWS Marketplace Mobile Apps on App Store and Play Store Web App Education Platform for Learners and Course Creators
Richard Sonnenblick and Lee Rehwinkel of Planview discuss their transition to Amazon Bedrock for a multi-agent AI system while sharing valuable implementation and user experience lessons.Topics Include:Introduction to Planview's 18-month journey creating an AI co-pilot.Planview builds solutions for strategic portfolio and agile planning.5,000+ companies with millions of users leverage Planview solutions.Co-pilot vision: AI assistant sidebar across multiple applications.RAG used to ingest customer success center documents.Tracking product data, screens, charts, and tables.Incorporating industry best practices and methodologies.Can ingest customer-specific documents to understand company terminology.Key benefit: Making every user a power user.Key benefit: Saving time on tedious and redundant tasks.Key benefit: De-risking initiatives through early risk identification.Cost challenges: GPT-4 initially cost $60 per million tokens.Cost now only $1.20 per million tokens.Market evolution: AI features becoming table stakes.Performance rubrics created for different personas and applications.Multi-agent architecture provides technical and organizational scalability.Initial implementation used Azure and GPT-4 models.Migration to AWS Bedrock brought model choice benefits.Bedrock allowed optimization across cost, benchmarking, and speed dimensions.Added AWS guardrails and knowledge base capabilities.Lesson #1: Users hate typing; provide clickable options.Lesson #2: Users don't like waiting; optimize for speed.Lesson #3: Users take time to trust AI; provide auditable answers.Question about role-based access control and permissions.Co-pilot uses user authentication to access application data.Question about subscription pricing for AI features.Need to educate customers about AI's value proposition.Question about reasoning modes and timing expectations.Showing users the work process makes waiting more tolerable.Participants:Richard Sonnenblick - Chief Data Scientist, PlanviewLee Rehwinkel – Principal Data Scientist, PlanviewSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon/isv/
Anthropic's most advanced AI model yet is now on Amazon Bedrock, plus, multimodal content analysis with Bedrock Data Automation. Keep up with these updates and more on this week's AWS News. Chapters: 00:00:00 - Intro 00:01:02 - Anthropic Claude 3.7 00:03:14 - Amazon Bedrock Data Automation 00:05:54 - Analytics 00:06:50 - Artificial Intelligence 00:09:23 - Compute 00:12:37 - Customer Engagement 00:13:50 - Databases 00:16:11 - Developer Tools 00:17:05 - End User Computing 00:17:23 - Front End Web and Mobile 00:18:31 - Management End Governance 00:19:34 - Migration and Modernization 00:20:43 - Security Identity End Compliance 00:21:56 - Storage 00:22:12 - Outro
Managing security for a device that can autonomously interact with third-party services presents unique orchestration challenges that go beyond traditional IoT security models. In this episode of Detection at Scale, Matthew Domko, Head of Security at Rabbit, gives Jack an in-depth look at building security programs for AI-powered hardware at scale. He details how his team achieved 100% infrastructure-as-code coverage while maintaining the agility needed for rapid product iteration. Matt also challenges conventional approaches to scaling security operations, advocating for a serverless-first architecture that has fundamentally changed how they handle detection engineering. His insights on using private LLMs via Amazon Bedrock to analyze security events showcase a pragmatic approach to AI adoption, focusing on augmentation of existing workflows rather than wholesale replacement of human analysis. Topics discussed: How transitioning from reactive SIEM operations to a data-first security approach using AWS Lambda and SQS enabled Rabbit's team to handle complex orchestration monitoring without maintaining persistent infrastructure. The practical implementation of LLM-assisted detection engineering, using Amazon Bedrock to analyze 15-minute blocks of security telemetry across their stack. A deep dive into security data lake architecture decisions, including how their team addressed the challenge of cost attribution when security telemetry becomes valuable to other engineering teams. The evolution from traditional detection engineering to a "detection-as-code" pipeline that leverages infrastructure-as-code for security rules, enabling version control, peer review, and automated testing of detection logic while maintaining rapid deployment capabilities. Concrete examples of integrating security into the engineering workflow, including how they use LLMs to transform security tickets to match engineering team nomenclature and communication patterns. Technical details of their data ingestion architecture using AWS SQS and Lambda, showing how two well-documented core patterns enabled the team to rapidly onboard new data sources and detection capabilities without direct security team involvement. A pragmatic framework for evaluating where generative AI adds value in security operations, focusing on specific use cases like log analysis and detection engineering where the technology demonstrably improves existing workflows rather than attempting wholesale process automation. Listen to more episodes: Apple Spotify YouTube Website
In this episode of Flying High with Flutter, we're joined by Renaldi Gondosubroto, the author of Amazon Bedrock in Action. Renaldi shares his expertise on Amazon Bedrock, AI/GenAI, and how these tools integrate seamlessly with Flutter. Whether you're curious about implementing AI in your app or want to understand Bedrock's place within the AWS ecosystem, this episode is packed with insights for developers of all levels.
Send Everyday AI and Jordan a text messageWondering if Claude's latest agentic AI is worth it? Computer Use is an agentic AI system that allows you to operate a virtual computer simply by speaking with Claude. We dive in and explain how it works. Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Ask Jordan questions on Claude AIUpcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:1. Overview of Anthropic Claude2. How to Use Claude Computer Use3. Critiques of Anthropic's Tools4. Future of AI AgentsTimestamps:00:00 AI agents essential in businesses by 2025.04:48 Google developing AI agent 'Jarvis'; competition intensifies.10:01 Using an API key; GitHub shares code.11:22 Docker is a versatile containerization tool for developers.15:36 Claude Sonnet 3.5 limits commands despite plans.17:08 Replace placeholder with copied API key.23:17 Demonstrating computer vision on a virtual desktop.25:33 Claude retained information without website visit.29:31 Experiencing repeated errors toggling between applications.30:49 Visit everydayai.com, list latest 3 episodes.35:10 Word document created with AI episode summaries.37:12 Direct AI with simple code; needs improvement.Keywords:Jordan Wilson, Claude AI, language model, Everyday AI Podcast, podcast summaries, document formatting, model interaction, AI errors, AI execution challenges, API key, Docker usage, virtual desktop, Word document creation, live stream, Anthropic updates, Claude free plan, API key security, Docker installation, Service tier levels, GitHub repositories, AI in Business, Claude's updates, Google Project Jarvis, OpenAI, Microsoft, Salesforce Agent Force, Amazon Bedrock, Google Cloud's Vertex AI, AI agents, Application Programming Interfaces. Ready for ROI on GenAI? Go to youreverydayai.com/partner
Generative AI is disrupting industries and automakers are not immune. Daniel Newman and Patrick Moorhead are joined by Amazon Web Services' Karthik Bharathy, Deloitte's Chris Jangareddy, and Toyota's Philip Ryan to discuss the transformative power of generative AI in the automotive industry, AWS's innovative technology like Amazon Bedrock and SageMaker, Deloitte's strategic incorporation of GenAI, and Toyota's strategic imperatives in AI that collectively drive enhanced customer experiences and increased market share. Get their insights on
Amazon's AI strategy came into focus this week with the unveiling of Amazon Nova, its new family of homegrown AI models, a new AI model marketplace for Amazon Bedrock, and other news from the AWS re:Invent conference in Las Vegas. It turns out we've seen this before. As the company's AI strategy emerges, there are numerous similarities to its e-commerce business including low cost, broad selection, products from Amazon and its selected vendors, and a marketplace. (This Fortune piece by reporter Jason Del Rey explores these parallels in detail.) After spending four days in Las Vegas, attending sessions, and talking with AWS executives and attendees, GeekWire co-founders Todd Bishop and John Cook offer their takeaways and dissect Amazon's AI strategy on this episode of the GeekWire Podcast, recorded on location at the GeekWire Studios booth on the show floor. Related links and coverage Apple makes surprise cameo at AWS re:Invent Amazon unveils ‘Nova' AI models, looking to make its mark in the generative AI revolution ‘An easy button to get off Windows': Amazon's new AI moves Microsoft apps to Linux Amazon expands Bedrock with new AI model marketplace, a day after unveiling its own ‘Nova' Edited by Curt Milton. See omnystudio.com/listener for privacy information.
This week, we discuss Intel's CEO “resignation,” the rise of custom silicon, and the biggest announcements from AWS re:Invent. Plus, some thoughts on the simple satisfaction of label makers. Watch the YouTube Live Recording of Episode (https://www.youtube.com/watch?v=7pl48HWsZZA) 496 (https://www.youtube.com/watch?v=7pl48HWsZZA) Runner-up Titles re:Primitives Primitives, Re:invented Chatbots, Call Center Agents and Dev Co-Pilots. Thanksquitting Even the paranoid die Pardon me while I commoditize your business. Being paranoid has nothing to do with it This is a trailing indicator Robotic Cows. ARMchair Quarterbacking (that was funny!) Arm is going to get X86'd One Bill Rundown Intel Intel Announces Retirement of CEO Pat Gelsinger (https://www.businesswire.com/news/home/20241202016400/en/Intel-Announces-Retirement-of-CEO-Pat-Gelsinger) Intel CEO Forced Out After Board Grew Frustrated With Progress (https://www.bloomberg.com/news/articles/2024-12-02/intel-ceo-pat-gelsinger-retires-amid-chipmaker-s-turnaround-plan?embedded-checkout=true) Intel CEO Pat Gelsinger Resigns After Struggling to Turn Around Chip Maker (https://www.wsj.com/tech/intel-ceo-gelsinger-retires-leaves-board-cb2478e6?mod=mhp) Intel CEO takes his leave as ambition meets reality (https://www.theregister.com/2024/12/02/intel_gelsinger_leave/) Are Intel's Problems Too Big to Fix? (https://www.wsj.com/tech/are-intels-problems-too-big-to-fix-442a7dd7) Nvidia Keeps Its Old Chips Selling Hot (https://www.wsj.com/tech/ai/nvidia-keeps-its-old-chips-selling-hot-2596f11e?mod=article_inline) AWS Re:invent 2024 Top announcements of AWS re:Invent 2024 | Amazon Web Services (https://aws.amazon.com/blogs/aws/top-announcements-of-aws-reinvent-2024/) CEO Matt Garman unveils the future of cloud with generative AI and agentic workflows (https://siliconangle.com/2024/12/01/aws-reinvent-2024-ceo-matt-garman-unveils-future-cloud-generative-ai-agentic-workflows/) Introducing queryable object metadata for Amazon S3 buckets (preview) (https://aws.amazon.com/blogs/aws/introducing-queryable-object-metadata-for-amazon-s3-buckets-preview/) Amazon EC2 Trn2 Instances and Trn2 UltraServers for AI/ML training and inference are now available (https://aws.amazon.com/blogs/aws/amazon-ec2-trn2-instances-and-trn2-ultraservers-for-aiml-training-and-inference-is-now-available/) New Amazon Q Developer agent capabilities include generating documentation, code reviews, and unit tests (https://aws.amazon.com/blogs/aws/new-amazon-q-developer-agent-capabilities-include-generating-documentation-code-reviews-and-unit-tests/) Build faster, more cost-efficient, highly accurate models with Amazon Bedrock Model Distillation (preview) (https://aws.amazon.com/blogs/aws/build-faster-more-cost-efficient-highly-accurate-models-with-amazon-bedrock-model-distillation-preview/) New APIs in Amazon Bedrock to enhance RAG applications, now available (https://aws.amazon.com/blogs/aws/new-apis-in-amazon-bedrock-to-enhance-rag-applications-now-available/) New RAG evaluation and LLM-as-a-judge capabilities in Amazon Bedrock (https://aws.amazon.com/blogs/aws/new-rag-evaluation-and-llm-as-a-judge-capabilities-in-amazon-bedrock/) Relevant to your Interests 1Password Interviewing Banks for Possible 2025 Public Offering (https://www.bloomberg.com/news/articles/2024-11-21/1password-interviewing-banks-for-possible-2025-public-offering) FTC reportedly opens antitrust investigation into Microsoft | TechCrunch (https://techcrunch.com/2024/11/27/ftc-reportedly-opens-antitrust-investigation-into-microsoft/?utm_source=dlvr.it&utm_medium=bluesky) This $89 Wi-Fi router is designed to let you run whatever firmware you want (https://www.theverge.com/2024/12/2/24310967/openwrt-one-wi-fi-router-available-price-software-freedom-conservancy) Some Simple Economics of the Google Antitrust Case - Marginal REVOLUTION (https://marginalrevolution.com/marginalrevolution/2024/12/some-simple-economics-of-the-google-antitrust-case.html?utm_source=rss&utm_medium=rss&utm_campaign=some-simple-economics-of-the-google-antitrust-case) Modern Work Fucking Sucks. (https://www.joanwestenberg.com/modern-work-fucking-sucks/) Broadcom Announces the General Availability of VMware Tanzu Platform (https://blogs.vmware.com/tanzu/broadcom-announces-the-general-availability-of-vmware-tanzu-platform-10-making-it-easier-for-customers-to-build-and-launch-new-applications-in-the-private-cloud/) Gartner Identifies Top Three Priorities for CMOs to Deliver Marketing Excellence in 2025 (https://www.gartner.com/en/newsroom/press-releases/2024-12-03-gartner-identifies-top-three-priorities-for-cmos-to-deliver-marketing-excellence-in-2025) Data resilience firm Veeam scores $15B valuation in $2B secondary sale (https://techcrunch.com/2024/12/04/data-resilience-company-veeam-valued-at-15bn-after-2bn-secondary-sale/) LogicMonitor's massive $800M raise shows AI is driving the demand monitoring (https://techcrunch.com/2024/11/20/logic-monitor-massive-800m-raise-shows-ai-drives-demand-for-data-center-monitoring/) Nonsense Drones With Legs Can Walk, Hop, and Jump Into the Air (https://spectrum.ieee.org/bird-drone) How Murderbot Saved Martha Wells' Life (https://www.wired.com/story/murderbot-she-wrote-martha-wells/) Conferences CfgMgmtCamp (https://cfgmgmtcamp.org/ghent2025/), February 2-5, 2025. DevOpsDayLA (https://www.socallinuxexpo.org/scale/22x/events/devopsday-la) at SCALE22x (https://www.socallinuxexpo.org/scale/22x), March 6-9, 2025, discount code DEVOP SDT News & Community Join our Slack community (https://softwaredefinedtalk.slack.com/join/shared_invite/zt-1hn55iv5d-UTfN7mVX1D9D5ExRt3ZJYQ#/shared-invite/email) Email the show: questions@softwaredefinedtalk.com (mailto:questions@softwaredefinedtalk.com) Free stickers: Email your address to stickers@softwaredefinedtalk.com (mailto:stickers@softwaredefinedtalk.com) Follow us on social media: Twitter (https://twitter.com/softwaredeftalk), Threads (https://www.threads.net/@softwaredefinedtalk), Mastodon (https://hachyderm.io/@softwaredefinedtalk), LinkedIn (https://www.linkedin.com/company/software-defined-talk/), BlueSky (https://bsky.app/profile/softwaredefinedtalk.com) Watch us on: Twitch (https://www.twitch.tv/sdtpodcast), YouTube (https://www.youtube.com/channel/UCi3OJPV6h9tp-hbsGBLGsDQ/featured), Instagram (https://www.instagram.com/softwaredefinedtalk/), TikTok (https://www.tiktok.com/@softwaredefinedtalk) Book offer: Use code SDT for $20 off "Digital WTF" by Coté (https://leanpub.com/digitalwtf/c/sdt) Sponsor the show (https://www.softwaredefinedtalk.com/ads): ads@softwaredefinedtalk.com (mailto:ads@softwaredefinedtalk.com) Recommendations Brandon: Apple AirTags (https://www.apple.com/airtag/?afid=p238%7CssctkrMBT-dc_mtid_1870765e38482_pcrid_593101533960_pgrid_120928559493_pntwk_g_pchan__pexid__ptid_kwd-836438321478_&cid=aos-us-kwgo-btb--slid---product-) Cloud News of the Month - November 2024 (https://www.thecloudcast.net) Matt: Factorio: Space Age (https://factorio.com/) Coté: Claude (https://claude.ai) is great for D&D. Platform Engineering and UK Digital People, with Abby Bangser (https://www.softwaredefinedinterviews.com/88) Photo Credits Header (https://unsplash.com/photos/a-box-with-a-label-on-it-E_dvFxEX9XU) Artwork (https://unsplash.com/photos/intel-computer-processor-in-selective-color-photography-0uXzoEzYZ4I)
At Amazon's reInvent conference the company unveiled a range of AI-centric innovations. AWS CEO Matt Garman highlighted the transformative potential of generative AI across various industries, introducing Amazon Bedrock, which aims to streamline model training and reduce costs. The new Nova family of foundation models, including Nova Micro, Nova Lite, and Nova Premier, was also announced, showcasing AWS's commitment to enhancing AI capabilities. Additionally, updates to Q-Business, AWS's AI assistant, promise seamless integration with over 40 enterprise tools, enhancing workflow efficiency.The episode also delves into AWS's hardware advancements, particularly the Graviton processor, which offers significant improvements in price performance and energy efficiency. New instances featuring NVIDIA's Blackwell chips and the launch of Tranium 2, AWS's second-generation AI chip, further emphasize the company's focus on supporting AI workloads. To address reliability concerns, AWS introduced automated reasoning to combat AI hallucinations and model distillation for efficient multi-agent collaboration. Furthermore, AWS's new Aurora DSQL engine and Data Transfer Terminal locations aim to enhance data processing and storage capabilities.Shifting gears, Host Dave Sobel discusses a major cyber attack on U.S. telecommunications companies, urging the use of encrypted messaging apps to safeguard communications. The hacking campaign, attributed to China, has raised significant privacy concerns, with officials recommending encryption to protect sensitive information. The episode also touches on the role of AI in the recent global elections, where despite fears of misinformation, AI was utilized positively for language translation and voter engagement, highlighting a more balanced narrative than anticipated.Finally, the episode explores broader industry trends, including Intel's challenges following the forced exit of its CEO and the potential resurgence of monolithic architectures as companies reconsider the complexities of microservices. Sobel emphasizes the evolving role of IT departments, which are gaining recognition and influence within organizations due to the rise of AI. The discussion encourages listeners to reflect on their technology choices, partnerships, and the strategic contributions of IT in navigating these changes.Three things to know today00:00 Amazon Unveils AI-Centric Updates at re:Invent: Nova Models, Hardware Breakthroughs, and Legacy System Modernization06:04 Balancing Risks and Relief: Encryption and AI Oversight Take Center Stage in 2024's Security Landscape08:41 From Intel's Future to Microservices' Decline and IT's Strategic Rise Supported by: http://blumira.com/radio/https://www.coreview.com/msp All our Sponsors: https://businessof.tech/sponsors/ Do you want the show on your podcast app or the written versions of the stories? Subscribe to the Business of Tech: https://www.businessof.tech/subscribe/Looking for a link from the stories? The entire script of the show, with links to articles, are posted in each story on https://www.businessof.tech/ Support the show on Patreon: https://patreon.com/mspradio/ Want to be a guest on Business of Tech: Daily 10-Minute IT Services Insights? Send Dave Sobel a message on PodMatch, here: https://www.podmatch.com/hostdetailpreview/businessoftech Want our stuff? Cool Merch? Wear “Why Do We Care?” - Visit https://mspradio.myspreadshop.com Follow us on:LinkedIn: https://www.linkedin.com/company/28908079/YouTube: https://youtube.com/mspradio/Facebook: https://www.facebook.com/mspradionews/Instagram: https://www.instagram.com/mspradio/TikTok: https://www.tiktok.com/@businessoftechBluesky: https://bsky.app/profile/businessof.tech
Have you ever wondered what it takes to transform data management into a fearless, innovative journey that empowers businesses to thrive in a data-driven world? In this episode, I'm joined by Alberto Pan Executive VP & CTO at Denodo, a global leader in logical data management and integration. Alberto takes us through Denodo's remarkable growth story and its groundbreaking innovations, including the Denodo 9 Platform and its recent advancements in Generative AI. As businesses grapple with the complexities of Generative AI, Denodo is stepping up with pioneering solutions. Alberto discusses how their collaborations with Google Cloud Vertex AI, Amazon Bedrock, Nvidia, and OpenAI are revolutionizing enterprise AI initiatives. Through Retrieval Augmented Generation (RAG), Denodo is enhancing AI applications by connecting large language models with up-to-date corporate data, addressing challenges like security, privacy, and query accuracy. These advancements not only enable the creation of intelligent virtual assistants but also significantly improve enterprise AI's ability to meet real-world business needs. Alberto also shares the unique features that set Denodo apart, emphasizing the value of its logical data platform for delivering data at the speed of business. From real-time unified data access to a semantic layer that ensures accuracy and governance, Denodo's innovations are driving efficiency and ROI for organizations across industries. We'll also explore future trends in enterprise AI, from the importance of solid data foundations to the increasing convergence of structured and unstructured data. With insights into Denodo's partnerships and tools like the Denodo AI SDK, this episode is packed with actionable takeaways for anyone navigating the rapidly evolving data landscape. How do you see Generative AI shaping the future of data management? Tune in to the discussion, and let us know your thoughts!
In this episode, Sandy Vance interviews Parminder “Parry” Bhatia, Chief AI Officer at GE Healthcare, about the integration of generative AI and machine learning in healthcare. They discuss the transformative potential of these technologies in improving clinical efficiency, reducing burnout, and enhancing patient care. Parminder shares insights on recent innovations, the concept of agentic AI, and the importance of responsible AI practices in ensuring safe and effective healthcare solutions. The discussion highlights GE Healthcare's commitment to advancing AI technologies while maintaining a focus on ethical considerations and collaboration with clinical partners.In this Episode they discuss:GE Healthcare is leading in AI and machine learning integration.Generative AI is set to revolutionize healthcare data management.AI technologies can significantly reduce clinical burnout.The Care Intellect application enhances oncology care efficiency.Agentic AI offers proactive solutions in complex healthcare scenarios.Responsible AI practices are crucial for building trust in technology.AI can streamline workflows and improve patient experiences.Collaboration with clinical partners is essential for innovation.The AI Innovation Lab fosters early-stage research and development.GE Healthcare aims to enhance healthcare delivery for over a billion patients.About Parminder "Parry" Bhatia: At GE HealthCare, Parminder is focused on integrating AI across areas including smart devices, across the patient journey, and at the hospital operation level.GE HealthCare has a long track record innovating in AI, and has topped the Food and Drug Administration's (FDA) list of AI-enabled medica devices for three years in a row, with 80+ AI-enabled medical device authorizations. Parminder leads a team that is helping to advance AI integration within medical devices at GE HealthCare, with the ultimate goal of enhancing patient outcomes and creating a world where healthcare has no limits. Parry is part of the company's internal committee on responsible AI to help ensure that new AI applications are reliable, scalable, and ethically sound. He has been recognized by the AIM “AI 100” 2024 Awards and Constellation Research's Artificial Intelligence 150 “AI 150” list.Previously, Parminder was Head of Science for Generative AI at Amazon, where he led the development of machine learning and generative AI products including Amazon Comprehend Medical for analyzing medical record data at scale, Amazon Q for developer productivity, and Amazon Bedrock for democratizing access to Large Language Model technologies globally.He has held previous roles in AI and machine learning at Microsoft and Georgia Tech.
Register here for AWS re:Invent 2024, Dec 2-6, Las Vegas, NV-------Benjamin Flast, Director, Product Management at MongoDB discusses vector search capabilities, integration with AWS Bedrock, and its transformative role in enabling scalable, efficient, and AI-powered solutions.Topics Include:Introduction to MongoDB's vector search and AWS BedrockCore concepts of vectors and embeddings explainedHigh-dimensional space and vector similarity overviewEmbedding model use in vector creationImportance of distance functions in vector relationsVector search uses k-nearest neighbor algorithmEuclidean, Cosine, and Dot Product similarity functionsApplications for different similarity functions discussedLarge language models and vector search explainedIntroduction to retrieval-augmented generation (RAG)Combining external data with LLMs in RAGMongoDB's document model for flexible data storageMongoDB Atlas platform capabilities overviewUnified interface for MongoDB document modelApproximate nearest neighbor search for efficiencyVector indexing in MongoDB for fast queryingSearch nodes for scalable vector search processingMongoDB AI integrations with third-party librariesSemantic caching for efficient response retrievalMongoDB's private link support on AWS BedrockFuture potential of vector search and RAG applicationsExample use case: Metaphor Data's data catalogExample use case: Okta's conversational interfaceExample use case: Delivery Hero product recommendationsFinal takeaways on MongoDB Atlas vector searchParticipants:Benjamin Flast - Director, Product Management, MongoDBSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon/isv/
Register here for AWS re:Invent 2024, Dec 2-6, Las Vegas, NV-------David Gildea of Druva shares their approach to building cost-effective, fast generative AI applications, focusing on cybersecurity, data protection, and the innovative use of LLMs for simplified, natural language threat detection.Topics Include:Introduction by Dave Gildea, VP of Product at Druva.Focus on building generative AI applications.Emphasis on cost and speed optimization.Mention of Amazon's Matt Wood keynote.AI experience with kids using "Party Rock."Prediction: GenAI as future workplace standard.Overview of Druva's data security platform.Three key Druva components: protection, response, and compliance.Druva's autonomous, rapid, and guaranteed recovery.Benefits of Druva's 100% SaaS platform.Handling 7 billion backups annually.Managing 450 petabytes across 20 global regions.Druva's high NPS score of 89.Introduction to Dru Investigate AI platform.Generative AI for cybersecurity and threat analysis.Support for backup and security admins.Simplified cybersecurity threat detection.AI-based natural language query interpretation.Historical analogy with Charles Babbage's steam engine."Fail upwards" model for LLM optimization.Using small models first, escalating to larger ones.API security and customer data protection.Amazon Bedrock and security guardrails.Testing LLMs with Amazon's new prompt evaluation tool.Speculation on $100 billion future model costs.Session wrap upParticipants:· David Gildea - VP Product Generative AI, GM of CloudRanger, DruvaSee how Amazon Web Services gives you the freedom to migrate, innovate, and scale your software company at https://aws.amazon/isv/
Send Everyday AI and Jordan a text messageWanna learn Claude's new agentic AI? Got 30ish minutes? This is the show for you then. In short -- Computer Use is an agentic AI system where you can control a virtual computer just by talking to Claude. Join us as we break it down. Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Ask Jordan questions on Claude AIUpcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:1. Overview of Anthropic Claude2. How to Use Claude Computer Use3. Critiques of Anthropic's Tools4. Future of AI AgentsTimestamps:00:00 AI agents essential in businesses by 2025.04:48 Google developing AI agent 'Jarvis'; competition intensifies.10:01 Using an API key; GitHub shares code.11:22 Docker is a versatile containerization tool for developers.15:36 Claude Sonnet 3.5 limits commands despite plans.17:08 Replace placeholder with copied API key.23:17 Demonstrating computer vision on a virtual desktop.25:33 Claude retained information without website visit.29:31 Experiencing repeated errors toggling between applications.30:49 Visit everydayai.com, list latest 3 episodes.35:10 Word document created with AI episode summaries.37:12 Direct AI with simple code; needs improvement.Keywords:Jordan Wilson, Claude AI, language model, Everyday AI Podcast, podcast summaries, document formatting, model interaction, AI errors, AI execution challenges, API key, Docker usage, virtual desktop, Word document creation, live stream, Anthropic updates, Claude free plan, API key security, Docker installation, Service tier levels, GitHub repositories, AI in Business, Claude's updates, Google Project Jarvis, OpenAI, Microsoft, Salesforce Agent Force, Amazon Bedrock, Google Cloud's Vertex AI, AI agents, Application Programming Interfaces. Get more out of ChatGPT by learning our PPP method in this live, interactive and free training! Sign up now: https://youreverydayai.com/ppp-registration/
Send Everyday AI and Jordan a text messageAI can use computers now? Yup. With Claude 3.5 Sonnet updates, Anthropic's LLM now has access to 'Computer Use.' Is this new mode going to change how we use LLMs? And what else is noteworthy with Claude's new updates in 3.5? We'll go over it all. Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Ask Jordan questions on Anthropic ClaudeUpcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:1. Claude 3.5 Updates2. Computer Use Feature3. API and Pricing4. Model Benchmarks5. Potential for Business ApplicationsTimestamps:02:15 Daily AI news05:10 New updates from Anthropic06:32 Claude excels in human-like writing, lacks connectivity.09:56 Claude 3.5 updates: SONNET new, now labeled.11:36 New computer use excels with unstructured data.14:39 Discuss Anthropic's unique API and pricing strategy.18:13 Claw 3.5 SONNET excels in benchmark comparisons.23:07 Cherry-picking without fair benchmarks undermines credibility.26:33 PPP course improves prompt usage effectively.27:37 Model omitted; operates logically using chain-of-thought.31:17 Anthropic omitted model to avoid poor benchmarks.37:09 Automated research and planning for sunrise viewing.39:40 New tech handles errors; works with unstructured data.43:44 Utilizes screenshots for computer vision, correcting issues.46:02 Using the API quickly exhausts token limits.48:38 Evaluate potential business impact of Anthropic's feature.Keywords:Anthropic, AI technology, programming a virtual computer, future implications for businesses, OpenAI, shipping product in beta, SONNET 35, Haiku 35, AI in future work environments, daily AI newsletter, computer use feature, Robotics Process Automation (RPA), API and Pricing, Claude 3.5 SONNET, benchmarks, community engagement, Jordan Wilson, Claude's natural language interface, Docker, Amazon Bedrock, Google Cloud's Vertex AI, MMLU Benchmark, Coding Benchmark, Math Problem Solving, Chain of Thought Reasoning, Host's Opinion, Prime Prompt Polish Course, Stability AI, Midjourney, Canva Get more out of ChatGPT by learning our PPP method in this live, interactive and free training! Sign up now: https://youreverydayai.com/ppp-registration/
AWS Morning Brief for the week of October 21, with Corey Quinn. Links:Amazon CloudFront launches support for JA4 fingerprintingAmazon EC2 Dedicated Hosts now supports live migration-based host maintenanceAmazon EFS now supports up to 60 GiB/s (a 2x increase) of read throughputAnnouncing Amazon Q in AWS Supply ChainAmazon S3 adds new Region and bucket name filtering for the ListBuckets APIAssign billing of your shared Amazon EC2 On-Demand Capacity ReservationsAWS Resource Explorer introduces new API to list resource inventoryAWS Transfer Family SFTP connectors now provide real-time status of file transfer operationsFinch expands support to Linux, streamlining container development across platformsUbuntu Pro for EC2 Spot InstancesInnovating with AI in Regulated IndustriesImprove public speaking skills using a generative AI-based virtual assistant with Amazon Bedrock