Podcasts about vertex ai

  • 84PODCASTS
  • 136EPISODES
  • 30mAVG DURATION
  • 1EPISODE EVERY OTHER WEEK
  • Aug 14, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about vertex ai

Latest podcast episodes about vertex ai

Eccles Business Buzz
RERUN: S7E9. Using AI Agents and Models Effectively feat. Derek Egan

Eccles Business Buzz

Play Episode Listen Later Aug 14, 2025 27:16


As we prepare for a brand new season of Eccles Business Buzz launching this fall, we're bringing back some of your favorite episodes from our archive. In this series of conversations from Season 7 about Artificial Intelligence and how it's changing the world around us, Frances talks to an AI engineer at Google about the ins and outs of the newest crop of AI models and agents.Joining the show to give an insider's perspective is Derek Egan. Derek is on the Vertex AI team at Google Cloud where he works on helping developers build generative AI-powered agents for their own applications. Derek is also a graduate of the David Eccles School of Business with a degree in Operations Management. David and Frances discuss the difference between models and agents, and why humans are still very much integral to the process. They address the strengths and weaknesses of these types of systems and the ways in which they might be used by organizations most effectively to help them work more efficiently. Derek speaks to the realistic worries of some AI critics and gives some of his own real-life examples of how AI agents help streamline his work life and personal life. Eccles Business Buzz is a production of the David Eccles School of Business and is produced by University fm.Show Links:Derek Egan | LinkedInVertex AI | Google CloudMaster of Science in Business Analytics - The David Eccles School of BusinessDavid Eccles School of Business (@ubusiness) • InstagramEccles Alumni Network (@ecclesalumni) • Instagram Eccles Experience Magazine

Les Cast Codeurs Podcast
LCC 329 - L'IA, ce super stagiaire qui nous fait travailler plus

Les Cast Codeurs Podcast

Play Episode Listen Later Aug 14, 2025 120:24


Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

time community ai power google uk internet guide france pr building spring data elon musk microsoft chatgpt attention mvp phase dans construction agent tests windows bay area ces patterns tout tea ia pas limitations faire distribution openai gemini extension runner nvidia passage rust blue sky api retour conf agile cela python gpt toujours sb nouveau ml unis linux java trois github priorit guillaume mieux activation int libert aur jest selon savoir num donner valid armin bom lam certains javascript exposition documentation apache opus mod donc llm nouvelles arnaud prise contr changement cpu maven nouveaux gpu m1 parfois travailler google cloud ast exp dns normandie certaines tester aff cinq vall construire counted sql principales lorsqu verified grok moser node git loi utiliser pdg sujet cloudflare sortie afin sig lancement anthropic fen deepmind accepter ssl gitlab axes spel optimisation enregistr mocha mongodb toutefois ci cd modules json capacit configuration mistral xai paris france permet aot orta cli github copilot objet mcp comportement utilisation repenser montrer capitole enregistrement prd fuite jit ecrire appels favoriser fixe firebase sse commande oauth crud jep vache oci bgp jetbrains bitwarden swe nuage github actions windsurf livrer propuls faille mistral ai xss a2a optimis mocker remplacement websockets stagiaire automatiser chris perry cvss devcon revues spring boot personnalisation tom l jdk lyon france vertex ai adk podman jfr bordeaux france profilage amazon bedrock diagramme script editor junit clis dockerfile javaone provence france testcontainers toulouse france strasbourg france github issues commonjs lille france codeurs micrometer sourcetree dijon france devoxx france
Angular Master Podcast
AMP 74: Devin Chasanoff on Angular 20+ (Live from Google I/O Connect Berlin!)

Angular Master Podcast

Play Episode Listen Later Aug 7, 2025 19:58


Cloud N Clear
Navigating the AI-Augmented Developer Landscape | EP 204

Cloud N Clear

Play Episode Listen Later Jul 29, 2025 22:48


What happens after AI helps you write code faster? You create a bottleneck in testing, security, and operations. In part two of their conversation, SADA's Simon Margolis and Google Cloud's Ameer Abbas tackle this exact problem. They explore how Google's AI strategy extends beyond the developer's keyboard with Gemini Code Assist and Cloud Assist, creating a balanced and efficient software lifecycle from start to finish. We address the burning questions about AI's impact on the software development ecosystem: Is AI replacing developers? What does the future hold for aspiring software engineers? Gain insights on embracing AI as an augmentation tool, the concept of "intentional prompting" versus "vibe coding," and why skilled professionals are more crucial than ever in the enterprise. This episode offers practical advice for enterprises on adopting AI tools, measuring success through quantitative and qualitative metrics, and finding internal champions to drive adoption. We also peek into the near future, discussing the evolution towards AI agents capable of multi-step inferencing and full automation for specific use cases. Key Takeaways: Gemini Code Assist: AI for developer inner-loop productivity, supporting various IDEs and SCMs. Gemini Cloud Assist: AI for cloud operations, cost optimization, and incident resolution within GCP. AI's Role in Development: Augmentation, not replacement; the importance of human agency and prompting skills. Enterprise Adoption: Strategies for integrating AI tools, measuring ROI, and fostering a culture of innovation. The Future: Agents with multi-step inferencing, automation for routine tasks, and background AI processes. Relevant Links: Blog: A framework for adopting Gemini Code Assist and measuring its impact Gemini Code Assist product page Gemini Cloud Assist product page Listen now to understand how AI is shaping the future of software delivery! Join us for more content by liking, sharing, and subscribing!

Cloud N Clear
AI in the Enterprise: Reshaping How Developers Work | EP 203

Cloud N Clear

Play Episode Listen Later Jul 15, 2025 22:46


Is generative AI just another tool in the belt, or is it a fundamental transformation of the developer profession? We kick off a two-part special to get to the bottom of how AI is impacting the enterprise. SADA's Associate CTO of AI & ML, Simon Margolis, sits down with Ameer Abbas, Senior Product Manager at Google Cloud, for an insider's look at the future of software development. They cut through the noise to discuss how tools like Gemini Code Assist are moving beyond simple code completion to augment the entire software delivery lifecycle, solving real-world challenges and changing the way we think about productivity, quality, and automation. In this episode, you'll learn: What Gemini Code Assist is and the broad range of developer personas it serves. The critical debate: Is AI augmenting developer skills or automating their jobs? How to leverage AI for practical enterprise challenges like application modernization, improving test coverage, and tackling technical debt. Why the focus is shifting from developer productivity to overall software delivery performance. Ameer's perspective on the future of development careers and why students should lean into AI, not fear it. The limitations of "vibe coding" and the need for intentional, high-quality AI prompting in a corporate environment.   Join us for more content by liking, sharing, and subscribing!

Critical Thinking - Bug Bounty Podcast
Episode 130: Minecraft Hacks to Google Hacking Star - Valentino

Critical Thinking - Bug Bounty Podcast

Play Episode Listen Later Jul 10, 2025 68:26


Episode 130: In this episode of Critical Thinking - Bug Bounty Podcast Justin is joined by Valentino, who shares his journey from hacking Minecraft to becoming a Google hunter. He talks us through several bugs, including an HTML Sanitizer bypass and .NET deserialization, and highlights the hyper creative approaches he tends to employ.Follow us on twitter at: https://x.com/ctbbpodcastGot any ideas and suggestions? Feel free to send us any feedback here: info@criticalthinkingpodcast.ioShoutout to YTCracker for the awesome intro music!====== Links ======Follow your hosts Rhynorater and Rez0 on Twitter:https://x.com/Rhynoraterhttps://x.com/rez0__====== Ways to Support CTBBPodcast ======Hop on the CTBB Discord at https://ctbb.show/discord!We also do Discord subs at $25, $10, and $5 - premium subscribers get access to private masterclasses, exploits, tools, scripts, un-redacted bug reports, etc.You can also find some hacker swag at https://ctbb.show/merch!Today's Sponsor: ThreatLocker - Patch Managementhttps://www.criticalthinkingpodcast.io/TL-patch-managementToday's Guest: Valentino - https://blog.3133700.xyz/====== Resources ======JMX ManagerStored XSS in reclamosCommand Injection in Vertex AIwhitepaper-net-deser.pdffree-after-use.goA Journey Into Finding Vulnerabilities in the PMB Library Management Systememulated-register_globals.php====== Timestamps ======(00:00:00) Introduction(00:02:38) JMXProxy Bug Story(00:09:46) Intro to Valentino(00:29:08) HTML Sanitizer bypass on MercadoLibre(00:37:16) Command injection in Vertex AI(00:44:10) .NET deserialization, & Argument injection to LFR, & Free after use(00:51:33) Luck, creativity, and evolution as Hacker(00:59:31) Issues in file extension validation components, Emulated register_globals, & AI Hacking

Techzine Talks
Cognizant en Google Cloud slaan brug tussen AI-visie en praktijk met AI-lab

Techzine Talks

Play Episode Listen Later Jul 7, 2025 29:39


In deze aflevering van Techzine Talks bespreken hosts Coen van Eenbergen en Sander Almekinders het AI-lab dat Cognizant in samenwerking met Google Cloud heeft ontwikkeld in Amsterdam. Bart Moens (Solutions Specialist Data & AI bij Cognizant) en Hendrik Jan Hunink (Head of Channel Sales bij Google Cloud Benelux) vertellen over deze innovatieve faciliteit waar bedrijven kunnen experimenteren met AI in een veilige omgeving.Ontdek hoe het AI-lab van Cognizant en Google Cloud bedrijven helpt met hun AI-transformatie. In deze aflevering van Techzine Talks hoor je hoe organisaties in slechts twee dagen een werkend AI-prototype kunnen ontwikkelen. Al meer dan 250 professionals van zo'n 20 bedrijven hebben het lab bezocht om hun AI-mogelijkheden te verkennen en concrete oplossingen te creëren.Luister naar experts Bart Moens en Hendrik Jan Hunink over hoe het lab werkt, welke resultaten klanten behalen, en hoe je jouw organisatie kunt voorbereiden op een succesvolle AI-implementatie.Hoofdstukken:00:00 Introductie 01:17 Wat is het Cognizant AI-lab? 03:36 De waarde van het AI-lab voor bedrijven 05:54 Werken met echte klantdata 07:43 Datastructuur en -vereisten 10:24 AI-agents en automatisering 13:42 Schaalbaarheid van AI-oplossingen 15:37 Kennisbehoud met AI 18:59 Voor welke organisaties is het lab geschikt? 21:42 Van prototype naar productie 24:37 Technische aspecten en integratie 26:30 Data Transformer AwardsBelangrijkste punten:- Het AI-lab is opgericht door Cognizant in samenwerking met Google Cloud om bedrijven te helpen experimenteren met AI in een veilige omgeving.- In slechts twee dagen kunnen bedrijven een werkend prototype ontwikkelen dat ze kunnen meenemen en verder uitbouwen.- Meer dan 250 mensen van zo'n  20 bedrijven hebben het lab al bezocht voor inspiratie en concrete AI-implementaties.- Het lab werkt met echte klantdata (waar mogelijk) om realistische resultaten te leveren.- Organisaties kunnen starten met kleine use cases en deze later opschalen naar grotere bedrijfstoepassingen.- Populaire toepassingen zijn documentbeheer, kennisbehoud van vertrekkende medewerkers, en automatisering van processen.- Gereguleerde industrieën zoals farmacie en banken zijn vroege adopters van de AI-toepassingen.- De combinatie van Cognizant's industrie-expertise en Google's AI-technologie zorgt voor waardevolle oplossingen.- Na het lab kunnen bedrijven kiezen voor verdere ondersteuning bij implementatie en integratie met bestaande systemen.

Rebuild
408: Democratize Coding for $200 a Month (yuka)

Rebuild

Play Episode Listen Later Jun 5, 2025 114:58


Yuka Ohishi さんをゲストに迎えて、Google I/O, Android XR, MCP, Claude Code, Vibe Coding, WWDC などについて話しました。 Show Notes TURTLE TOWER - Vietnamese Google I/O 2025 keynote in 32 minutes Google AI Studio vs. Vertex AI vs. Gemini Veo - Google DeepMind This Film Was Made Entirely With Runway AI and Google's Veo. It Nearly Broke Us. - WSJ Build | Google AI Studio Sam and Jony introduce io | OpenAI Code with Claude 2025 Rebuild: 391: Miyagawa Intelligence (yuka) Model Context Protocol simonw/llm: Access large language models from the command-line Claude Code: Deep Coding at Terminal Velocity - Anthropic Introducing GitHub Copilot agent mode (preview) For Some Recent Graduates, the A.I. Job Apocalypse May Already Be Here Why this leading AI CEO is warning the tech could cause mass unemployment | CNN Claude (referral code) Daring Fireball: The Talk Show Live From WWDC 2025: Tuesday June 10 Daring Fireball: Something Is Rotten in the State of Cupertino iOS 26, macOS 26, watchOS 26, iPadOS 26: Apple to Rebrand Device Software Sky app The Sky's the Limit

The Cloud Pod
306: Batch Better Have MySQL: Azure’s Maintenance Makeover

The Cloud Pod

Play Episode Listen Later Jun 5, 2025 94:13


Welcome to episode 306 of The Cloud Pod – where the forecast is always cloudy!  This week, we have a bunch of announcements concerning the newest offering from Anthropic – Claude Sonnet 4 and Opus 4, plus container security, Azure MySQL Maintenance, Vertex AI, and Mistral AI. Plus, we've got a Cloud Journey installment AND an aftershow – so get comfy and get ready for a trip to the clouds! Titles we almost went with this week: ECS Failures Now Have 4x the Excuses Nailing Down Your Container Security, One Patch at a Time HashiCorp’s New Recipe: Terraform, AI, and a Pinch of MCP Teaching an Old DNS New IPv6 Tricks Dash-ing through the Klusters, in an AWS Console Google’s Generative AI Playground Gets a Glow-Up Vertex AI Studio: Now with 200% More Darkness! Like our souls Claude Opus 4 Strikes a Chord on Google Cloud Sovereign-teed to Please: Google Cloud’s Royal Treatment Google’s Cloud Kingdom Expands its Borders Shall I Compare Thee to a Summer’s AI? Anthropic Drops Sonne(t) 4 Knowledge on Vertex Mistral AI Chats Up a Storm on Google Cloud Google Cloud’s Vertex AI Gets a Dose of Mistral Magic .NET Aspire on Azure: The App Service Strikes Back Default Outbound Access Retires, Decides Florida Isn’t for Everyone  AI Is Going Great – or How ML Makes Money  01:52 Introducing Claude 4 Claude has launched the latest models in Claude Opus 4 and Claude Sonnet 4, setting new standards for coding, advancing reasoning and AI agents. Maybe they'll actually follow instructions when told to shut down? (Looking at you, ChatGPT.) Claude Opus 4 is “the world's best coding model” with sustained performance on complex, long-running tasks and agent workflows.  Opus 4 has 350 billion parameters, making it one of the largest publicly available language models.  It demonstrates strong performance on academic benchmarks, including research.  Sonnet 4 is a smaller 10 billion parameter model optimized for dialogue, making it well-suited for conversational AI applications.  Alongside the models, they are also announcing: Extended thinking with tool use (beta): Both models can use tools – like web search – during extended thinking, allowing Claude to alternate between reasoning and tool use to improve its responses. New Model Capabilities: Both models can use tools in parallel, follow instructions more precisely, and when given access to local files by developers — demonstrate significantly improved memory capabilities, extracting and saving key facts maintain continuity and build tacit knowledge over time Claude code is now generally available: After receiving extensive positive feedback during our research preview, they are expanding how developers can collaborate with Claude.  Claude code now supports background tasks via gith

The New Stack Podcast
Google Cloud Next Wrap-Up

The New Stack Podcast

Play Episode Listen Later May 22, 2025 18:22


At the close of this year's Google Cloud Next, The New Stack's Alex Williams, AI editor Frederic Lardinois, and analyst Janakiram MSV discussed the event's dominant theme: AI agents. The conversation focused heavily on agent frameworks, noting a shift from last year's third-party tools like Langchain, CrewAI, and Microsoft's Autogen, to first-party offerings from model providers themselves. Google's newly announced Agent Development Kit (ADK) highlights this trend, following closely on the heels of OpenAI's agent SDK. MSV emphasized the significance of this shift, calling it a major milestone as Google joins the race alongside Microsoft and OpenAI. Despite the buzz, Lardinois pointed out that many companies are still exploring how AI agents can fit into real-world workflows. The panel also highlighted how Google now delivers a full-stack AI development experience — from models to deployment platforms like Vertex AI. New enterprise tools like Agent Space and Agent Garden further signal Google's commitment to making agents a core part of modern software development. Learn more from The New Stack about the latest in AI agents: How AI Agents Will Change the Web for Users and Developers AI Agents: A Comprehensive Introduction for Developers AI Agents Are Coming for Your SaaS Stack Join our community of newsletter subscribers to stay on top of the news and at the top of your game. 

The New Stack Podcast
Google Cloud Therapist on Bringing AI to Cloud Native Infrastructure

The New Stack Podcast

Play Episode Listen Later May 8, 2025 24:04


At Google Cloud Next, Bobby Allen, Group Product Manager for Google Kubernetes Engine (GKE), emphasized GKE's foundational role in supporting AI platforms. While AI dominates current tech conversations, Allen highlighted that cloud-native infrastructure like Kubernetes is what enables AI workloads to function efficiently. GKE powers key Google services like Vertex AI and is trusted by organizations including DeepMind, gaming companies, and healthcare providers for AI model training and inference. Allen explained that GKE offers scalability, elasticity, and support for AI-specific hardware like GPUs and TPUs, making it ideal for modern workloads. He noted that Kubernetes was built with capabilities—like high availability and secure orchestration—that are now essential for AI deployment. Looking forward, GKE aims to evolve into a model router, allowing developers to access the right AI model based on function, not vendor, streamlining the development experience. Allen described GKE as offering maximum control with minimal technical debt, future-proofed by Google's continued investment in open source and scalable architecture.Learn more from The New Stack about the latest insights with Google Cloud: Google Kubernetes Engine Customized for Faster AI WorkKubeCon Europe: How Google Will Evolve Kubernetes in the AI EraApache Ray Finds a Home on the Google Kubernetes EngineJoin our community of newsletter subscribers to stay on top of the news and at the top of your game. 

Supermanagers
AI Digs For Insights From Unstructured Data With Philippe Dame of Recollective

Supermanagers

Play Episode Listen Later May 1, 2025 65:34


Subscribe at Thisnewway.com to get the step-by-step AI workflows.In episode 3 of This New Way, Aydin sits down with Philippe Dame, CPO of Recollective, to unpack how AI is transforming qualitative market-research, sales operations, internal knowledge-sharing, and day-to-day productivity.Phil walks through the product pivot that turned Recollective's vast unstructured data into an “AI-first” insights engine, then demos a stack of no-code automations — from AI-powered lead scoring in Google Sheets to a self-serve Vertex AI search that makes every doc, deck, and Gong call instantly searchable.You'll hear concrete play-by-plays, see cost breakdowns , and learn how to start small, scale fast, and turn AI into a force-multiplier across your org.Timestamps:00:35 Phil's background and early web-tool days01:44 Pivot to Recollective and focus on market-research tech03:18 Why hybrid qual + quant research matters03:58 Unstructured data → perfect AI playground04:50 “Roadmap reset” after ChatGPT pressure06:00 How the team up-skilled on LLMs & vector DBs08:12 First AI features: summarization → theme extraction → comparisons09:05 Making space for AI work without derailing commitments10:10 Company-wide AI wins: sales data mining & lead scoring13:08 Relay + Google Sheets workflow for automated enrichment16:18 Running internal “AI office hours” to drive adoption17:05 Staying current: newsletters, trials, and cost control20:25 Seat-based vs. usage-based pricing—Phil's take23:04 Perplexity as Phil's go-to research sidekick24:50 Cutting the “collaboration tax” with self-serve AI answers27:24 Live demo: Recollective's Ask-AI tab & verbatim citations31:28 Segment @mentions for instant comparative analysis37:04 Emotion tagging and drilling into negative feedback38:30 Building an internal Vertex-AI search in one afternoon42:23 Agent Builder setup walkthrough44:34 Relay use-cases: lead workflows, news scraping, stand-up bot53:23 n8n migrations: 4,000 Gong calls plus on-the-fly analysis56:30 OpenAI Playground & Notebook LM for ad-hoc knowledgebases1:02:20 Google AI Studio multimodal experiments (free)1:04:04 Start simple—one use-case, one stakeholder, iterateTools & Resources Mentioned:AI / LLMs & Model-PlaygroundsChatGPT (OpenAI)OpenAI Platform & PlaygroundClaude (Anthropic)Perplexity Pro- Google Gemini (Workspace)Google AI StudioKnowledgeBase & Search Vertex AI Agent Builder / Search (Google Cloud) Notebook LM (Google) Internal Vertex-powered “ask-AI” portalAutomation & WorkflowsRelay (no-code workflow tool with AI steps)Zapier (reference point)n8n (open-source automation + AI agents)Data, CRM & Sales EnablementGoogle SheetsSalesforceOutreachGong (call recordings)Collaboration & ProductivitySlack (AI channel, human-in-the-loop flows)Notion (company intranet)Google Drive & Google CalendarRSS feeds + custom “Article Extractor” scraperCore ProductRecollective (Phil's qualitative-research platform with built-in AI features)Developer / Engineering UtilitiesCursor IDE (AI-assisted coding, briefly cited)

Tech Disruptors
Google Cloud CTO on LLM Demand Surge, Use Cases

Tech Disruptors

Play Episode Listen Later May 1, 2025 37:48


Since last year, Google has had 40x growth in Gemini use on its Vertex AI platform, highlighting the pace of demand in AI, says Will Grannis, chief technology officer of Google Cloud. In this episode of Tech Disruptors, Grannis sits down with Bloomberg Intelligence senior analyst Mandeep Singh to talk about the variety of use cases with large-language-model deployments. They discuss the company's Ironwood TPU launch to give an end-to-end stack perspective around inferencing workloads, and what it means for cloud demand.

The .NET Core Podcast
Google Gemini in .NET: The Ultimate Guide with Jochen Kirstaetter

The .NET Core Podcast

Play Episode Listen Later Apr 18, 2025 55:01


RJJ Software's Software Development Service This episode of The Modern .NET Show is supported, in part, by RJJ Software's Software Development Services, whether your company is looking to elevate its UK operations or reshape its US strategy, we can provide tailored solutions that exceed expectations. Show Notes "So on my side it was actually, the interesting experience was that I kind of used it one way, because it was mainly about reading the Python code, the JavaScript code, and, let's say like, the Go implementations, trying to understand what are the concepts, what are the ways about how it has been implemented by the different teams. And then, you know, switching mentally into the other direction of writing than the code in C#."— Jochen Kirstaetter Welcome friends to The Modern .NET Show; the premier .NET podcast, focusing entirely on the knowledge, tools, and frameworks that all .NET developers should have in their toolbox. We are the go-to podcast for .NET developers worldwide, and I am your host: Jamie “GaProgMan” Taylor. In this episode, Jochen Kirstaetter joined us to talk about his .NET SDK for interacting with Google's Gemini suite of LLMs. Jochen tells us that he started his journey by looking at the existing .NET SDK, which didn't seem right to him, and wrote his own using the HttpClient and HttpClientFactory classes and REST. "I provide a test project with a lot of tests. And when you look at the simplest one, is that you get your instance of the Generative AI type, which you pass in either your API key, if you want to use it against Google AI, or you pass in your project ID and location if you want to use it against Vertex AI. Then you specify which model that you like to use, and you specify the prompt, and the method that you call is then GenerateContent and you get the response back. So effectively with four lines of code you have a full integration of Gemini into your .NET application."— Jochen Kirstaetter Along the way, we discuss the fact that Jochen had to look into the Python, JavaScript, and even Go SDKs to get a better understanding of how his .NET SDK should work. We discuss the “Pythonistic .NET” and “.NETy Python” code that developers can accidentally end up writing, if they're not careful when moving from .NET to Python and back. And we also talk about Jochen's use of tests as documentation for his SDK. Anyway, without further ado, let's sit back, open up a terminal, type in `dotnet new podcast` and we'll dive into the core of Modern .NET. Supporting the Show If you find this episode useful in any way, please consider supporting the show by either leaving a review (check our review page for ways to do that), sharing the episode with a friend or colleague, buying the host a coffee, or considering becoming a Patron of the show. Full Show Notes The full show notes, including links to some of the things we discussed and a full transcription of this episode, can be found at: https://dotnetcore.show/season-7/google-gemini-in-net-the-ultimate-guide-with-jochen-kirstaetter/ Jason's Links: JoKi's MVP Profile JoKi's Google Developer Expert Profile JoKi's website Other Links: Generative AI for .NET Developers with Amit Bahree curl Noda Time with Jon Skeet Google Cloud samples repo on GitHub Google's Gemini SDK for Python Google's Gemini SDK for JavaScript Google's Gemini SDK for Go Vertex AI JoKi's base NuGet package: Mscc.GenerativeAI JoKi's NuGet package: Mscc.GenerativeAI.Google System.Text.Json gcloud CLI .NET Preprocessor directives .NET Target Framework Monikers QUIC protocol IAsyncEnumerable Microsoft.Extensions.AI Supporting the show: Leave a rating or review Buy the show a coffee Become a patron Getting in Touch: Via the contact page Joining the Discord Remember to rate and review the show on Apple Podcasts, Podchaser, or wherever you find your podcasts, this will help the show's audience grow. Or you can just share the show with a friend. And don't forget to reach out via our Contact page. We're very interested in your opinion of the show, so please get in touch. You can support the show by making a monthly donation on the show's Patreon page at: https://www.patreon.com/TheDotNetCorePodcast. Music created by Mono Memory Music, licensed to RJJ Software for use in The Modern .NET Show

Everyday AI Podcast – An AI and ChatGPT Podcast
EP 503: Google goes AI nuts, OpenAI countersues Elon, Canva drops new AI features and more AI News That Matters

Everyday AI Podcast – An AI and ChatGPT Podcast

Play Episode Listen Later Apr 14, 2025 57:25


Google went AI nuts at Cloud Next, possibly taking the lead. OpenAI is reportedly ready to unveil up to five new models. Canva enters the AI arena with innovative features. This week's AI news is explosive. Catch up now!Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Thoughts on the news? Join the convo.Upcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:Google Cloud Next AI Announcements RecapOpenAI ChatGPT Memory Feature DetailsOpenAI and Elon Musk Legal BattleCanva AI Suite Expansion OverviewAnthropic Claude Max Subscription PricingMicrosoft's Data Center Strategy PivotShopify's AI Usage Mandatory PolicyUpcoming OpenAI Model Releases OverviewTimestamps:00:00 Technical Glitch with Equipment04:48 Gemini 2.5 Pro Launch07:06 Google's New AI Collaboration Protocols13:28 ChatGPT Enhances Memory for Personalization17:37 AI Surveillance Accusations in U.S. Agencies20:56 Canva Launches AI-Powered Suite23:10 AI Graphic Design Evolution26:02 "Musk's Lawsuit: A Delay Tactic"28:14 Anthropic Launches Claude Max Subscription34:05 Microsoft Pauses Data Center Expansion35:39 Microsoft's $80B AI Investment Strategy42:05 Shopify's Bold AI Integration Shift44:25 Maximize AI Before Hiring48:31 OpenAI Model Tiers Explained51:41 "GPT-5: Concerns on Model Autonomy"54:20 AI Innovations and Controversies OverviewKeywords:Google Cloud Next, AI updates, OpenAI, countersue, Elon Musk, Canva AI features, Gemini 2.5 Pro, Large Language Model, ChatGPT memory feature, AI race, GPT 4.1, Vertex AI, Google AI Studio, agent to agent protocol, Google Workspace, Google Sheets, MCP protocol, Google DeepMind, GDC, Ironwood TPU chip, Lyria AI model, AI video model, AI music generation, Elon Musk's Dodge team, government AI monitoring, Ethical AI use, Canva Sheets, Shopify CEO AI memo, Anthropic, Claude Max, Microsoft Copilot, AI infrastructure, Recall AI feature, data privacy concerns, AI-powered productivity, GPT models, AI operating systems, personalized AI, GMPT 4.5, AI sandbox, Nvidia hardware, test time computing, AI reasoning, ChatGPT preferences.Send Everyday AI and Jordan a text message. (We can't reply back unless you leave contact info) Ready for ROI on GenAI? Go to youreverydayai.com/partner

The Daily Crunch – Spoken Edition
Google's enterprise cloud gets a music-generating AI model

The Daily Crunch – Spoken Edition

Play Episode Listen Later Apr 11, 2025 3:59


On Wednesday, Google rolled out updates to several of its first-party media-generating AI models available through its Vertex AI cloud platform. Lyria, Google's text-to-music model, is now available in preview for select customers, and the company's Veo 2 video creation model has been enhanced with new editing and visual effects customization options. Learn more about your ad choices. Visit podcastchoices.com/adchoices

The Official SaaStr Podcast: SaaS | Founders | Investors
SaaStr 796: The Secrets Inside Google Cloud's Growth with Sarah Kennedy, Vice President Google Cloud Marketing

The Official SaaStr Podcast: SaaS | Founders | Investors

Play Episode Listen Later Mar 26, 2025 36:01


SaaStr 796: The Secrets Inside Google Cloud's Growth with Sarah Kennedy, Vice President Google Cloud Marketing   In our latest episode of the SaaStr What's New series, SaaStr CEO and founder Jason Lemkin spoke with Sarah Kennedy, VP of Google Cloud Marketing. The conversation explores the explosive growth of Google Cloud and what's driving this momentum. Kennedy highlights the critical role AI plays in their success, from Google's world-class infrastructure to the cutting-edge AI models like Vertex AI and Gemini. We dive into the specifics of why startups and enterprises are increasingly choosing Google Cloud, the importance of customer-centric strategies, and the shift towards developer-led decisions. We also explore Google Cloud's major partnership with Salesforce and how AI and security are transforming business strategies. Tune in for insights on how Google Cloud is shaping the future of AI and stay ahead of the curve with expert tips on leveraging these technologies for your business. -------------------------------------------------------------------------------------------   Alright everybody in SaaS, this is it.  The biggest, best, most action-packed SaaS + AI event of the year—SaaStr Annual 2025—is coming this May. Three full days. 10,000+ SaaS and AI leaders and more tactical, no-fluff content than you'll find anywhere else.   If you want to scale faster—$10M, $50M, $100M ARR and beyond—you need the right playbooks, the right connections and the right people in your corner. And SaaStr Annual is where it all happens. We'll have 100's of Legendary speakers from companies like Snowflake, HubSpot, OpenAI, Canva, and more. More networking than you can handle—meet your next investor, co-founder, or biggest deal.  A New AI Demo & Pitch Stage— with your chance to win up to $5M in funding!  So don't wait—grab your tickets now at SaaStrAnnual.com with my code jason100 to save $100 on tickets before prices go up. That's jason 100 at saastrannual.com   See you in May!    --------------------------------------------------------------------------------------------   Do you know what would make your customer service helpdesk dramatically better? Dumping it and switching to Intercom.  But, youʼre not quite ready to make that change. We get it!   Thatʼs why Fin, the worldʼs leading AI customer service agent, is now available on every helpdesk.   Fin can instantly resolve up to 80% of your tickets,  Which makes your customers happier. And you can get off the customer service rep hiring treadmill.   Fin by Intercom. Named the #1 AI Agent in G2ʼs Winter Report.      Learn more at : inter.com/saastr   --------------------------------------------------------------------------------------------

Google Cloud Cast
Código que escreve código: o impacto da IA para Devs

Google Cloud Cast

Play Episode Listen Later Mar 19, 2025 15:36


Neste episódio do Google Cloud Cast Apresenta AI Trends, Luana Costa, Partner Engineer de Data Analytics no Google Cloud, recebe Camilla Martins, Google Developer Expert de Cloud, especialista em desenvolvimento e criadora do canal Punk do DevOps, para discutir como a inteligência artificial está transformando o trabalho dos devs.Com ferramentas como Gemini Code Assist e Vertex AI, a IA já acelera o desenvolvimento, automatiza processos e redefine a produtividade. O que isso significa para os devs hoje – e como melhorar suas habilidades?E ainda temos a participação especial da IA do Google, Gemini! Ouça já!Confira os materiais mencionados neste episódio:AI Business Trends 2025Obtenha ajuda para codificar com o Gemini Code Assist, agora gratuitamenteDescubra seu programa de aprendizadoGostou do episódio? Tem alguma dúvida ou sugestão? Fale com a gente pelo e-mail googlecloudcast@google.com ou sugestão?

Daily Tech News Show
Discord Announces Social SDK For Game Developers - DTH

Daily Tech News Show

Play Episode Listen Later Mar 17, 2025 4:29


Google's Chirp 3 is coming to Vertex AI, Roblox announces text-to-shape generator Cube 3D, Alphabet spins off laser internet startup Taara. Show Notes

Daily Tech Headlines
Discord Announces Social SDK For Game Developers – DTH

Daily Tech Headlines

Play Episode Listen Later Mar 17, 2025


Google's Chirp 3 is coming to Vertex AI, Roblox announces text-to-shape generator Cube 3D, Alphabet spins off laser internet startup Taara. MP3 Please SUBSCRIBE HERE for free or get DTNS Live ad-free. A special thanks to all our supporters–without you, none of this would be possible. If you enjoy what you see you can supportContinue reading "Discord Announces Social SDK For Game Developers – DTH"

Irish Tech News Audio Articles
CeADAR and Google Sign Strategic Partnership Agreement to Help Irish Businesses Unlock AI's Potentia

Irish Tech News Audio Articles

Play Episode Listen Later Mar 12, 2025 5:25


CeADAR and Google Ireland have announced a new strategic partnership to help Irish businesses capitalise on the economic potential of AI. CeADAR, Ireland's European Digital Hub for AI, and Google signed the agreement at a meeting with the Minister for Enterprise, Tourism and Employment, Peter Burke TD at Government Buildings. Recent research from Google and Implement Consulting Group shows that widespread adoption of AI has the potential to boost Ireland's GDP by €40-45 billion. The new partnership between CeADAR and Google aims to support Irish businesses to adopt AI to boost competitiveness and productivity. CeADAR and Google will focus on building an AI-ready workforce and driving the adoption of AI-powered solutions through a three-pillar approach: Addressing the AI skills gap - this includes tailored learning paths that provide on-demand training for varying proficiency levels, enhancing technical skills in cloud and product mastery while transforming leaders into AI-driven strategists. Scaling AI capabilities - empower Irish businesses to rapidly and responsibly test and implement AI solutions by leveraging Google's expertise and resources. CeADAR will provide access to Google Cloud resources, including €3M in Google Cloud credits and advanced AI tools like Vertex AI and Gemini 2.0. Investing in the future - preparing Ireland for the next phase of AI through training and mentorship initiatives, for CeADAR staff and interns, building key cloud related skills. Minister for Enterprise, Tourism and Employment, Peter Burke TD said: "This partnership between CeADAR and Google is the type of public and private sector collaboration that is needed to ensure we are equipping Irish businesses to benefit from the economic opportunities AI presents. AI has the potential to have a transformative, positive impact on Ireland's competitiveness and the government is committed to creating an ecosystem where businesses can fully utilise the power of AI to innovate, expand, and compete on a global scale." Lorraine Twohill, Chief Marketing Officer at Google said: "AI presents a tremendous opportunity for Ireland, with the potential to significantly boost the economy. Ireland has built a strong foundation for a safe and reliable AI environment, supported by the Government's clear ambition to capitalise on this transformative technology. This partnership with CeADAR is designed to help businesses navigate the challenges and opportunities AI brings - transforming how jobs are performed, creating new AI-focused roles, and enabling businesses to thrive in an AI-powered economy. By combining Google's expertise with CeADAR's capabilities, we are confident that we can unlock AI's full economic potential and drive sustainable growth across Irish businesses." Dr. John Lonsdale, CEO, CeADAR commented: "Unlocking AI's economic potential won't happen automatically and requires a proactive approach to workforce adaptation. We have been working with Irish businesses in recent years to help them leverage AI and machine learning but with the dynamic evolution of the technology more can be done to upskill Irish businesses, grow and nurture AI talent and facilitate faster adoption of AI. Ireland has a unique opportunity to harness the wider expertise that exists in our bustling tech sector - bringing our expertise together with Google is one key that can begin to unlock the economic opportunity AI will bring." Professor Kate Robson Brown, UCD Vice-President for Research, Innovation and Impact said, "Our researchers and innovators at University College Dublin (UCD) draw on the breadth and depth of their expertise to deliver knowledge and solutions that matter. They are leading the way in fields, such as AI, that are transforming the world around us. Advancing research and innovation is one of UCD's central pillars guiding the University to break boundaries and to deliver lasting and meaningful impact. "To do so we draw on our strengths and our partnerships, s...

Bigdata Hebdo
Episode 212 Analytique en Cloud Hybride

Bigdata Hebdo

Play Episode Listen Later Feb 3, 2025 78:03


Le BigDataHebdo reçoit Florian Caringi, responsable des plateformes Data & IA au sein du groupe BPCE. On discute de l'évolution des architectures Big Data, de Hadoop aux environnements hybrides et cloud, avec une adoption massive de Google Cloud (BigQuery, Vertex AI) pour des usages analytiques et data science.Florian partage son expérience sur les défis de migration, de FinOps, et l'intégration des IA génératives. Une discussion passionnante sur la modernisation des infrastructures et l'impact des nouvelles technologies dans les grandes organisations.Show notes et chapitres sur http://bigdatahebdo.com/podcast/episode-212-cloud-hybride-bpce/

Everyday AI Podcast – An AI and ChatGPT Podcast
EP 449: Can Claude's AI Agent Simplify Your Work? A Live Test Drive

Everyday AI Podcast – An AI and ChatGPT Podcast

Play Episode Listen Later Jan 29, 2025 41:17


Send Everyday AI and Jordan a text messageWondering if Claude's latest agentic AI is worth it? Computer Use is an agentic AI system that allows you to operate a virtual computer simply by speaking with Claude. We dive in and explain how it works. Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Ask Jordan questions on Claude AIUpcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:1. Overview of Anthropic Claude2. How to Use Claude Computer Use3. Critiques of Anthropic's Tools4. Future of AI AgentsTimestamps:00:00 AI agents essential in businesses by 2025.04:48 Google developing AI agent 'Jarvis'; competition intensifies.10:01 Using an API key; GitHub shares code.11:22 Docker is a versatile containerization tool for developers.15:36 Claude Sonnet 3.5 limits commands despite plans.17:08 Replace placeholder with copied API key.23:17 Demonstrating computer vision on a virtual desktop.25:33 Claude retained information without website visit.29:31 Experiencing repeated errors toggling between applications.30:49 Visit everydayai.com, list latest 3 episodes.35:10 Word document created with AI episode summaries.37:12 Direct AI with simple code; needs improvement.Keywords:Jordan Wilson, Claude AI, language model, Everyday AI Podcast, podcast summaries, document formatting, model interaction, AI errors, AI execution challenges, API key, Docker usage, virtual desktop, Word document creation, live stream, Anthropic updates, Claude free plan, API key security, Docker installation, Service tier levels, GitHub repositories, AI in Business, Claude's updates, Google Project Jarvis, OpenAI, Microsoft, Salesforce Agent Force, Amazon Bedrock, Google Cloud's Vertex AI, AI agents, Application Programming Interfaces. Ready for ROI on GenAI? Go to youreverydayai.com/partner

Daily News Brief by TRT World
January 24, 2025

Daily News Brief by TRT World

Play Episode Listen Later Jan 24, 2025 3:03


UN says 17,000+ children without their families in Gaza Israel's genocidal war in Gaza has seen children killed, starved, frozen to death, orphaned and separated from their families, the UN humanitarian chief has said. At a UN Security Council meeting, the humanitarian chief Tom Fletcher said that ""a generation has been traumatised." "Conservative estimates indicate that over 17,000 children are without their families in Gaza," he said. Report reveals Google's secret AI support for Israel amid war on Gaza "Google has continued providing AI technologies to Israel's military-industrial complex despite public attempts to distance itself from the country's violent aggressions, according to a report by the Washington Post. According to the newspaper's investigation, Google has been supporting Israel's Defence Ministry and military with artificial intelligence tools since the onset of its attacks on Gaza on October 7, 2023, even as its employees protested the Nimbus cloud computing contract. The company documents reveal Google expedited access to its Vertex AI service for the Israeli Defence Ministry. Internal communications show Google employees were concerned about losing potential contracts to competitors like Amazon if they did not quickly provide AI technology access." Dozens of diplomats, officials ousted in sweeping reset at State Department "In a swift and sweeping move, the Trump administration has directed dozens of senior State Department officials to step aside, triggering one of the most extensive leadership shake-ups in recent history, according to US media. Career diplomats and political appointees alike, including some in top roles overseeing US foreign policy, have been reportedly instructed to vacate their positions in recent days as President Donald Trump's team accelerates its plans to realign the Department with the administration's vision. This dramatic overhaul, which includes the departure of key figures such as John Bass and Geoff Pyatt, has sent shockwaves through Foggy Bottom." M23 rebels battling DRC army approach Goma city after seizing Sake town "Panic has spread in eastern Democratic Republic of Congo's main city, with M23 rebels steadily inching closer to Goma and seizing a nearby town as they battle the Congolese army. Bombs were heard going off in the city's distant outskirts and hundreds of wounded civilians were brought in to the main hospital from the area of the fighting. The rebel group has pushed significantly in recent weeks, closing in on Goma, which has around 2 million people and is a regional hub for security and humanitarian efforts." Climate shocks disrupted schooling for 242M children in 2024 — UN "Extreme weather disrupted the schooling of about 242 million children in 85 countries last year — roughly one in seven students, the UN children's agency has reported. It deplored what it said was an ""overlooked"" aspect of the climate crisis. Heat waves had the biggest impact, the report showed, as UNICEF's executive director Catherine Russell warned children are ""more vulnerable"" to extreme weather."

The Cloud Pod
288: You Might Be Able to Retrain Notebook LM Hosts to be Less Annoyed, But Not Your Cloud Pod Hosts

The Cloud Pod

Play Episode Listen Later Jan 22, 2025 56:25


Welcome to episode 288 of The Cloud Pod – where the forecast is always cloudy! Justin, Ryan, and Jonathan are your hosts as we make our way through this week's cloud and AI news, including back to Vertex AI, Project Digits, Notebook LM, and some major improvements to AI image generation.  Titles we almost went with this week: Digits… I'll show you 5 digits… The only digit the AWS local zone in New York shows me is the middle one Keep one eye open near Mercedes with Agentic AI A big thanks to this week's sponsor: We're sponsorless! Want to get your brand, company, or service in front of a very enthusiastic group of cloud news seekers? You've come to the right place! Send us an email or hit us up on our slack channel for more info.  General News 01:59 Nvidia announces $3,000 personal AI supercomputer called Digits If you don't want to hand over all your money to the cloud providers, you will be able to hand over $3,000 dollars to Nvidia… for a computer that is probably going to be obsolete in

The Automotive Troublemaker w/ Paul J Daly and Kyle Mountsier
Banning Russian Car Hardware, Google “Empathetic” Auto AI, Target Slashes Production Timelines

The Automotive Troublemaker w/ Paul J Daly and Kyle Mountsier

Play Episode Listen Later Jan 14, 2025 13:06


Shoot us a Text.9 days to NADA and you can feel the anticipation around the social media halls. Today, we're talking about how the US Commerce Department is banning Chinese and Russian car hardware and software, Google's new automotive AI agent debuting in the Mercedes CLA and Target changing production timelines to match social media trends.Show Notes with links:The U.S. government has finalized a sweeping ban on the use of Chinese and Russian-made hardware and software in internet-connected vehicles to bolster national security and protect consumer privacy.The Commerce Department will ban Chinese and Russian connectivity hardware in 2030 models and driving software from 2027 models.Manufacturers tied to China and Russia are also prohibited from selling connected vehicles in the U.S.Commercial vehicles, such as trucks and buses, are not yet covered but will be addressed soon.Secretary Gina Raimondo stressed the ban as a measure to protect national security and American privacy. “This is a targeted approach to ensure we keep PRC and Russian-manufactured technologies off American roads,” Google Cloud has unveiled its Automotive AI Agent platform, debuting in the new Mercedes CLA. The advanced system promises seamless, conversational interactions tailored for driver with enhanced natural language processing.The next-gen MBUX Virtual Assistant has four “personality traits” (natural, predictive, personal, empathetic) and can ask clarifying questions to improve responses.Powered by Google's Gemini and Vertex AI, it offers real-time Google Maps updates, restaurant reviews, recommendations, and handles multi-turn dialogue.Older Mercedes models with MBUX Voice Assistant may receive updates incorporating ChatGPT and Bing, though without full conversational AI features.“This is just the beginning of how agentic capabilities can transform the automotive industry,” said Sundar Pichai, Google CEO.Target is speeding up its production process, slashing timelines from 27 weeks to just eight, to keep pace with consumer demands and trends driven by digital giants like Shein and Temu.Target's new model responds to rapidly shifting social media trends, aiming to match fast fashion's quick go-to-market strategies.For example, Target recently pivoted from decorative bows to cherry-themed holiday apparel, responding to consumer demand in time for the season.Innovations in supply chain and design allow Target to cut product development cycles by nearly 70%.“The next chapter in retail is going to be about innovation, newness, creativity,” said Rick Gomez, Target's Chief Commerce Officer.Hosts: Paul J Daly and Kyle MountsierGet the Daily Push Back email at https://www.asotu.com/ JOIN the conversation on LinkedIn at: https://www.linkedin.com/company/asotu/ Read our most recent email at: https://www.asotu.com/media/push-back-email

Eccles Business Buzz
S7E9: Using AI Agents and Models Effectively feat. Derek Egan

Eccles Business Buzz

Play Episode Listen Later Jan 9, 2025 26:16


We continue our series of conversations about Artificial Intelligence and how it's changing the world around us. In today's episode, Frances talks to an AI engineer at Google about the ins and outs of the newest crop of AI models and agents.Joining the show to give an insider's perspective is Derek Egan. Derek is on the Vertex AI team at Google Cloud where he works on helping developers build generative AI-powered agents for their own applications. Derek is also a graduate of the David Eccles School of Business with a degree in Operations Management. David and Frances discuss the difference between models and agents, and why humans are still very much integral to the process. They address the strengths and weaknesses of these types of systems and the ways in which they might be used by organizations most effectively to help them work more efficiently. Derek speaks to the realistic worries of some AI critics and gives some of his own real-life examples of how AI agents help streamline his work life and personal life. Eccles Business Buzz is a production of the David Eccles School of Business and is produced by University fm.Show Links:Derek Egan | LinkedInVertex AI | Google CloudMaster of Science in Business Analytics - The David Eccles School of BusinessDavid Eccles School of Business (@ubusiness) • InstagramEccles Alumni Network (@ecclesalumni) • Instagram Eccles Experience MagazineEpisode Quotes:Google Cloud invests in explainable AI and safety filters to build AI that benefits everyone[09:06] How can we build AI that's beneficial for all is a critical question. At Google Cloud, we take that really seriously for responsible AI. It all starts with a set of AI principles that translates into multiple things in practice as we build these products and up front and not as an afterthought. A few examples of that are ethical reviews. So,  internally, there are dedicated teams that essentially conduct  ethical analysis and risk assessments for any new product that's going to launch and their job is to identify potential biases. [09:57] We haven't been perfect here and no one has been perfect here because it's a process and we're all learning. And that's also why, as we gain learnings and learn how to interact with these models and how to control the types of responses, we're also building explainability into the models themselves. That's really important. AI will not take away your job but someone who uses it better might. 18:35 If I'm a student at the University of Utah right now in the David Eccles School of Business or an alumni, I would be pretty anxious about this, right? Like, hey, how does AI impact my job? What I would encourage people though, is to think about reframing that question.  And the way I reframe it is I don't think AI is going to replace your job, and I don't think you're competing directly with AI for your job. I do think you're going to compete with other people who can competently use AI to do your job and that will lead to disruption. That will lead to a change in the way that works done, day in and day out. So, my guidance, my invitation would be to try it out, embrace AI and start using it. See how it can make you more productive. See how it can take the nitty gritty tasks off of your plate and help you to automate them on your behalf.Derek shares a developer's guide for building AI applications.32:39 If you are a developer and you want to build an application, my guidance would be to identify something that's fairly low hanging fruit, fairly simple, where you're going to get started. And where it's going to be an interaction between the person and the agent and not something that's going to go run autonomously and not have the right feedback loop. And then you can measure and get a sense for how helpful is that agent, and then iterate on it. And I'd encourage you to check out some of the use cases. We have like 185 customer use cases on a blog post published from Google Cloud. But there's a bunch of examples out there and there's a bunch of documentation that we offer as well to help people get started.

Diabetes Connections with Stacey Simms Type 1 Diabetes
In the News... Inhaled Insulin Studied for Kids, Dexcom Launches AI, App for Driving & T1D, and more!

Diabetes Connections with Stacey Simms Type 1 Diabetes

Play Episode Listen Later Dec 20, 2024 6:25


It's In the News.. a look at the top headlines and stories in the diabetes community. This week's top stories: Mannkind releases info about it's Afrezza pediatric studies, Dexcom launches AI tech with Stelo, Health Canada approves Tandem/Dexcom G7, diabetes drug may help sleep apnea, an app in development to help drivers with T1D and more! Find out more about Moms' Night Out  Please visit our Sponsors & Partners - they help make the show possible! Learn more about Gvoke Glucagon Gvoke HypoPen® (glucagon injection): Glucagon Injection For Very Low Blood Sugar (gvokeglucagon.com) Omnipod - Simplify Life Learn about Dexcom  Edgepark Medical Supplies Check out VIVI Cap to protect your insulin from extreme temperatures Learn more about AG1 from Athletic Greens  Drive research that matters through the T1D Exchange The best way to keep up with Stacey and the show is by signing up for our weekly newsletter: Sign up for our newsletter here Here's where to find us: Facebook (Group) Facebook (Page) Instagram Twitter Check out Stacey's books! Learn more about everything at our home page www.diabetes-connections.com  Reach out with questions or comments: info@diabetes-connections.com Episode transcription with links: Hello and welcome to Diabetes Connections In the News! I'm Stacey Simms and every other Friday I bring you a short episode with the top diabetes stories and headlines happening now. XX Mannkid expects to talk to the FDA about Afrezza inhaled insulin for pediatric approval early in 2025. The company just announced six-month results from its Phase 3 INHALE-1 study of kids aged 4-17 with type 1 or type 2 diabetes comparing either inhaled pre-meal insulin or multiple daily injections (MDI) of rapid-acting insulin analog, both in combination with basal insulin. A 26-week extension phase in which all remaining MDI patients were switched to inhaled insulin is ongoing. HbA1c change over 26 weeks exceeded the prespecified non-inferiority margin of 0.4% (0.435%), largely driven by the variability of a single patient who did not adhere to the study protocol. A modified ITT (mITT) analysis, which excluded this subject, did not exceed the predetermined threshold of 0.4% (0.370%), thereby establishing the non-inferiority of Afrezza to MDI, which was the primary endpoint of the study. Over 26 weeks of treatment, there were no differences in lung function parameters between the treatment groups, There were no differences between groups or concerns in other safety measures, including hypoglycemia. https://www.medscape.com/viewarticle/inhaled-insulin-benefits-kids-diabetes-too-2024a1000nex   XX Dexcom announces the use of AI for its Stelo platform. The company says the new Dexcom GenAI platform will analyze individual health data patterns to reveal a direct association between lifestyle choices and glucose levels while providing actionable insights to help improve metabolic health. Stelo users will start seeing the features this week. The AI is modeled after Google Cloud's Vertex AI and Gemini models. We'll hear more about this in January – Dexcom will be part of a panel at the Consumer Electronics Show about AI and healthcare. BTW this press release is the first time I've seen what seems to be a new slogan for Dexcom – Discover What You're Made Of. https://www.businesswire.com/news/home/20241217011997/en/Dexcom-Launches-the-First-Generative-AI-Platform-in-Glucose-Biosensing XX Staying with Dexcom, users report that the geofencing issue we reported on seems to be resolved. Previously, if you had an issue with Dexcom G7 outside of your home country, you couldn't reinstall or use the app without customer support. With the latest iOS and Android G7 apps, this seems to be resolved. This is according to the folks in the DIY community who first brought it to my attention.   XX Interesting insulin development to watch. Egypt approves EVA Pharma's insulin drug products, which is a collbaration between Eli llly and EVA, an Egyptian company. The Egyptian Drug Authority approved the insulin glargine injection manufactured by EVA Pharma through a collaboration with Eli Lilly and Company (NYSE: LLY). Launched in 2022, the collaboration aims to deliver a sustainable supply of high-quality, affordable human and analog insulin to at least one million people annually living with type 1 and type 2 diabetes in low- to middle-income countries (LMICs), most of which are in Africa.   Lilly has been supplying its active pharmaceutical ingredient (API) for insulin to EVA Pharma at a significantly reduced price and providing pro-bono technology transfer to enable EVA Pharma to formulate, fill and finish insulin vials and cartridges. This collaboration is part of the Lilly 30x30 initiative, which aims to improve access to quality health care for 30 million people living in resource-limited settings annually by 2030. https://www.prnewswire.com/news-releases/lilly-and-eva-pharma-announce-regulatory-approval-and-release-of-locally-manufactured-insulin-in-egypt-302333269.html     XX Can we add treating sleep apnea to the list of applications for terzepatide? That's the generic for Zepbound and Mounjaro. Phase 3 study shows that 10- and 15-milligram injections of Zepbound "significantly reduced the apnea-hypopnea index" among those who have obesity and moderate-to-severe obstructive sleep apnea. Eli Lilly said there was nearly a 20% reduction in weight among those in the trials. The company said it plans to submit its findings to the Food and Drug Administration and other global regulatory agencies beginning mid-year. https://www.aol.com/popular-weight-loss-drug-could-131507702.html   XX Health Canada okays Tandem's tslim X2 with Dexcom G7 and G6 making it the first and only insulin pump in Canada that is integrated with both Dexcom sensors. Now, t:slim X2 users in Canada can experience even more choice when it comes to CGM compatibility, along with the option to spend more time in closed loop with Dexcom G7's 30-minute sensor warm-up time, faster than any other CGM on the market.3 In addition, t:slim X2 users who pair Dexcom G7 with an Apple smartwatch4 can see their glucose numbers directly from their watch without having to access their pump or smartphone4. Tandem will email all in-warranty t:slim X2 users in Canada with instructions on how to add the new compatibility feature free of charge via remote software update. t:slim X2 pumps pre-loaded with the updated software will begin shipping to new customers in early January 2025.   To check coverage and start the process of getting a Tandem insulin pump, please visit tandemdiabetes.ca. https://www.businesswire.com/news/home/20241210731189/en/Tandem-tslim-X2-Insulin-Pump-Now-Compatible-with-Dexcom-G7-CGM-in-Canada XX A federal jury on Tuesday awarded Insulet $452 million in its patent skirmish with EOFlow over insulin patch pumps. The jury awarded Insulet $170 million in compensatory damages from EOFlow and an additional $282 million in exemplary damages for willful and malicious misappropriation. A judge has not yet entered a judgment on the decision. Insulet filed a lawsuit in the U.S. District Court for the District of Massachusetts in 2023, claiming EOFlow copied patented components of its Omnipod insulin pumps. In October 2023, the Massachusetts district court issued a preliminary injunction against EOFlow. Following that decision, Medtronic called off plans to buy EOFlow for about $738 million.   A federal appeals court later overturned the preliminary injunction, and EOFlow resumed selling its devices in Europe. The company recently defended against a separate injunction filed by Insulet in Europe's Unified Patent Court, according to Korea Biomedical Review, an online English newspaper based in Seoul, South Korea.   The Massachusetts jury found this week that EOFlow and CEO Jesse Kim, as well as two of three former Insulet employees who were named as defendants in the lawsuit, misappropriated Insulet's trade secrets.   Insulet CEO Jim Hollingshead said the company is “extremely pleased with the jury's verdict.” EOFlow did not immediately respond to a request for comment. https://www.medtechdive.com/news/insulet-eoflow-jury-verdict-patent-lawsuit/734745/ XX A tele-education program for health care providers who treat people with diabetes resulted in significant improvements in patient outcomes, including better blood sugar levels and increased use of medical devices to manage the disease, a University of Florida study finds. Led by researchers in the UF College of Public Health and Health Professions and the UF College of Medicine, the program used the Extension for Community Health Care Outcomes model, which has been adopted worldwide to train clinicians who treat patients with a variety of conditions. Known as Project ECHO, this is one of the first to demonstrate patient benefits for the program in a large, randomized trial. The findings appear in the journal Diabetes Care. https://ufhealth.org/news/2024/clinician-training-program-leads-to-better-outcomes-for-patients-with-diabetes XX New app under development to make driving safer for people with diabetes. Diabetes Driving Pal says it will use CGM data and guide you while you are driving without any annoying alerts. Guidance/suggestions will be on your car dashboard so that you don't have to look at phone and it will be very individualized and actionable. In a study last year, ~70% of people have reported (5% reported accident) to have at least one low blood sugar while driving and most reported that CGM alerts were not enough to protect them. We are hoping to start beta testing in a few months. We are trying to raise the fund to develop this product. We need your support. For more information, please visit: https://lnkd.in/gTDhnDc4 XX I'm also going to link to the top ten most read diabetes and endocrinology stories of 2024 from Medscape. This is almost all GLP-1 related.. and mostly for people with type 2. https://www.medscape.com/viewarticle/icymi-top-10-diabetes-endocrinology-stories-2024-2024a1000n6u?&icd=login_success_email_match_fpf XX That's it for the last In the News of 2024! Don't miss out episode next week with a look ahead to what we're watching in 2025. I'm SS I'll see you back here soon…

Geek News Central
Google DeepMind Unveils Veo 2: A Next-Gen Video AI #1787

Geek News Central

Play Episode Listen Later Dec 17, 2024 Transcription Available


Google DeepMind introduces Veo 2, a cutting-edge video-generating AI capable of producing 4K, two-minute clips—significantly surpassing OpenAI's Sora in resolution and duration. While Veo 2's capabilities are currently capped at 720p and eight seconds within Google's VideoFX tool, broader access is planned through Google's Vertex AI as the technology scales. Subscribe to the Newsletter. Join … Continue reading Google DeepMind Unveils Veo 2: A Next-Gen Video AI #1787 → The post Google DeepMind Unveils Veo 2: A Next-Gen Video AI #1787 appeared first on Geek News Central.

KI-Update – ein Heise-Podcast
KI-Update kompakt: OpenAI, Googles Veo, bessere KI-Logik, KI-Strafzettel

KI-Update – ein Heise-Podcast

Play Episode Listen Later Dec 5, 2024 10:28


Das ist das KI-Update vom 05.12.2024 unter anderem mit diesen Themen: OpenAI eröffnet Büro in der Schweiz – samt neuer Mitarbeiter Googles KI-Videogenerator Veo ist ab sofort auf Vertex AI verfügbar Verbesserte KI-Logik durch Fokus auf kritische Token und New Yorks ÖPNV-KI zeigt Hunderte Falschparker an – zu Unrecht Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10189147 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://www.ki-adventskalender.de/

The Automotive Troublemaker w/ Paul J Daly and Kyle Mountsier
Nissan Reassures Dealers, US Adding EV Chargers, Google's AI Gen Video

The Automotive Troublemaker w/ Paul J Daly and Kyle Mountsier

Play Episode Listen Later Dec 4, 2024 14:03 Transcription Available


Shoot us a Text.We're coming to you live from Bozard Ford Lincoln as we're finishing up our More Than Cars shoot. Today, we're talking about how Nissan is trying to reassure its dealers that the sky isn't falling, how the US added 12,000+ new EV chargers in Q3, and how Google's Veo, a generative AI video model, beat OpenAI's Sora to market.Show Notes with links:Nissan Motor Co. is under pressure as financial challenges force the automaker to cut jobs and slow production. Activist investors and speculation about its future as an independent company are adding to the turmoil.U.S. dealers received a memo from Nissan Americas Chair Jeremie Papin outlining turnaround priorities: product competitiveness, business stabilization, and growth.Nissan has slashed its full-year income outlook by 70%, cut $2.6 billion in expenses, and laid off 9,000 workers globally, including 500 U.S. salaried employees.Market share has plummeted, dropping 25% over five years to just 5.6% in the U.S., with dealership profitability hitting a 15-year low.Production reductions include a 17% U.S. output cut, fewer assembly shifts, and an anticipated 100,000-vehicle drop in fiscal year production.Papin reassured dealers of Nissan's liquidity, stating, “Our $9 billion in net cash allows us to prioritize future investments in research and development.”The US added 12,000 new EV charging ports in the past three months, bringing the total to nearly 204,000 marking a doubling of chargers since late 2020, pre-Biden administration and NEVI Program launch.NEVI (National Electric Vehicle Infrastructure) Formula Program contributed 126 ports across 31 stations in nine states this quarter, an 83% increase in open NEVI ports since Q3.Coverage of DC fast chargers on major corridors grew from 38% in 2020 to 59.1% in 2024; expected to reach 70% by late 2025.41 states have announced charging projects under NEVI, with 35 awarding agreements for over 3,560 fast charging ports across 890+ locations.Rhode Island became the first fully built-out NEVI state, while states like Kentucky, Hawaii, and Maine opened new stations, advancing access nationwide.The program has allocated nearly $2.4 billion in funding across two rounds to all 50 states, Puerto Rico, and the District of Columbia. $586 million has been set aside for a third round of funding for fiscal year 2025.​​Google's Veo, a generative AI video model, is now available via Vertex AI, beating OpenAI's Sora to market. Veo offers powerful tools for businesses to enhance content creation pipelines.Veo generates realistic 1080p videos over a minute long from text or image prompts.Text-to-image tools also roll out to all Vertex AI users next week, with features for brand-specific editing.SynthID watermarking prevents misinformation and copyright issues, rivaling Adobe's tools.Google reports that 86% of AI-using businesses are seeing revenue boostsHosts: Paul J Daly and Kyle MountsierGet the Daily Push Back email at https://www.asotu.com/ JOIN the conversation on LinkedIn at: https://www.linkedin.com/company/asotu/ Read our most recent email at: https://www.asotu.com/media/push-back-email

AI DAILY: Breaking News in AI
AI TO REFACTOR LEGAL SYSTEM

AI DAILY: Breaking News in AI

Play Episode Listen Later Dec 4, 2024 4:10


Like this? Get AIDAILY, delivered to your inbox, every weekday. Subscribe to our newsletter at https://aidaily.us AI Proposal to "Refactor" U.S. Legal System Gains Momentum A Peter Thiel-backed entrepreneur suggests using AI to overhaul the U.S. legal framework, likening the process to "refactoring" code in software engineering. By analyzing vast legal data with NLP and AI models, dormant or redundant statutes could be flagged for review, streamlining regulations and reducing compliance burdens. Critics warn of potential risks, but proponents argue AI can assist, not replace, human oversight in simplifying legal complexities for modern governance. Amazon Unveils Nova AI Models to Compete with Adobe and Meta At its annual AWS conference, Amazon introduced Nova, a series of foundation AI models for text, image, and video generation, rivaling Adobe and Meta. The models promise improved speed, cost efficiency, and advanced capabilities like creating six-second videos with Nova Reel. Amazon also debuted its Canvas tool for image generation and announced upcoming multimodal AI functionalities. With plans for an enhanced Alexa and strategic partnerships, Amazon positions itself as a key player in generative AI. Google Launches Veo, Its Generative AI Video Model Google's Veo, a generative AI video model, is now available via its Vertex AI platform, enabling businesses to create 1080p videos from text or image prompts. Veo also integrates SynthID watermarks for content attribution. OpenAI lags with its Sora model as businesses increasingly adopt generative AI for revenue growth. Meta Reports AI Had Limited Impact on 2024 Elections Meta's Nick Clegg stated that generative AI had a modest influence on global elections in 2024, with Meta effectively countering disinformation using advanced tools. AI-generated deepfakes and misinformation were quickly exposed, but concerns remain about disinformation on other platforms like TikTok. Public distrust of AI in elections persists, though AI also enhanced voter education efforts.  AI-Powered Punching Bag Revolutionizes Home Fitness Growl, an AI-driven boxing trainer, combines augmented reality, 3D cameras, and advanced sensors to transform home workouts. Designed for precision and engagement, it analyzes form, measures impact, and offers real-time feedback through a projected coach interface. Growl delivers dynamic workouts tailored to user performance. Future updates promise deeper integration with wearables and interactive sparring. Music Industry Faces 25% Income Loss as AI Booms A global study by CISAC reveals that music sector workers could lose nearly 25% of income to generative AI by 2028. AI is projected to grow from a €3bn to €64bn market, enriching tech firms while reducing creators' earnings and opportunities. Policymakers, particularly in Australia and New Zealand, are urged to act to safeguard creators' rights and cultural assets.

Ultimate Guide to Partnering™
246 – Empowering Enterprises with AI: Glean's Innovative Approach

Ultimate Guide to Partnering™

Play Episode Listen Later Nov 18, 2024 9:08


I am thrilled to bring you my latest conversation with MP Eisen, VP of Partnerships at Glean, from the Google Cloud Marketplace Exchange! Glean is redefining the way enterprises access and utilize internal data, creating an "enterprise work assistant" that operates like an internal search engine, helping users find strategic insights, project updates, and account-specific information. MP shares Glean's journey as a Google Cloud partner, from their first Marketplace listing in 2023 to a rapid trajectory that's driven millions in consumption. Their approach? A laser focus on aligning Glean's offerings with Google's value propositions, from compute to Vertex AI's Gemini, resulting in a partnership that has rapidly scaled across multiple industry segments. Key takeaways from MP's insights: Clear Product-Partner Alignment: Ensuring Glean's product naturally drives value for Google's sellers and customers, particularly by tapping into incentives like quota retirement through Marketplace transactions. Focused Market Approach: Instead of broad targeting, Glean zeroes in on specific industries, regions, and segments, building success one focused area at a time—a strategy that's amplifying their presence within Google's ecosystem. Upstream Conversations: AI is shifting conversations to the C-suite, making executive buy-in critical for enterprise-wide adoption, with CIOs and CEOs seeing the transformational impact of AI in operations. Listen in on The Ultimate Guide to Partnering to learn.

Ultimate Guide to Partnering™
242 – Accelerating AI with Google Cloud Marketplace: A Conversation with Labelbox's CMO

Ultimate Guide to Partnering™

Play Episode Listen Later Nov 11, 2024 4:03


I'm thrilled to introduce my conversation with Ken Olofsen, CMO of Labelbox, recorded live at the Google Cloud Marketplace Exchange! Labelbox, a longtime Google partner, has revolutionized data labeling for generative AI, providing a “data factory” that powers the most advanced AI models. Ken shares how Labelbox collaborates with Google to support model builders and enterprise teams, including an exciting integration with Vertex AI that allows users to leverage Labelbox's human evaluation services to fine-tune their models effortlessly. In this episode, Ken discusses Labelbox's use of Google Cloud Marketplace as a rapid transaction platform, enabling seamless, scalable partnerships. From simplifying contracts with private and public offers to offering a one-click evaluation solution on Vertex AI, Labelbox is setting the bar high for innovation in data annotation. Tune in to this episode of The Ultimate Guide to Partnering to learn how Labelbox is shaping the future of generative AI through strategic partnerships!

Eye On A.I.
#216 Nenshad Bardoliwalla: Inside Vertex AI - The Ultimate AI Toolkit by Google Cloud

Eye On A.I.

Play Episode Listen Later Oct 30, 2024 51:47


This episode of the Eye on AI podcast is sponsored by JLL. JLL's AI solutions are transforming the real estate landscape, accelerating growth, streamlining operations and unlocking hidden value in properties and portfolios. From predictive analytics to intelligent automation, JLL is creating smarter buildings, more efficient workplaces and sustainable cities. To learn more about JLL and AI, visit: jll.com/AI     In this episode of the *Eye on AI* podcast, we explore the world of AI at Google Cloud with Nenshad Bardoliwalla, Director of Product Management for Vertex AI.   Nenshad unpacks the three core layers of Vertex AI: the Model Garden, where users can access and evaluate a diverse range of models; the Model Builder, which supports model fine-tuning and prompt optimization; and the Agent Builder, designed to develop AI agents that can perform complex, goal-oriented tasks.   He shares insights into model evaluation strategies, the role of Google's Tensor Processing Units (TPUs) in scaling AI infrastructure, and how enterprises can choose the right models based on performance, cost, and regulatory requirements.   Nenshad also delves into the challenges and opportunities of AI prompt optimization, highlighting Google's approach to ensuring consistent outputs across different models. He discusses the ethical considerations in AI design, emphasizing the need for human oversight and clear guardrails to maintain safety.   Whether you're in AI, tech, or curious about AI's potential impact, this episode is packed with insights on next-gen AI deployment.   Don't forget to like, subscribe, and turn on notifications for more episodes!     Stay Updated: Craig Smith Twitter: https://twitter.com/craigss Eye on A.I. Twitter: https://twitter.com/EyeOn_AI (00:00) Introduction to Nenshad Bardoliwalla & Vertex AI (01:52) Overview of Vertex AI's Three Core Layers (05:35) Nenshad's Journey to Google Cloud (06:36) Choosing the Right AI Model (08:00) Google's AI Infrastructure & Tensor Processing Units (TPUs) (10:15) Model Builder: Fine-Tuning & Prompt Optimization (12:11) Agent Builder: Building AI Agents with Tools & Planning (17:57) Model Evaluation & Prompt Management (21:23) Generative AI for Business Analysts (23:24) AI Model Modality & Use Case Selection (25:23) Popularity Distribution of AI Models (28:18) Prompt Optimization Tools (34:20) Building AI Agents: Real-World Use Cases & Ethical Safeguards (40:13) The Capabilities & Limitations of AI Agents (45:48) TPU vs. GPU (50:33) Future of AI at Google Cloud

Everyday AI Podcast – An AI and ChatGPT Podcast
EP 390: How to use Claude's AI ‘Computer use' for everyday people

Everyday AI Podcast – An AI and ChatGPT Podcast

Play Episode Listen Later Oct 29, 2024 41:05


Send Everyday AI and Jordan a text messageWanna learn Claude's new agentic AI? Got 30ish minutes? This is the show for you then. In short -- Computer Use is an agentic AI system where you can control a virtual computer just by talking to Claude. Join us as we break it down.  Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Ask Jordan questions on Claude AIUpcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:1. Overview of Anthropic Claude2. How to Use Claude Computer Use3. Critiques of Anthropic's Tools4. Future of AI AgentsTimestamps:00:00 AI agents essential in businesses by 2025.04:48 Google developing AI agent 'Jarvis'; competition intensifies.10:01 Using an API key; GitHub shares code.11:22 Docker is a versatile containerization tool for developers.15:36 Claude Sonnet 3.5 limits commands despite plans.17:08 Replace placeholder with copied API key.23:17 Demonstrating computer vision on a virtual desktop.25:33 Claude retained information without website visit.29:31 Experiencing repeated errors toggling between applications.30:49 Visit everydayai.com, list latest 3 episodes.35:10 Word document created with AI episode summaries.37:12 Direct AI with simple code; needs improvement.Keywords:Jordan Wilson, Claude AI, language model, Everyday AI Podcast, podcast summaries, document formatting, model interaction, AI errors, AI execution challenges, API key, Docker usage, virtual desktop, Word document creation, live stream, Anthropic updates, Claude free plan, API key security, Docker installation, Service tier levels, GitHub repositories, AI in Business, Claude's updates, Google Project Jarvis, OpenAI, Microsoft, Salesforce Agent Force, Amazon Bedrock, Google Cloud's Vertex AI, AI agents, Application Programming Interfaces. Get more out of ChatGPT by learning our PPP method in this live, interactive and free training! Sign up now: https://youreverydayai.com/ppp-registration/

Everyday AI Podcast – An AI and ChatGPT Podcast
Ep 386: Claude 3.5 Sonnet Updates - AI can use computers now?

Everyday AI Podcast – An AI and ChatGPT Podcast

Play Episode Listen Later Oct 23, 2024 52:40


Send Everyday AI and Jordan a text messageAI can use computers now? Yup. With Claude 3.5 Sonnet updates, Anthropic's LLM now has access to 'Computer Use.' Is this new mode going to change how we use LLMs? And what else is noteworthy with Claude's new updates in 3.5? We'll go over it all. Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Ask Jordan questions on Anthropic ClaudeUpcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:1. Claude 3.5 Updates2. Computer Use Feature3. API and Pricing4. Model Benchmarks5. Potential for Business ApplicationsTimestamps:02:15 Daily AI news05:10 New updates from Anthropic06:32 Claude excels in human-like writing, lacks connectivity.09:56 Claude 3.5 updates: SONNET new, now labeled.11:36 New computer use excels with unstructured data.14:39 Discuss Anthropic's unique API and pricing strategy.18:13 Claw 3.5 SONNET excels in benchmark comparisons.23:07 Cherry-picking without fair benchmarks undermines credibility.26:33 PPP course improves prompt usage effectively.27:37 Model omitted; operates logically using chain-of-thought.31:17 Anthropic omitted model to avoid poor benchmarks.37:09 Automated research and planning for sunrise viewing.39:40 New tech handles errors; works with unstructured data.43:44 Utilizes screenshots for computer vision, correcting issues.46:02 Using the API quickly exhausts token limits.48:38 Evaluate potential business impact of Anthropic's feature.Keywords:Anthropic, AI technology, programming a virtual computer, future implications for businesses, OpenAI, shipping product in beta, SONNET 35, Haiku 35, AI in future work environments, daily AI newsletter, computer use feature, Robotics Process Automation (RPA), API and Pricing, Claude 3.5 SONNET, benchmarks, community engagement, Jordan Wilson, Claude's natural language interface, Docker, Amazon Bedrock, Google Cloud's Vertex AI, MMLU Benchmark, Coding Benchmark, Math Problem Solving, Chain of Thought Reasoning, Host's Opinion, Prime Prompt Polish Course, Stability AI, Midjourney, Canva Get more out of ChatGPT by learning our PPP method in this live, interactive and free training! Sign up now: https://youreverydayai.com/ppp-registration/

Mundo Data-Driven
Ep 24. El Nuevo ADN del C-Level: Entrevista a Jose Armando Ordoñez

Mundo Data-Driven

Play Episode Listen Later Oct 18, 2024 23:32


En este episodio de ⁠Mundo Data Driven⁠, El Nuevo ADN del C-Level: Los Skills que los líderes necesitan en un Mundo Data Driven, ⁠José Milton Buitrón⁠ entrevista a ⁠José Armando Ordóñez⁠, director de la ⁠maestría de inteligencia artificial de la Universidad ICESI⁠, sobre los cambios fundamentales que han transformado el rol del liderazgo ejecutivo en un entorno cada vez más digital y orientado a los datos. Capacidad de comunicación y visión estratégica en la era Data Driven El episodio profundiza en cómo los ejecutivos de nivel C (C-Level) deben transformar sus habilidades para liderar con éxito en un mundo impulsado por los datos y la inteligencia artificial. José Armando explica que una de las habilidades más importantes que deben desarrollar los líderes es la capacidad de comunicar claramente la visión para la integración de la transformación digital dentro de la estrategia de la empresa. Este aspecto es fundamental para asegurar el alineamiento de todos los niveles de la organización, desde la alta dirección hasta el personal operativo. Habilidades esenciales para los ejecutivos del futuro Otro tema central es el conjunto de habilidades que debe desarrollar un ejecutivo C-Level en la era digital. Estas incluyen desde el liderazgo en la transformación digital hasta la alfabetización en datos y en inteligencia artificial, que son imprescindibles para una toma de decisiones eficiente. La habilidad de entender conceptos como la IA generativa y su potencial, así como herramientas como ⁠DataRobot⁠ y⁠ Vertex AI⁠, se ha vuelto esencial. Herramientas como ⁠H2O.ai⁠ permiten a los líderes mantener el control sobre cada aspecto de sus iniciativas de IA, lo cual es vital en un contexto de rápida adopción tecnológica. Toma de decisiones basadas en datos y desafíos en la implementación de IA José Armando destaca la importancia de la toma de decisiones basada en datos para los C-Level. En un entorno tan competitivo, las decisiones fundamentadas en datos, más que en la intuición, son esenciales para garantizar la supervivencia y el crecimiento de las empresas. También se abordan los desafíos en la implementación de IA, entre ellos la necesidad de contar con una calidad de datos adecuada y la implementación de un gobierno de datos robusto que permita asegurar el éxito de los proyectos de inteligencia artificial. Ética y responsabilidad en el uso de la IA La conversación incluye un análisis sobre la ética y responsabilidad en el uso de IA. José Armando subraya la importancia de entender los límites de la inteligencia artificial y ser conscientes de los riesgos éticos y sociales que pueden derivarse de su aplicación sin una supervisión adecuada. Capacitación y educación para el futuro El episodio concluye explorando cómo está evolucionando la educación y capacitación para los C-Level. En un contexto donde la tecnología cambia rápidamente, la educación continua y el desarrollo de habilidades relevantes se han vuelto fundamentales para la competitividad de los líderes del futuro. Chapters: 00:00 Transformación Digital y el Rol de los Directivos 03:36 Habilidades Esenciales para el C-Level 07:25 Toma de Decisiones Basadas en Datos 11:03 Desafíos en la Implementación de IA 14:28 Ética y Responsabilidad en la IA 18:53 Comunicación y Cambio Organizacional 20:41 El Futuro de la Educación y Capacitación Escucha el ⁠episodio completo⁠ ⁠en tu plataforma de Podcast favorita⁠ para conocer en detalle cómo los líderes del C-Level deben evolucionar para adaptarse y prosperar en un entorno impulsado por los datos. #SkillsCLevel #DataDriven #InteligenciaArtificial #LiderazgoEjecutivo #MundoDataDriven #Podcast #AI #GobiernoDeDatos --- Support this podcast: https://podcasters.spotify.com/pod/show/mundodatadriven/support

Everyday AI Podcast – An AI and ChatGPT Podcast
EP 382: Why AI Literacy is Essential for Parents and Kids in Education and Beyond

Everyday AI Podcast – An AI and ChatGPT Podcast

Play Episode Listen Later Oct 17, 2024 32:30


Send Everyday AI and Jordan a text messageThe AI revolution is here, transforming classrooms, homes, and how your kids learn and interact with the world. From personalized learning tools to AI-powered homework help, education is changing fast—but are you prepared to guide your kids through this shift? Stephanie Worrell, Founder of AI-MPOWERU, joins us to explain why AI literacy is critical for both parents and kids. Newsletter: Sign up for our free daily newsletterMore on this Episode: Episode PageJoin the discussion: Ask Jordan and Stephanie questions on AI literacyUpcoming Episodes: Check out the upcoming Everyday AI Livestream lineupWebsite: YourEverydayAI.comEmail The Show: info@youreverydayai.comConnect with Jordan on LinkedInTopics Covered in This Episode:1. Challenges in AI Education2. Parental Concerns about AI3. Risks and Safety Concerns of AI in Education4. Advice for Parents on AI5. AI Literacy in Higher EducationTimestamps:01:40 Daily AI news05:00 About Stephanie and AI-MPOWERU07:28 Students need AI skills integrated into education.12:53 Using AI enhanced education and job applications.15:29 AI risks: deepfakes, relationships, education, social media.19:21 Collaborative AI learning enhances education but concerns exist.20:26 AI influences social media, affects mental health.24:30 Prepare students for AI-dominated job market.27:30 Integrate generative AI into educational curricula.30:45 Prepare kids for future digital challenges.Keywords:AI and children, Jordan Wilson, Everyday AI, Google Cloud, Vertex AI, NVIDIA AI model, Perplexity, The New York Times, AI copyright concerns, Guest Stephanie Worrell, AI Empower You, AI literacy, Raising AI Smart Kids, AI in education, Parental concerns, Plagiarism in AI, ChatGPT, Internet safety, Risk of AI, Deepfakes, AI and mental health, AI personalization, AI in college, Grammarly, AI transparency, Ethical AI use, Future job landscape, Social media and AI, AI syllabi integration, AI literacy newsletter. Get more out of ChatGPT by learning our PPP method in this live, interactive and free training! Sign up now: https://youreverydayai.com/ppp-registration/

Female VC Lab
E104: Anne Gherini: SIERRA Ventures

Female VC Lab

Play Episode Listen Later Sep 20, 2024 11:42


Show Notes: Episode E104 - Anne Gherini - SIERRA Ventures Episode Summary: In this enlightening episode of Female VC Lab, our host Barbara Bickham sits down with Anne Gherini, the CMO at Sierra Ventures, an early-stage VC firm focusing on the future of enterprise. Anne reveals her journey from being an operator to a venture capitalist, the dynamic role she plays in Sierra Ventures, and her investment thesis centered around B2B SaaS. She also shares her insights on the rapid changes in the venture capital world and the significance of go-to-market strategies. Key Topics Discussed: - Anne Gherini's career transition from operator to venture capitalist - Detailed breakdown of Anne's role as a CMO at Sierra Ventures - Sierra Ventures’ investment thesis focused on early-stage B2B SaaS companies - Importance of building a technical moat and go-to-market strategies - Anne’s recommendations on reading and continuously learning about health and longevity Fun Facts: 1. Diverse Portfolio: Sierra Ventures invests almost exclusively in B2B software but has delved into deep tech sectors like quantum computing and Vertex AI. 2. Passion for Optimization: Anne is enthusiastic about optimizing not only businesses and campaigns but also personal health and longevity, inspired by Peter Attia's book "Outlive." 3. Constant Learning: Besides sitting on investment teams and helping build campaigns, Anne enjoys the continuous learning aspect of venture capital, finding excitement in the pace of advancements in technology and startup solutions. Contact Information: - Anne Gherini on LinkedIn - Anne Gherini on Twitter (X): @AnnieG - Sierra Ventures Website Thanks for Listening! Thank you for tuning in to this episode of Female VC Lab. Be sure to subscribe and leave us a review if you enjoyed the episode. Stay tuned for more inspiring stories from female venture capitalists around the world!

The MongoDB Podcast
EP. 233 Intelligent Retail Pricing with MongoDB and Vertex AI

The MongoDB Podcast

Play Episode Listen Later Sep 4, 2024 13:22


In this Episode, Rodrigo Leal, Principal Industry Solutions with MongoDB joins Shane McAllister for an in-depth live stream session on how to revolutionize your retail pricing strategies with MongoDB, and Vertex AI. Discover how these powerful technologies come together to create intelligent, real-time pricing models that adapt to dynamic market conditions and consumer behaviors.

Hipsters Ponto Tech
IA responsável, GPT-4-Turbo, Google Cloud Next '24 – Hipsters: Fora de Controle #53

Hipsters Ponto Tech

Play Episode Listen Later Apr 12, 2024 64:20


O Hipsters: Fora de Controle é o podcast da Alura com notícias sobre Inteligência Artificial aplicada e todo esse novo mundo no qual estamos começando a engatinhar, e que você vai poder explorar conosco! Nesse episódio conversamos com Anderson Soares sobre os esforços dentro e fora do Brasil para o fomento à evolução responsável da IA. Além disso, comentamos as principais notícias da semana, incluindo os anúncios do Google no evento Cloud Next, a liberação do GPT-4-Turbo, e a investida da Intel nos chips voltados para IA. Vem ver quem participou desse papo: Marcus Mendes, host fora de controle Fabrício Carraro, Program Manager da Alura, autor de IA e host do podcast Dev Sem Fronteiras Sérgio Lopes, CTO da Alura Anderson Soares, coordenador científico do CEIA e representante do Brasil no GPAI

Smart Kitchen Show from The Spoon
Food Tech News Show: Apple Eyes Home Robots

Smart Kitchen Show from The Spoon

Play Episode Listen Later Apr 9, 2024 44:11


This week on the Food Tech News Show we are joined by Scott Heimendinger, one of the inventors of the home sous vide circulator and a long-time kitchen tech inventor.  Here are the stories we talk about: Apple is working on robots for the home! – From Bloomberg: “The original concept for the robot was a device that could navigate entirely on its own without human intervention — like the car — and serve as a videoconferencing tool. One pie-in-the-sky idea within Apple was having it be able to handle chores, like cleaning dishes in a sink. Google has used its latest AI to create a new tool that creates a fusion recipe between two culinary cultures. Lifehacker: “According to Google,  Food Mood can provide creative inspiration for your next meal. Select two countries and this fusion recipe generator will create one for you. You can choose whether you would like to cook a starter, a soup, a main course or a dessert. For example, why not try a unique blend of flavors from Sri Lanka and Uganda or mixing influences from Oman and Belgium? This experiment was created by artists Emmanuel Durgoni and Gaël Hugo, and uses Gemini 1.0 Pro via Vertex AI.” Whirlpool has let the entire Yummly team go. Appliance giant Whirlpool has laid off its entire Yummly team. According to industry sources, the company recently laid off all the employees for the recipe and cooking app and website. These sources tell the Spoon that it's unclear what the company plans to do with the property it acquired in 2017. Amazon Pulling ‘Just Walk Out' from Amazon Fresh Grocery Stores – According to a story published in The Information, Amazon is planning to pull its Just Walk Out cashierless technology from its large-format grocery store, Amazon Fresh. One Robot Pizza Chain Operator Breaks Down the Cost Each Part of the Pizza-Making Process – For small operators (and big ones as well) in the pizza business, Andrew Simmons's posts on Linkedin have become must-read material. Scott will be at the Smart Kitchen Summit, talking about some of the lessons he's learned building the kitchen of the future. If you are interested in seeing Scott at SKS, you can use the discount code PODCAST for 15% off tickets. 

That Tech Pod
The Netflix for Food? AI-Driven Personalized Food Recommendations with Fisayo Oluwadiya

That Tech Pod

Play Episode Listen Later Apr 2, 2024 28:50


Today Laura and Gabi are joined by Fisayo Oluwadiya to talk about Resactly, which is an AI powered personalized food recommendation service. We hear about Fisayo's origin story, building AI models with Vertex AI, the different stages of AI algorithms, her plans for the future (continue on for world domination or sell?), Chef Kwame Onwuachi and Dogon in DC and much more! Fisayo Oluwadiya is a full-stack, results-oriented and driven principal software engineer with a proven track record over a 15+ year career. She is a passionate and energetic, highly organized and a highly skilled problem-solver with a background working in many different kinds of business such as JP Morgan Chase, Major League Baseball, Nordstrom and the Walt Disney Company. The concept of Resactly is simple - "What if there was a way to find restaurants that were a perfect match for individual tastes?" Resactly's advanced AI/ML platform delves deep into your unique taste profile, preferences, and dietary needs to curate a list of restaurants tailored just for you. No more endless searching or disappointing meals. With Resactly, every dining experience is transformed into a memorable culinary journey. Check out Resactly for a gastronomic adventure and discover eateries that truly speak to your soul.

SuperDataScience
761: Gemini Ultra: How to Release an A.I. Product for Billions of Users, with Google's Lisa Cohen

SuperDataScience

Play Episode Listen Later Feb 27, 2024 70:15


Google's Gemini Ultra takes the spotlight this week, as host Jon Krohn welcomes Lisa Cohen, Google's Director of Data Science and Engineering, for a conversation about the launch of Gemini Ultra. Discover the capabilities of this cutting-edge large language model and how it stands toe-to-toe with GPT-4. Lisa shares her insights on the development, rollout, and potential of Gemini Ultra in reshaping various sectors. Whether you're a data science professional, tech enthusiast, or curious about the future of AI, this episode offers a deep dive into one of the most significant advancements in artificial intelligence. This episode is brought to you by Ready Tensor, where innovation meets reproducibility (https://www.readytensor.ai/), and by Intel and HPE Ezmeral Software Solutions (https://hpe.com/ezmeral/chatbots). Interested in sponsoring a SuperDataScience Podcast episode? Visit passionfroot.me/superdatascience for sponsorship information. In this episode you will learn: • Google's Gemini model family and Lisa's key responsibilities [04:55] • How LLMs will transform the practice of Data Science [19:47] • Lisa on prompt engineering and reinforcement learning from human feedback [24:38] • How to fine-tune Gemini models with Google's Vertex AI [30:52] • How AI-assistants will transform life and work for everyone from data scientists to educators to children [47:14] • The challenges of developing a data-centric culture [57:31] • Centralized vs decentralized data science teams [1:03:50] Additional materials: www.superdatascience.com/761