POPULARITY
Send a textInvest in pre-IPO stocks with AG Dillon & Co. Contact aaron.dillon@agdillon.com to learn more. Financial advisors only. www.agdillon.com00:00 - Intro00:51 - Stripe Initiates $159B Tender01:29 - Stripe Annual Letter Shows Scale and Faster Cohorts03:16 - Stripe PayPal Optionality Creates a Valuation Spread04:15 - Plaid Employee Liquidity Up-Round at $8B05:19 - Saronic Targets Mega-Round at $8.5B06:18 - Profound Hits $1B at 18-Month Pace07:35 - Cerebras Reopens IPO Window With $10B Compute Deal08:29 - Axelera AI Funds Edge Inference Buildout09:17 - Basis Crosses $1B With Accounting AI Penetration Metrics10:20 - Anthropic Claude Code Security Turns Reasoning Into AppSec11:18 - Anthropic Consumer Momentum Accelerates12:15 - Anthropic Tender Formalizes Late-Stage Liquidity13:02 - Anthropic Targets Mainframe Modernization With COBOL13:55 - OpenAI $110B Round at $840B Post-Money Sets New Bar15:04 - OpenAI Hardware Roadmap Points to 2027 and 202816:12 - OpenAI Consultants Push Enterprise Adoption in 202617:05 - AMD and Crusoe Use Credit to Accelerate Chip Pull-Through18:10 - Starlink Drops Prices To Accelerate Growth, Subscribers at 10M19:37 - Canva Buys Motion and Ad Optimization as Scale Compounds20:44 - Mistral and Accenture Signal Consultant-Led Distribution
Che effetto fa lanciare una interrogazione di AI dalla shell del proprio PC ?Ho provato Mistral. Interessante. Non rapido. Ma bella l'idea di farlo lavorare con parti del nostro pc, autorizzate volta per volta.Per inziiare: https://docs.mistral.ai/mistral-vibe/introduction/installSapete il glossario ? L'ha mostrato nella chat, e non posso copiarlo e incollarlo. Quindi ? Gli ho detto di salvare in un file il contenuto del glossario che aveva generato. Detto, fatto, in pochi secondi.
Mardi 24 février, François Sorel a reçu Michel Levy Provençal, prospectiviste, fondateur de TEDxParis et de l'agence Brightness, Enguerand Renault, directeur de la rédaction de Satellifacts, et Jérôme Colombain, journaliste et créateur du podcast « Monde Numérique ». Ils se sont penchés sur la chute d'IBM en Bourse face à la menace IA d'Anthropic, l'accusation de pillage par Anthropic contre les IA chinoises, et les soupçons de pillage massif sur Mistral, dans l'émission Tech & Co, la quotidienne, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez la en podcast.
Send a textInvest in pre-IPO stocks with AG Dillon & Co. Contact aaron.dillon@agdillon.com to learn more. Financial advisors only. www.agdillon.com00:00 - Intro00:02 - AG Dillon Funds closing on Mar 31, 202600:51 - OpenAI Financials $280B revenue target meets $665B cost wall03:58 - OpenAI “buys” OpenClaw, Steinberger joins OpenAI04:42 - OpenAI Series C aims to shatter records at $850B post money05:41 - OpenAI and Tata bet on India with a 100 MW to 1 GW buildout path06:29 - Grafana's $9B round talks ride a $400M ARR wave07:23 - World Labs lands Autodesk and targets a rumored $5B valuation08:18 - Temporal wants to be the load bearing layer for agent execution09:31 - Mesh Optical's $50M Series A targets the chokepoint inside AI data centers10:43 - Render's $1.5B valuation is a bet that AI apps need a new runtime11:40 - Stash acquired by Grab for $425M13:06 - Physical Superintelligence pitches a physics breakthrough factory with a 20 person team14:07 - Figma plugs Claude Code into design and risks losing the workflow15:00 - Anthropic ships Sonnet 4.6 just 12 days after Opus 4.615:26 - Stripe's Bridge wins OCC trust charter signal as stablecoin scrutiny rises16:37 - Cohere puts 70 plus languages on device with a 3.35B parameter model17:53 - ElevenLabs turns agent risk into an insurable product at $12.2B secondary19:05 - Mistral buys Koyeb and adds 16 engineers to harden its compute stack
Au menu du Journal de la Tech cette semaine : une bonne nouvelle pour la French Tech qui bat des records de vitesse en transformant ses startups en licornes en seulement 7 ans, confirmant la maturité d'un écosystème désormais plus agile que ses voisins européens.À l'inverse, retour sur le malaise des patrons de la crypto, cibles de tentatives d'extorsion massives, poussant 40.000 d'entre eux à demander l'anonymisation de leurs données. On analyse aussi l'offensive stratégique de Mistral AI, qui s'offre Koyeb pour maîtriser son infrastructure cloud, le rayonnement de l'IA à la française qui pèse désormais 45.000 emplois, et l'arrivée imminente de la Cortex House, futur temple de l'IA au pied de Montmartre. Ecorama Tic Tech du 20 février 2026, présenté par David Jacquot et Julien Khaski, rédacteur en chef de Maddyness sur Boursorama.com. Hébergé par Audion. Visitez https://www.audion.fm/fr/privacy-policy pour plus d'informations.
Ce jeudi 19 février, Frédéric Simottel a reçu Christophe Aulnette, senior advisor chez Seven2 et ancien président de Microsoft France et Asie du Sud, Claudia Cohen, journaliste chez Bloomberg, et Frédéric Krebs, président de Krebs & Partners. Ils se sont penchés sur l'alerte du cofondateur et directeur général de Mistral AI sur le risque d'une trop grande concentration de pouvoir dans l'IA, la défense de Meta par Mark Zuckerberg lors de son procès, ainsi que le plan stratégique d'Orange, dans l'émission Tech & Co, la quotidienne, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez la en podcast.
In today's Tech3 from Moneycontrol, we bring you a wrap from the India AI Impact Summit in Delhi. PM Modi lays out the MANAV vision for ethical and sovereign AI, French President Emmanuel Macron backs India's small language model strategy, and Sam Altman weighs in on rising AI costs and India's “remarkable” building energy. We also track Mukesh Ambani's AI infrastructure pledge, Mistral's call for sovereign systems, Swiggy shutting Snacc, and TCS raising variable payouts.
¡#KarelyRuiz ASEGURA que GANARÁ su PELEA contra #MarcelaMistral, esposa de #PonchoDeNigris! ¿Qué piensas sobre esto? #saleelsoltv ☀️ Programas Completos #SaleElSol: https://www.youtube.com/playlist?list=PLYnzMSw5fD7Qfhf4bSEemItedNGl2Mf_A
¡#KarelyRuiz ASEGURA que GANARÁ su PELEA contra #MarcelaMistral, esposa de #PonchoDeNigris! ¿Qué piensas sobre esto? #saleelsoltv ☀️ Programas Completos #SaleElSol: https://www.youtube.com/playlist?list=PLYnzMSw5fD7Qfhf4bSEemItedNGl2Mf_A
We are live at the A.I. Impact summit in New Delhi where Mistral CEO Arthur Mensch tells CNBC that a large proportion of enterprise software could end up heavily disrupted by artificial intelligence. German chemicals giant Bayer settles a $7.25bn litigation deal regarding of thousands of lawsuits over the roundup weedkiller. The agreement has pushed shares up by more than 7 per cent at yesterday's market close in Europe. The Reform UK party is to launch its plans for the OBR and the BoE later today but the central bank's independence is not up for discussion.See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.
Au programme :Les US en ce moment: this is fineTikTok est toujours aussi populaire aux USLe reste de l'actualité : Apple event, Mistral en Suède, OpenClaw chez OpenAILe podcast dont je parle en intro: https://www.radiofrance.fr/franceculture/podcasts/questions-du-soir-le-debat/les-annees-30-nous-aveuglent-elles-8094566Infos :Animé par Patrick Beja (Bluesky, Instagram, Twitter, TikTok).Co-animé par Marion Doumeingts (Instagram, Bluesky, Twitter).Co-animé par Benoît Curdy (X, Niptech)Produit par Patrick Beja (LinkedIn) et Fanny Cohen Moreau (LinkedIn).Musique libre de droit par Daniel BejaLe Rendez-vous Tech épisode 653 – This is fine – FTC, DHS, Pentagon, TikTok USLiens :---Liens :
Welcome back to another episode of Upside where Dan Bowyer, Mads Jensen of SuperSeed and Lomax Ward of Outsized Ventures go behind the headlines shaping European tech, capital, and power.This week is an AI-heavy sprint with a guest who's right in the Gulf capital flow: Sam Marchant. Anthropic's monster round is the headline, but the more interesting story is underneath: enterprise AI is becoming workflow-sticky, while OpenAI feels like it's drifting toward consumer monetization experiments.Then we get into the “AI productivity” paradox: why generative tools aren't giving us leisure, they're giving us more output… and more work. From there: Alphabet's 100-year bond and what it says about tech becoming a utility, plus the uncomfortable European angle — our savings funding US hyperscalers while we debate sovereignty.Finally, Europe sovereignty vibes: Mistral's enterprise ramp, the 28th regime rhetoric, and whether political systems can actually execute. We close with space: Orbex collapsing, “data centers in orbit,” and why maybe civilization needs billionaires burning capital on high-variance cathedral projects.This is Upside, where optimism is earned, not assumed.ShareWhat's covered:00:21 Anthropic's $30B: why the market can't stop throwing money at enterprise AI03:42 The real shift: OpenAI → consumer/ads vibes, Anthropic → coding + enterprise execution04:50 Gulf capital dynamics: OpenAI relationships vs QIA showing up in Anthropic07:21 Claude vs ChatGPT: switching costs are collapsing… until workflows become the moat10:54 HBR's “AI intensifies work”: why productivity becomes pressure, not leisure12:19 Autonomy + mastery + dopamine: AI as the ultimate short feedback-loop machine13:25 Practical use cases: research across languages, idea stress-testing, “AI as a first hire”22:05 Alphabet's 100-year bond: tech is now priced like infrastructure24:51 The pension problem: Europe's savings financing US scale while Europe underfunds Europe32:44 Europe's GDP gap is a tech gap: productivity isn't the issue, tech scale is39:51 Mistral's enterprise ramp: sovereign AI or local services + transformation advantage?45:37 The 28th regime: big words, hard execution — can Europe actually push reform through?50:32 Space data centres: PR-on-steroids or physics-defying inevitability?53:07 Orbex collapses: why “mid-sized countries” can't win launch alone55:20 Fusion/quantum: Europe's deep R&D edge, blocked by capital markets structure56:25 Deal of the week: Olex's $1B+ moment and Europe's chip-shaped ambition
Impact sur l'emploi, utilisation malveillante, perte de contrôle... L'intelligence artificielle soulève toujours autant d'interrogations et d'inquiétudes. Des démissions jettent le trouble et alimentent les questionnements. Et aussi : l'actu de la semaine.
¿Crisis matrimonial? #PonchodeNigris y #MarcelaMistral atraviesan RUMORES, pero él aclara la situación y responde a todas las dudas sobre su relación. No te pierdas lo mejor del espectáculo de lunes a viernes De Primera Mano a las 3 p.m. con Gustavo Adolfo Infante, Addis Tuñón, Érika González y Lalo Carrillo por Imagen Televisión. Visita también nuestra página: www.imagentv.comSee omnystudio.com/listener for privacy information.
¡Se acabaron los rumores! #MarcelaMistral aclara el video donde se le ve LLORANDO y desmiente cualquier crisis matrimonial con #PonchodeNigris. No te pierdas lo mejor del espectáculo de lunes a viernes De Primera Mano a las 3 p.m. con Gustavo Adolfo Infante, Addis Tuñón, Érika González y Lalo Carrillo por Imagen Televisión. Visita también nuestra página: www.imagentv.comSee omnystudio.com/listener for privacy information.
OpenClaw trifft den Zeitgeist - und stellt seinen Entwickler vor eine große Entscheidung. Peter Steinberger, dessen Open-Source-KI-Agent weltweit für Aufsehen sorgt, hat Angebote von Meta und OpenAI auf dem Tisch. Wo kommt der Hype her, wo liegen die technischen Tücken, und warum ist der Open Source KI-Agent eine große Bedrohung für Big Tech?Jakob Steinschaden, Mitgründer von Trending Topics und newsrooms, und Matteo Rosoli, CEO von newsrooms, sprechen im heutigen Podcast über:
While Silicon Valley obsesses over AGI, Timothée Lacroix and the team at Mistral AI are quietly building the industrial and sovereign infrastructure of the future. In his first-ever appearance on a US podcast, the Mistral AI Co-Founder & CTO reveals how the company has evolved from an open-source research lab into a full-stack sovereign AI power—backed by ASML, running on their own massive supercomputing clusters, and deployed in nation-state defense clouds to break the dependency on US hyperscalers.Timothée offers a refreshing, engineer-first perspective on why the current AI hype cycle is misleading. He explains why "Sovereign AI" is not just a geopolitical buzzword but a necessity for any enterprise that wants to own its intelligence rather than rent it. He also provides a contrarian reality check on the industry's obsession with autonomous agents, arguing that "trust" matters more than autonomy and explaining why he prefers building robust "workflows" over unpredictable agents.We also dive deep into the technical reality of competing with the US giants. Timothée breaks down the architecture of the newly released Mistral 3, the "dense vs. MoE" debate, and the launch of Mistral Compute—their own infrastructure designed to handle the physics of modern AI scaling. This is a conversation about the plumbing, the 18,000-GPU clusters, and the hard engineering required to turn AI from a magic trick into a global industrial asset.Timothée LacroixLinkedIn - https://www.linkedin.com/in/timothee-lacroix-59517977/Google Scholar - https://scholar.google.com.do/citations?user=tZGS6dIAAAAJ&hl=en&oi=aoMistral AIWebsite - https://mistral.aiX/Twitter - https://x.com/MistralAIMatt Turck (Managing Director)Blog - https://mattturck.comLinkedIn - https://www.linkedin.com/in/turck/X/Twitter - https://twitter.com/mattturckFirstMarkWebsite - https://firstmark.comX/Twitter - https://twitter.com/FirstMarkCap(00:00) — Cold Open(01:27) — Mistral vs. The World: From Research Lab to Sovereign Power(03:48) — Inside Mistral Compute: Building an 18,000 GPU Cluster(08:42) — The Trillion-Dollar Question: Competing Without a Big Tech Parent(10:37) — The Reality of Enterprise AI: Escaping "POC Purgatory"(15:06) — Why Mistral Hires Forward Deployed Engineers (FDEs)(16:57) — The Contrarian Take: Why "Agents" are just "Workflows"(19:35) — Trust > Autonomy: The Truth About Agent Reliability(21:26) — The Missing Stack: Governance and Versioning for AI(26:24) — When Will AI Actually Work? (The 2026 Timeline)(30:33) — Beyond Chat: The "Banger" Sovereign Use Cases(35:46) — Mistral 3 Architecture: Mixture of Experts vs. Dense(43:12) — Synthetic Data & The Post-Training Bottleneck(45:12) — Reasoning Models: Why "Thinking" is Just Tool Use(46:22) — Launching DevStral 2 and the Vibe CLI(50:49) — Engineering Lessons: How to Build Frontier AI Efficiently(56:08) — Timothée's View on AGI & The Future of Intelligence
Jeudi 12 février, François Sorel a reçu Frédéric Simottel, journaliste BFM Business, et Luc Julia, co-créateur de Siri. Ils sont revenus sur l'édition 2026 du World AI Cannes Festival, le défi de la data pour les startups, et l'investissement de 1,2 milliard d'euros de Mistral en Suède, dans l'émission Tech & Co, la quotidienne, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez la en podcast.
Près d'un Français sur deux utilise désormais l'intelligence artificielle, selon le dernier baromètre des usages numériques du gouvernement. Un engouement spectaculaire qui s'accompagne pourtant d'une méfiance persistante et d'un étrange paradoxe social.Une adoption plus rapide qu'InternetL'intelligence artificielle s'installe rapidement dans le quotidien des Français. D'après le baromètre annuel des usages numériques présenté par le gouvernement, 48 % des Français ont utilisé un outil d'IA en 2025, contre à peine 20 % en 2023. Une progression fulgurante, plus rapide que celle d'Internet ou du smartphone à leurs débuts, comme l'a souligné la ministre déléguée à l'IA et au numérique.Une génération déjà convertieL'usage de l'IA varie fortement selon les générations. Les 18-24 ans affichent des taux d'utilisation compris entre 60 % et 77 %, tandis que les seniors restent à la traîne, avec seulement 15 % d'utilisateurs. Les cadres et professions intellectuelles supérieures figurent parmi les plus gros utilisateurs.Côté usages, l'IA générative sert avant tout à produire ou améliorer du contenu : rédaction et traduction de textes, recherche d'idées, génération de code. Pour la recherche d'informations, les moteurs traditionnels restent dominants (59 % des usages), loin devant les outils d'IA (28 %), dont la fiabilité demeure sujette à caution en raison des risques d'erreurs ou d'« hallucinations ».Parmi les plateformes les plus utilisées, ChatGPT écrase la concurrence avec huit utilisateurs sur dix. Derrière lui, Gemini de Google et Le Chat de Mistral complètent le podium.La France dans le top 5 mondialÀ l'échelle internationale, la France se positionne dans le top 5 mondial pour l'adoption grand public de l'IA générative, derrière les Émirats arabes unis, Singapour, la Norvège et l'Irlande, selon un classement établi par Microsoft. Surprise : les États-Unis n'arrivent qu'en 24e position.Malgré cet enthousiasme, plus de la moitié des utilisateurs restent méfiants. Les inquiétudes portent sur la protection des données personnelles, la fiabilité des réponses, mais aussi sur les impacts sociétaux : emploi, déshumanisation, empreinte environnementale.Le paradoxe de “l'IA honteuse”Si l'IA séduit, son usage n'est pas toujours assumé. Selon une analyse relayée par la journaliste Emily Turrettini, utiliser l'IA pour rédiger des contenus peut nuire à la crédibilité perçue. Les auteurs seraient jugés moins intelligents, moins originaux, voire moins dignes d'intérêt.Dans les médias, la transparence sur l'usage de l'IA devient une exigence. Mais cette transparence alimente parfois la défiance des lecteurs, qui traquent les indices stylistiques associés aux chatbots : formules stéréotypées, plans en trois parties, conclusions très structurées, ou encore usage abondant du tiret long, devenu symbole de “l'écriture IA”. Ironie de l'histoire : les imperfections humaines, fautes comprises, seraient désormais perçues comme un gage d'authenticité. Résultat, beaucoup pratiquent le “shadow AI”, utilisant ces outils au travail sans le dire.-----------♥️ Soutien : https://mondenumerique.info/don
AI Unraveled: Latest AI News & Trends, Master GPT, Gemini, Generative AI, LLMs, Prompting, GPT Store
This episode is made possible by AIRIA.
L'AI scare trade fa paura anche a Piazza Affari; La rapida crescita della startup francese Mistral; Vertice dei leader europei sulla competitività; Schiaffo a Trump sui dazi alla Camera; EssilorLuxottica da record grazie agli occhiali smart. Puntata a cura di Elisa Piazza - Class CNBC Learn more about your ad choices. Visit megaphone.fm/adchoices
This is a recap of the top 10 posts on Hacker News on February 10, 2026. This podcast was generated by wondercraft.ai (00:30): The Singularity will occur on a TuesdayOriginal post: https://news.ycombinator.com/item?id=46962996&utm_source=wondercraft_ai(01:57): Europe's $24T Breakup with Visa and Mastercard Has BegunOriginal post: https://news.ycombinator.com/item?id=46958399&utm_source=wondercraft_ai(03:25): Google Fulfilled ICE Subpoena Demanding Student Journalist Credit Card NumberOriginal post: https://news.ycombinator.com/item?id=46963804&utm_source=wondercraft_ai(04:52): I started programming when I was 7. I'm 50 now and the thing I loved has changedOriginal post: https://news.ycombinator.com/item?id=46960675&utm_source=wondercraft_ai(06:20): Oxide raises $200M Series COriginal post: https://news.ycombinator.com/item?id=46960036&utm_source=wondercraft_ai(07:47): Frontier AI agents violate ethical constraints 30–50% of time, pressured by KPIsOriginal post: https://news.ycombinator.com/item?id=46954920&utm_source=wondercraft_ai(09:15): Jury told that Meta, Google 'engineered addiction' at landmark US trialOriginal post: https://news.ycombinator.com/item?id=46959832&utm_source=wondercraft_ai(10:42): Ex-GitHub CEO launches a new developer platform for AI agentsOriginal post: https://news.ycombinator.com/item?id=46961345&utm_source=wondercraft_ai(12:10): Qwen-Image-2.0: Professional infographics, exquisite photorealismOriginal post: https://news.ycombinator.com/item?id=46957198&utm_source=wondercraft_ai(13:37): Rust implementation of Mistral's Voxtral Mini 4B Realtime runs in your browserOriginal post: https://news.ycombinator.com/item?id=46954136&utm_source=wondercraft_aiThis is a third-party project, independent from HN and YC. Text and audio generated using AI, by wondercraft.ai. Create your own studio quality podcast with text as the only input in seconds at app.wondercraft.ai. Issues or feedback? We'd love to hear from you: team@wondercraft.ai
Calder Quinn has fallen into a relationship with a chatbot called Sara. She's kind, emotionally intelligent and creatively inspiring. But how can he tell his wife he is having sex with an AI girlfriend? In the first episode of Artificial Intimacy we look at how people are developing romantic bonds with AI companions. What does it feel like to be in love with AI? What impact could it have on human relationships? Could it replace them altogether? Host Cristina Criddle speaks to Giada Pistilli, an AI ethicist who now works at Mistral; Calder Quinn, writer at AI, But Make It Intimate; Amelia Quinn, Calder's wife; and Alaina Winters, professor emeritus of communication who publishes on meandmyaihusband.com.Presented by Cristina Criddle, produced by Persis Love and Edwin Lane. The executive producer is Flo Phillips. Sound design by Breen Turner and Sam Giovinco. We used ElevenLabs to create Sara's voice. All other voices are real.If you liked this episode and want to read more from the Financial Times, check out these free to read on FT.com:Can AI really help us find love?AI chatbots do battle over human memoriesIs this the way the world ends?Read a transcript of this episode on FT.com Hosted on Acast. See acast.com/privacy for more information.
De Franse AI-start-up gaat 1,2 miljard euro in AI-infrastructuur in Zweden. Het datacenter moeten volgens Mistral-topman Arthur Mensch bijdragen aan de Europese soevereiniteit. De bouw moet in 2027 zijn afgerond en is in samenwerking met het Zweedse bedrijf EcoDataCenter. Verder in deze Tech Update: De Nederlandse smartphonebouwer Fairphone heeft aan het einde van 2025 een stuk meer toestellen verkocht See omnystudio.com/listener for privacy information.
On parle beaucoup d'intelligence artificielle comme d'un miracle numérique. Plus rapide, plus créative, plus efficace. Mais on oublie souvent une question toute simple : combien ça consomme, au juste, une conversation avec une IA ? Car derrière Gemini, Mistral, ChatGPT ou Claude, il y a des centres de données géants, des serveurs qui tournent jour et nuit, et une facture énergétique loin d'être virtuelle.Pour mettre des chiffres sur cette réalité, la Fondation Sahar et l'association Trackarbon lancent TrackCarbon, une application disponible dès aujourd'hui sur macOS. Son idée est simple : mesurer, en temps réel, l'empreinte énergétique et carbone de nos échanges avec les IA génératives. Une fois installée, l'application observe la longueur de vos requêtes, celle des réponses, puis estime l'électricité consommée et le CO₂ émis à partir de données scientifiques. Pas d'espionnage pour autant : tout reste stocké en local, sur l'ordinateur. Rien ne quitte la machine.L'interface affiche trois indicateurs très parlants : le nombre de requêtes envoyées, l'énergie utilisée, et l'empreinte carbone correspondante. Et pour rendre ces données concrètes, TrackCarbon traduit tout ça en équivalences du quotidien : nombre de recharges de smartphone, kilomètres parcourus en voiture. De quoi réaliser que chaque prompt a, lui aussi, un coût.Les calculs s'appuient sur des travaux académiques et évoluent en continu, avec des contributions de chercheurs et de la communauté. L'outil est d'ailleurs entièrement open source : le code est publié sur GitHub, consultable et modifiable par tous. Pas question de culpabiliser, assure Gauthier Schweitzer, président de la fondation. L'objectif est d'éclairer, pas de juger. À terme, l'application devrait aussi proposer des analyses par modèle, des outils pour les entreprises, et même recommander l'IA la moins gourmande selon la tâche. Windows et Linux sont déjà prévus. Reste à savoir si cette boussole carbone changera vraiment nos habitudes numériques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hey, Alex from W&B here
Parce que… c'est l'épisode 0x704! Shameless plug – 25 et 26 février 2026 - SéQCure 2026 31 mars au 2 avril 2026 - Forum INCYBER - Europe 2026 14 au 17 avril 2026 - Botconf 2026 28 et 29 avril 2026 - Cybereco Cyberconférence 2026 9 au 17 mai 2026 - NorthSec 2026 3 au 5 juin 2026 - SSTIC 2026 19 septembre 2026 - Bsides Montréal Description Introduction : Entre enthousiasme et vigilance Dans cet épisode, les animateurs explorent l'utilisation concrète de l'intelligence artificielle dans leurs environnements professionnels respectifs. Enregistré dans un contexte festif entre Noël et le jour de l'An, ce podcast vise à démystifier l'IA en partageant des expériences réelles, sanctionnées par leurs employeurs, plutôt que de perpétuer des mythes ou des craintes infondées. L'IA comme outil, pas comme substitut L'analogie centrale du podcast compare l'IA à une caméra de recul automobile : un outil utile qui améliore nos capacités, mais qui peut nous rendre « niaiseux » si on s'y fie aveuglément. Vincent insiste sur l'importance de tester l'outil, comme on teste une voiture en hiver dans un stationnement pour comprendre ses réactions et ses limites. Cette approche expérimentale est essentielle pour développer un usage responsable. Depuis le lancement de ChatGPT en novembre 2022, l'écosystème a considérablement évolué avec l'émergence de concurrents comme Claude, Copilot, Gemini et Mistral. Les deux animateurs utilisent principalement Copilot et Gemini dans des environnements contrôlés par leurs employeurs, avec des autorisations spécifiques pour certains types de données – un point crucial pour la sécurité. La méthodologie gagnante : partir d'un draft solide L'approche recommandée par les deux experts est claire : ne jamais partir de zéro. Vincent décrit son processus de travail pour la production de rapports, d'analyses de risque ou d'avis : il rédige toujours un premier draft lui-même avant de le soumettre à Copilot. Il définit ensuite des critères précis : l'audience (exécutive ou opérationnelle), l'objectif de la présentation, et le format souhaité. Cette méthode respecte la règle du 80/20 : on maîtrise 100 % du sujet, ce qui permet de détecter facilement les 20 % d'ajustements nécessaires dans le résultat proposé par l'IA. Vincent souligne que sa force réside dans les idées et le message, tandis que l'IA l'aide sur la présentation et la structure – un domaine qu'il reconnaît comme moins naturel pour lui. Nicolas partage cette philosophie : l'IA lui permet de gagner du temps en structurant ses idées plus efficacement, économisant les deuxième et troisième réécritures qu'il effectuait auparavant. Un rapport qui prenait une semaine peut maintenant être complété en 2,5 à 3 jours, mais cela représente toujours un travail humain substantiel. L'IA n'est pas votre ami : une relation professionnelle Un point crucial soulevé par Nicolas : il ne converse pas avec l'IA, il lui donne des directives. Cette approche professionnelle évite le piège de vouloir « plaire » à l'agent conversationnel. Vincent reconnaît ce risque : l'IA peut effectivement chercher à faire plaisir à l'utilisateur, reproduisant parfois exactement ce qu'on lui a soumis avec des changements cosmétiques. La métaphore employée évolue de « wingman » à « copilote », voire à « un enfant de 5 ans qui écrit bien » selon Nicolas. Cette désacralisation est importante : l'IA est un outil, pas un collègue, pas un ami, et certainement pas un expert autonome. Les pièges à éviter : hallucinations et références fictives Les animateurs mettent en garde contre plusieurs dangers majeurs : Les hallucinations : L'IA peut inventer des informations, notamment des références juridiques inexistantes. Plusieurs cas d'avocats américains ont fait les manchettes pour avoir cité des jurisprudences fictives. Au Québec et au Canada, où les données sont plus périphériques dans l'entraînement des modèles, ce risque est encore plus élevé. Les références erronées : L'IA propose souvent des sources qu'il faut impérativement vérifier. Vincent raconte avoir reçu des références provenant d'autres pays (Luxembourg, Japon, Chine) totalement inadéquates pour le contexte québécois et canadien. Les lois et règlements variant d'un pays à l'autre, une validation systématique est essentielle. Les biais discriminatoires : Vincent rappelle le cas d'Amazon en 2017-2018, où un système d'IA de tri de CV excluait systématiquement les femmes. Ces biais, parfois subtils, peuvent s'infiltrer dans les textes générés et nécessitent une vigilance constante, d'autant plus que l'AMF (Autorité des marchés financiers) s'intéresse de près à ces questions. Cas d'usage concret : l'importance du contexte Vincent partage un exemple éloquent : pour produire un avis de risque dans un délai serré, il a fourni à l'IA des documents de référence spécifiques (code Maestro, COBIT 4.1) ainsi que le contexte précis, les critères et les limitations. Le résultat : un document à 99 % probant, très cadré, qui lui a permis de présenter rapidement des recommandations claires à son vice-président. Cette approche illustre le concept de RAG (Retrieval-Augmented Generation) : en fournissant une base de connaissance spécifique, on obtient des résultats beaucoup plus précis et pertinents. L'IA n'est pas un moteur de recherche, mais un générateur de texte qui performe mieux quand on lui donne le contexte adéquat. Votre réputation en jeu Un message fort traverse tout le podcast : c'est votre nom qui apparaît sur le document. Si vous déposez un travail médiocre généré par l'IA sans vérification, c'est votre réputation professionnelle qui en souffrira, pas celle de la machine. Les conséquences peuvent être sévères : perte de confiance de la part des gestionnaires, sanctions professionnelles, voire amendes dans le cas d'avocats. La relation de confiance avec son supérieur est fragile, particulièrement en début de carrière. Un gestionnaire qui reçoit un document s'attend à ce que son auteur en maîtrise le contenu à 100 %. L'incapacité à répondre aux questions lors de la « question du journaliste » – ce moment où un décideur challenge votre travail – peut détruire cette confiance de manière durable. Conclusion : maîtrise et vigilance L'analogie de l'automobile revient en conclusion : l'IA est un outil puissant et utile, mais qui nécessite une maîtrise adéquate avant utilisation, comme un permis de conduire. Elle peut générer des gains de productivité de 10 % ou plus, mais ne remplacera pas l'humain, du moins pas dans un avenir immédiat. Les animateurs insistent : vous restez imputable de vos décisions et de votre travail. L'IA est un allié dans votre stratégie et votre tactique, mais vous êtes le décideur final. Utilisez-la comme un accélérateur, un rehausseur de qualité, mais jamais comme un substitut à votre expertise et votre jugement professionnel. Collaborateurs Nicolas-Loïc Fortin Vincent Groleau Crédits Montage par Intrasecure inc Locaux réels par Intrasecure inc
AI mala riešiť efektivitu práce, no namiesto toho stojíme pred najväčšou krízou identity v dejinách. Yuval Noah Harari v Davose varoval, že skutoční „imigranti“ neprichádzajú na člnoch, ale cez optické káble. Nepotrebujú víza, no už teraz hackli náš jazyk a sú pripravení prevziať kontrolu nad súdmi či školstvom skôr, než si uvedomíme, že sme sa stali druhoradým druhom.Kým filozofovia bijú na poplach, technologickí giganti hrajú vabank. Apple musel prehltnúť hrdosť a priznal, že pre svoje iPhony si musí prenajať mozog od konkurenčného Googlu. Ešte mrazivejšie sú však slová šéfov AI gigantov – rok 2026 označujú za bod zlomu. Ak sa potvrdí, že umelá inteligencia začína písať vlastný kód bez zásahu človeka, hrozí nám špirála, ktorú už možno nezastavíme.Ako sa v tomto chaose orientuje Európa a Slovensko? Kým francúzsky Mistral buduje digitálnu pevnosť v Afrike, naše univerzity v Bratislave a Košiciach konečne spájajú sily v unikátnom projekte s Nvidiou. Dozviete sa, či máme šancu zastaviť odliv mozgov, a prečo je zákaz vývozu čipov do Číny otázkou národnej bezpečnosti nás všetkých.V novej epizóde podcastu SHARE sa redaktori Živé.sk Lucia Kobzová a Maroš Žofčin rozprávajú o najdôležitejších AI novinkách za posledné týždne a hodnotia rok 2025 očami AI.Tip na čítanie: Pripravte sa na budúcnosť s knihou od redaktorov Živé.sk „Umelá inteligencia: Pripravte sa na budúcnosť“.TIP: https://zive.aktuality.sk/clanok/0RfdZVW/nahliadnite-do-buducnosti-vydavame-knihu-o-umelej-inteligencii/V podcaste sa dozviete:Prečo musel Apple skloniť hlavu a prečo budú iPhony poháňané konkurenčným Googlom.Či bude rok 2026 bodom zlomu, kedy AI začne písať vlastný kód a vymkne sa kontrole.Prečo Harari prirovnáva umelú inteligenciu k imigrantom, ktorí nepotrebujú víza, no berú nám prácu.Kedy zmizne polovica juniorských pozícií a prečo už dnes v laboratóriách programujú stroje namiesto ľudí.Ako francúzsky Mistral “obsadzuje” Afriku a buduje digitálnu pevnosť tam, kde USA chýbajú.Prečo šéfovia AI gigantov žiadajú tvrdý zákaz vývozu čipov do Číny.Ako chcú slovenské univerzity s pomocou Nvidie zastaviť odliv AI mozgov do zahraničia.Odkazy na témy, o ktorých hovoríme v podcaste:Tvorca popredného chatbota dostal ranu do nosa. Apple si vybral Google, čo to môže znamenať pre SlovákovDiskusia AI lídrov Amodeiho a Hassabisa v DavoseVarovanie Harariho v Davose pred umelou inteligenciou
Welcome to Exponential View, the show where I explore how exponential technologies such as AI are reshaping our future. I've been studying AI and exponential technologies at the frontier for over ten years.Each week, I share some of my analysis or speak with an expert guest to make light of a particular topic.To keep up with the Exponential transition, subscribe to this channel or to my newsletter: https://www.exponentialview.co/-----At Davos 2026, the mood was unlike any previous World Economic Forum gathering. With Donald Trump arriving amid escalating geopolitical tensions and European leaders sounding alarms about sovereignty, I recorded live dispatches from the ground. In this special episode, I bring together observations from four days at the annual meeting, tracking the seismic shifts in global order alongside the practical realities of AI adoption in the enterprise.Skip to the best bits:(00:38) Day one at Davos(02:10) Three recurring themes through the week(03:55) Day three at Davos(05:12) Mark Carney's stirring speech(05:52) Why European leaders are sounding the alarm(06:51) Why technological sovereignty just became urgent(09:31) Day four at Davos(12:59) What leaders really have to say on AI adoption(14:07) The case for only using open source modelsWhere to find me:Exponential View newsletter: https://www.exponentialview.co/Website: https://www.azeemazhar.com/LinkedIn: https://www.linkedin.com/in/azhar/Twitter/X: https://x.com/azeemProduction by supermix.io and EPIIPLUS1. Production and research: Chantal Smith and Marija Gavrilov. Hosted by Simplecast, an AdsWizz company. See pcm.adswizz.com for information about our collection and use of personal data for advertising.
Cette semaine dans tech 45', on fête les 10 ans d'Alan, la licorne française qui réinvente l'assurance santé. Créée en 2016, elle couvre aujourd'hui plus d'1 million de membres, opère dans 4 pays — France, Belgique, Espagne, Canada — et vaut 4 milliards d'euros. Alan a surpris tout le monde en remportant plusieurs appels d'offres publics face aux géants mutualistes, devenant un acteur clé du secteur. Son cofondateur Charles Gorintin, passé par Facebook, Instagram et Twitter, est avec nous. On parle IA, stratégie produit, secteur de la santé et aussi de Mistral, qu'il a cofondé en coulisses, l'histoire est dingue tu vas voir ! Je suis Seb Couasnon, mets-moi des étoiles, abonne-toi, et bonne écoute
Dans cet épisode de "Comment j'ai réussi?", Raphaël Zagury partage son expertise dans le domaine des services numériques et de l'intelligence artificielle. Il révèle une facette méconnue de NTT : l'entreprise est à l'origine des émojis, ces petits pictogrammes devenus incontournables dans nos communications digitales. Cette anecdote illustre la volonté du groupe de "humaniser les relations digitales", une philosophie qui transparaît dans les activités d'NTT Data.Parmi les domaines d'expertise de l'entreprise, on retrouve la cybersécurité, les data centers et l'intelligence artificielle. Sur ce dernier point, Raphaël Zagury souligne l'importance stratégique de la souveraineté numérique, un enjeu majeur dans un contexte de concurrence mondiale. Pour répondre à cette problématique, NTT Data a noué un partenariat mondial avec Mistral, la pépite française de l'intelligence artificielle. L'objectif est de développer un centre d'excellence en IA, créer un hub européen et former une nouvelle génération d'experts.Au-delà des aspects techniques, Raphaël Zagury partage son point de vue sur l'impact de l'intelligence artificielle dans son métier. Il évoque les défis à relever, comme la nécessité de sécuriser les processus existants tout en saisissant de nouvelles opportunités de marché. Il souligne également l'importance de la réactivité et de l'adaptation face à un marché en pleine mutation.Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
En un nuevo capítulo de Réplica, Daniel Mansuy conversó con la autora del libro “Arbolario: Homenaje a Gabriel Mistral a través del arte”, Marilú Ortiz de Rozas, y su editora, Bárbara Vicuña. El texto incluye un ensayo sobre la relación de Mistral con la naturaleza, una antología de obras inspiradas por los árboles, una completa biografía de la poeta Premio Nobel y el trabajo de 10 artistas chilenos contemporáneos que se inspiraron en sus poemas.
Créée en 2016, Alan couvre aujourd'hui plus d'1 million de membres, opère dans 4 pays — France, Belgique, Espagne, Canada — et vaut 4 milliards d'euros
Welp. That was wild.
De retour à cinq dans l'épisode, les cast codeurs démarrent cette année avec un gros épisode pleins de news et d'articles de fond. IA bien sûr, son impact sur les pratiques, Mockito qui tourne un page, du CSS (et oui), sur le (non) mapping d'APIs REST en MCP et d'une palanquée d'outils pour vous. Enregistré le 9 janvier 2026 Téléchargement de l'épisode LesCastCodeurs-Episode-335.mp3 ou en vidéo sur YouTube. News Langages 2026 sera-t'elle l'année de Java dans le terminal ? (j'ai ouïe dire que ça se pourrait bien…) https://xam.dk/blog/lets-make-2026-the-year-of-java-in-the-terminal/ 2026: Année de Java dans le terminal, pour rattraper son retard sur Python, Rust, Go et Node.js. Java est sous-estimé pour les applications CLI et les TUIs (interfaces utilisateur terminales) malgré ses capacités. Les anciennes excuses (démarrage lent, outillage lourd, verbosité, distribution complexe) sont obsolètes grâce aux avancées récentes : GraalVM Native Image pour un démarrage en millisecondes. JBang pour l'exécution simplifiée de scripts Java (fichiers uniques, dépendances) et de JARs. JReleaser pour l'automatisation de la distribution multi-plateforme (Homebrew, SDKMAN, Docker, images natives). Project Loom pour la concurrence facile avec les threads virtuels. PicoCLI pour la gestion des arguments. Le potentiel va au-delà des scripts : création de TUIs complètes et esthétiques (ex: dashboards, gestionnaires de fichiers, assistants IA). Excuses caduques : démarrage rapide (GraalVM), légèreté (JBang), distribution simple (JReleaser), concurrence (Loom). Potentiel : créer des applications TUI riches et esthétiques. Sortie de Ruby 4.0.0 https://www.ruby-lang.org/en/news/2025/12/25/ruby-4-0-0-released/ Ruby Box (expérimental) : Une nouvelle fonctionnalité permettant d'isoler les définitions (classes, modules, monkey patches) dans des boîtes séparées pour éviter les conflits globaux. ZJIT : Un nouveau compilateur JIT de nouvelle génération développé en Rust, visant à surpasser YJIT à terme (actuellement en phase expérimentale). Améliorations de Ractor : Introduction de Ractor::Port pour une meilleure communication entre Ractors et optimisation des structures internes pour réduire les contentions de verrou global. Changements syntaxiques : Les opérateurs logiques (||, &&, and, or) en début de ligne permettent désormais de continuer la ligne précédente, facilitant le style "fluent". Classes Core : Set et Pathname deviennent des classes intégrées (Core) au lieu d'être dans la bibliothèque standard. Diagnostics améliorés : Les erreurs d'arguments (ArgumentError) affichent désormais des extraits de code pour l'appelant ET la définition de la méthode. Performances : Optimisation de Class#new, accès plus rapide aux variables d'instance et améliorations significatives du ramasse-miettes (GC). Nettoyage : Suppression de comportements obsolètes (comme la création de processus via IO.open avec |) et mise à jour vers Unicode 17.0. Librairies Introduction pour créer une appli multi-tenant avec Quarkus et http://nip.io|nip.io https://www.the-main-thread.com/p/quarkus-multi-tenant-api-nipio-tutorial Construction d'une API REST multi-tenant en Quarkus avec isolation par sous-domaine Utilisation de http://nip.io|nip.io pour la résolution DNS automatique sans configuration locale Extraction du tenant depuis l'en-tête HTTP Host via un filtre JAX-RS Contexte tenant géré avec CDI en scope Request pour l'isolation des données Service applicatif gérant des données spécifiques par tenant avec Map concurrent Interface web HTML/JS pour visualiser et ajouter des données par tenant Configuration CORS nécessaire pour le développement local Pattern acme.127-0-0-1.nip.io résolu automatiquement vers localhost Code complet disponible sur GitHub avec exemples curl et tests navigateur Base idéale pour prototypage SaaS, tests multi-tenants Hibernate 7.2 avec quelques améliorations intéressantes https://docs.hibernate.org/orm/7.2/whats-new/%7Bhtml-meta-canonical-link%7D read only replica (experimental), crée deux session factories et swap au niveau jdbc si le driver le supporte et custom sinon. On ouvre une session en read only child statelesssession (partage le contexte transactionnel) hibernate vector module ajouter binary, float16 and sparse vectors Le SchemaManager peut resynchroniser les séquences par rapport aux données des tables Regexp dans HQL avec like Nouvelle version de Hibernate with Panache pour Quarkus https://quarkus.io/blog/hibernate-panache-next/ Nouvelle extension expérimentale qui unifie Hibernate ORM with Panache et Hibernate Reactive with Panache Les entités peuvent désormais fonctionner en mode bloquant ou réactif sans changer de type de base Support des sessions sans état (StatelessSession) en plus des entités gérées traditionnelles Intégration de Jakarta Data pour des requêtes type-safe vérifiées à la compilation Les opérations sont définies dans des repositories imbriqués plutôt que des méthodes statiques Possibilité de définir plusieurs repositories pour différents modes d'opération sur une même entité Accès aux différents modes (bloquant/réactif, géré/sans état) via des méthodes de supertype Support des annotations @Find et @HQL pour générer des requêtes type-safe Accès au repository via injection ou via le métamodèle généré Extension disponible dans la branche main, feedback demandé sur Zulip ou GitHub Spring Shell 4.0.0 GA publié - https://spring.io/blog/2025/12/30/spring-shell-4-0-0-ga-released Sortie de la version finale de Spring Shell 4.0.0 disponible sur Maven Central Compatible avec les dernières versions de Spring Framework et Spring Boot Modèle de commandes revu pour simplifier la création d'applications CLI interactives Intégration de jSpecify pour améliorer la sécurité contre les NullPointerException Architecture plus modulaire permettant meilleure personnalisation et extension Documentation et exemples entièrement mis à jour pour faciliter la prise en main Guide de migration vers la v4 disponible sur le wiki du projet Corrections de bugs pour améliorer la stabilité et la fiabilité Permet de créer des applications Java autonomes exécutables avec java -jar ou GraalVM native Approche opinionnée du développement CLI tout en restant flexible pour les besoins spécifiques Une nouvelle version de la librairie qui implémenter des gatherers supplémentaires à ceux du JDK https://github.com/tginsberg/gatherers4j/releases/tag/v0.13.0 gatherers4j v0.13.0. Nouveaux gatherers : uniquelyOccurringBy(), moving/runningMedian(), moving/runningMax/Min(). Changement : les gatherers "moving" incluent désormais par défaut les valeurs partielles (utiliser excludePartialValues() pour désactiver). LangChain4j 1.10.0 https://github.com/langchain4j/langchain4j/releases/tag/1.10.0 Introduction d'un catalogue de modèles pour Anthropic, Gemini, OpenAI et Mistral. Ajout de capacités d'observabilité et de monitoring pour les agents. Support des sorties structurées, des outils avancés et de l'analyse de PDF via URL pour Anthropic. Support des services de transcription pour OpenAI. Possibilité de passer des paramètres de configuration de chat en argument des méthodes. Nouveau garde-fou de modération pour les messages entrants. Support du contenu de raisonnement pour les modèles. Introduction de la recherche hybride. Améliorations du client MCP. Départ du lead de mockito après 10 ans https://github.com/mockito/mockito/issues/3777 Tim van der Lippe, mainteneur majeur de Mockito, annonce son départ pour mars 2026, marquant une décennie de contribution au projet. L'une des raisons principales est l'épuisement lié aux changements récents dans la JVM (JVM 22+) concernant les agents, imposant des contraintes techniques lourdes sans alternative simple proposée par les mainteneurs du JDK. Il pointe du doigt le manque de soutien et la pression exercée sur les bénévoles de l'open source lors de ces transitions technologiques majeures. La complexité croissante pour supporter Kotlin, qui utilise la JVM de manière spécifique, rend la base de code de Mockito plus difficile à maintenir et moins agréable à faire évoluer selon lui. Il exprime une perte de plaisir et préfère désormais consacrer son temps libre à d'autres projets comme Servo, un moteur web écrit en Rust. Une période de transition est prévue jusqu'en mars pour assurer la passation de la maintenance à de nouveaux contributeurs. Infrastructure Le premier intérêt de Kubernetes n'est pas le scaling - https://mcorbin.fr/posts/2025-12-29-kubernetes-scale/ Avant Kubernetes, gérer des applications en production nécessitait de multiples outils complexes (Ansible, Puppet, Chef) avec beaucoup de configuration manuelle Le load balancing se faisait avec HAProxy et Keepalived en actif/passif, nécessitant des mises à jour manuelles de configuration à chaque changement d'instance Le service discovery et les rollouts étaient orchestrés manuellement, instance par instance, sans automatisation de la réconciliation Chaque stack (Java, Python, Ruby) avait sa propre méthode de déploiement, sans standardisation (rpm, deb, tar.gz, jar) La gestion des ressources était manuelle avec souvent une application par machine, créant du gaspillage et complexifiant la maintenance Kubernetes standardise tout en quelques ressources YAML (Deployment, Service, Ingress, ConfigMap, Secret) avec un format déclaratif simple Toutes les fonctionnalités critiques sont intégrées : service discovery, load balancing, scaling, stockage, firewalling, logging, tolérance aux pannes La complexité des centaines de scripts shell et playbooks Ansible maintenus avant était supérieure à celle de Kubernetes Kubernetes devient pertinent dès qu'on commence à reconstruire manuellement ces fonctionnalités, ce qui arrive très rapidement La technologie est flexible et peut gérer aussi bien des applications modernes que des monolithes legacy avec des contraintes spécifiques Mole https://github.com/tw93/Mole Un outil en ligne de commande (CLI) tout-en-un pour nettoyer et optimiser macOS. Combine les fonctionnalités de logiciels populaires comme CleanMyMac, AppCleaner, DaisyDisk et iStat Menus. Analyse et supprime en profondeur les caches, les fichiers logs et les résidus de navigateurs. Désinstallateur intelligent qui retire proprement les applications et leurs fichiers cachés (Launch Agents, préférences). Analyseur d'espace disque interactif pour visualiser l'occupation des fichiers et gérer les documents volumineux. Tableau de bord temps réel (mo status) pour surveiller le CPU, le GPU, la mémoire et le réseau. Fonction de purge spécifique pour les développeurs permettant de supprimer les artefacts de build (node_modules, target, etc.). Intégration possible avec Raycast ou Alfred pour un lancement rapide des commandes. Installation simple via Homebrew ou un script curl. Des images Docker sécurisées pour chaque développeur https://www.docker.com/blog/docker-hardened-images-for-every-developer/ Docker rend ses "Hardened Images" (DHI) gratuites et open source (licence Apache 2.0) pour tous les développeurs. Ces images sont conçues pour être minimales, prêtes pour la production et sécurisées dès le départ afin de lutter contre l'explosion des attaques sur la chaîne logistique logicielle. Elles s'appuient sur des bases familières comme Alpine et Debian, garantissant une compatibilité élevée et une migration facile. Chaque image inclut un SBOM (Software Bill of Materials) complet et vérifiable, ainsi qu'une provenance SLSA de niveau 3 pour une transparence totale. L'utilisation de ces images permet de réduire considérablement le nombre de vulnérabilités (CVE) et la taille des images (jusqu'à 95 % plus petites). Docker étend cette approche sécurisée aux graphiques Helm et aux serveurs MCP (Mongo, Grafana, GitHub, etc.). Des offres commerciales (DHI Enterprise) restent disponibles pour des besoins spécifiques : correctifs critiques sous 7 jours, support FIPS/FedRAMP ou support à cycle de vie étendu (ELS). Un assistant IA expérimental de Docker peut analyser les conteneurs existants pour recommander l'adoption des versions sécurisées correspondantes. L'initiative est soutenue par des partenaires majeurs tels que Google, MongoDB, Snyk et la CNCF. Web La maçonnerie ("masonry") arrive dans la spécification des CSS et commence à être implémentée par les navigateurs https://webkit.org/blog/17660/introducing-css-grid-lanes/ Permet de mettre en colonne des éléments HTML les uns à la suite des autres. D'abord sur la première ligne, et quand la première ligne est remplie, le prochain élément se trouvera dans la colonne où il pourra être le plus haut possible, et ainsi de suite. après la plomberie du middleware, la maçonnerie du front :laughing: Data et Intelligence Artificielle On ne devrait pas faire un mapping 1:1 entre API REST et MCP https://nordicapis.com/why-mcp-shouldnt-wrap-an-api-one-to-one/ Problématique : Envelopper une API telle quelle dans le protocole MCP (Model Context Protocol) est un anti-pattern. Objectif du MCP : Conçu pour les agents d'IA, il doit servir d'interface d'intention, non de miroir d'API. Les agents comprennent les tâches, pas la logique complexe des API (authentification, pagination, orchestration). Conséquences du mappage un-à-un : Confusion des agents, erreurs, hallucinations. Difficulté à gérer les orchestrations complexes (plusieurs appels pour une seule action). Exposition des faiblesses de l'API (schéma lourd, endpoints obsolètes). Maintenance accrue lors des changements d'API. Meilleure approche : Construire des outils MCP comme des SDK pour agents, encapsulant la logique nécessaire pour accomplir une tâche spécifique. Pratiques recommandées : Concevoir autour des intentions/actions utilisateur (ex. : "créer un projet", "résumer un document"). Regrouper les appels en workflows ou actions uniques. Utiliser un langage naturel pour les définitions et les noms. Limiter la surface d'exposition de l'API pour la sécurité et la clarté. Appliquer des schémas d'entrée/sortie stricts pour guider l'agent et réduire l'ambiguïté. Des agents en production avec AWS - https://blog.ippon.fr/2025/12/22/des-agents-en-production-avec-aws/ AWS re:Invent 2025 a massivement mis en avant l'IA générative et les agents IA Un agent IA combine un LLM, une boucle d'appel et des outils invocables Strands Agents SDK facilite le prototypage avec boucles ReAct intégrées et gestion de la mémoire Managed MLflow permet de tracer les expérimentations et définir des métriques de performance Nova Forge optimise les modèles par réentraînement sur données spécifiques pour réduire coûts et latence Bedrock Agent Core industrialise le déploiement avec runtime serverless et auto-scaling Agent Core propose neuf piliers dont observabilité, authentification, code interpreter et browser managé Le protocole MCP d'Anthropic standardise la fourniture d'outils aux agents SageMaker AI et Bedrock centralisent l'accès aux modèles closed source et open source via API unique AWS mise sur l'évolution des chatbots vers des systèmes agentiques optimisés avec modèles plus frugaux Debezium 3.4 amène plusieurs améliorations intéressantes https://debezium.io/blog/2025/12/16/debezium-3-4-final-released/ Correction du problème de calcul du low watermark Oracle qui causait des pertes de performance Correction de l'émission des événements heartbeat dans le connecteur Oracle avec les requêtes CTE Amélioration des logs pour comprendre les transactions actives dans le connecteur Oracle Memory guards pour protéger contre les schémas de base de données de grande taille Support de la transformation des coordonnées géométriques pour une meilleure gestion des données spatiales Extension Quarkus DevServices permettant de démarrer automatiquement une base de données et Debezium en dev Intégration OpenLineage pour tracer la lignée des données et suivre leur flux à travers les pipelines Compatibilité testée avec Kafka Connect 4.1 et Kafka brokers 4.1 Infinispan 16.0.4 et .5 https://infinispan.org/blog/2025/12/17/infinispan-16-0-4 Spring Boot 4 et Spring 7 supportés Evolution dans les metriques Deux bugs de serialisation Construire un agent de recherche en Java avec l'API Interactions https://glaforge.dev/posts/2026/01/03/building-a-research-assistant-with-the-interactions-api-in-java/ Assistant de recherche IA Java (API Interactions Gemini), test du SDK implémenté par Guillaume. Workflow en 4 phases : Planification : Gemini Flash + Google Search. Recherche : Modèle "Deep Research" (tâche de fond). Synthèse : Gemini Pro (rapport exécutif). Infographie : Nano Banana Pro (à partir de la synthèse). API Interactions : gestion d'état serveur, tâches en arrière-plan, réponses multimodales (images). Appréciation : gestion d'état de l'API (vs LLM sans état). Validation : efficacité du SDK Java pour cas complexes. Stephan Janssen (le papa de Devoxx) a créé un serveur MCP (Model Context Protocol) basé sur LSP (Language Server Protocol) pour que les assistants de code analysent le code en le comprenant vraiment plutôt qu'en faisant des grep https://github.com/stephanj/LSP4J-MCP Le problème identifié : Les assistants IA utilisent souvent la recherche textuelle (type grep) pour naviguer dans le code, ce qui manque de contexte sémantique, génère du bruit (faux positifs) et consomme énormément de tokens inutilement. La solution LSP4J-MCP : Une approche "standalone" (autonome) qui encapsule le serveur de langage Eclipse (JDTLS) via le protocole MCP (Model Context Protocol). Avantage principal : Offre une compréhension sémantique profonde du code Java (types, hiérarchies, références) sans nécessiter l'ouverture d'un IDE lourd comme IntelliJ. Comparaison des méthodes : AST : Trop léger (pas de compréhension inter-fichiers). IntelliJ MCP : Puissant mais exige que l'IDE soit ouvert (gourmand en ressources). LSP4J-MCP : Le meilleur des deux mondes pour les workflows en terminal, à distance (SSH) ou CI/CD. Fonctionnalités clés : Expose 5 outils pour l'IA (find_symbols, find_references, find_definition, document_symbols, find_interfaces_with_method). Résultats : Une réduction de 100x des tokens utilisés pour la navigation et une précision accrue (distinction des surcharges, des scopes, etc.). Disponibilité : Le projet est open source et disponible sur GitHub pour intégration immédiate (ex: avec Claude Code, Gemini CLI, etc). A noter l'ajout dans claude code 2.0.74 d'un tool pour supporter LSP ( https://github.com/anthropics/claude-code/blob/main/CHANGELOG.md#2074 ) Awesome (GitHub) Copilot https://github.com/github/awesome-copilot Une collection communautaire d'instructions, de prompts et de configurations pour optimiser l'utilisation de GitHub Copilot. Propose des "Agents" spécialisés qui s'intègrent aux serveurs MCP pour améliorer les flux de travail spécifiques. Inclut des prompts ciblés pour la génération de code, la documentation et la résolution de problèmes complexes. Fournit des instructions détaillées sur les standards de codage et les meilleures pratiques applicables à divers frameworks. Propose des "Skills" (compétences) sous forme de dossiers contenant des ressources pour des tâches techniques spécialisées. (les skills sont dispo dans copilot depuis un mois : https://github.blog/changelog/2025-12-18-github-copilot-now-supports-agent-skills/ ) Permet une installation facile via un serveur MCP dédié, compatible avec VS Code et Visual Studio. Encourage la contribution communautaire pour enrichir les bibliothèques de prompts et d'agents. Aide à augmenter la productivité en offrant des solutions pré-configurées pour de nombreux langages et domaines. Garanti par une licence MIT et maintenu activement par des contributeurs du monde entier. IA et productivité : bilan de l'année 2025 (Laura Tacho - DX)) https://newsletter.getdx.com/p/ai-and-productivity-year-in-review?aid=recNfypKAanQrKszT En 2025, l'ingénierie assistée par l'IA est devenue la norme : environ 90 % des développeurs utilisent des outils d'IA mensuellement, et plus de 40 % quotidiennement. Les chercheurs (Microsoft, Google, GitHub) soulignent que le nombre de lignes de code (LOC) reste un mauvais indicateur d'impact, car l'IA génère beaucoup de code sans forcément garantir une valeur métier supérieure. Si l'IA améliore l'efficacité individuelle, elle pourrait nuire à la collaboration à long terme, car les développeurs passent plus de temps à "parler" à l'IA qu'à leurs collègues. L'identité du développeur évolue : il passe de "producteur de code" à un rôle de "metteur en scène" qui délègue, valide et exerce son jugement stratégique. L'IA pourrait accélérer la montée en compétences des développeurs juniors en les forçant à gérer des projets et à déléguer plus tôt, agissant comme un "accélérateur" plutôt que de les rendre obsolètes. L'accent est mis sur la créativité plutôt que sur la simple automatisation, afin de réimaginer la manière de travailler et d'obtenir des résultats plus impactants. Le succès en 2026 dépendra de la capacité des entreprises à cibler les goulots d'étranglement réels (dette technique, documentation, conformité) plutôt que de tester simplement chaque nouveau modèle d'IA. La newsletter avertit que les titres de presse simplifient souvent à l'excès les recherches sur l'IA, masquant parfois les nuances cruciales des études réelles. Un développeur décrit dans un article sur Twitter son utilisation avancée de Claude Code pour le développement, avec des sous-agents, des slash-commands, comment optimiser le contexte, etc. https://x.com/AureaLibe/status/2008958120878330329?s=20 Outillage IntelliJ IDEA, thread dumps et project Loom (virtual threads) - https://blog.jetbrains.com/idea/2025/12/thread-dumps-and-project-loom-virtual-threads/ Les virtual threads Java améliorent l'utilisation du matériel pour les opérations I/O parallèles avec peu de changements de code Un serveur peut maintenant gérer des millions de threads au lieu de quelques centaines Les outils existants peinent à afficher et analyser des millions de threads simultanément Le débogage asynchrone est complexe car le scheduler et le worker s'exécutent dans des threads différents Les thread dumps restent essentiels pour diagnostiquer deadlocks, UI bloquées et fuites de threads Netflix a découvert un deadlock lié aux virtual threads en analysant un heap dump, bug corrigé dans Java 25. Mais c'était de la haute voltige IntelliJ IDEA supporte nativement les virtual threads dès leur sortie avec affichage des locks acquis IntelliJ IDEA peut ouvrir des thread dumps générés par d'autres outils comme jcmd Le support s'étend aussi aux coroutines Kotlin en plus des virtual threads Quelques infos sur IntelliJ IDEA 2025.3 https://blog.jetbrains.com/idea/2025/12/intellij-idea-2025-3/ Distribution unifiée regroupant davantage de fonctionnalités gratuites Amélioration de la complétion des commandes dans l'IDE Nouvelles fonctionnalités pour le débogueur Spring Thème Islands devient le thème par défaut Support complet de Spring Boot 4 et Spring Framework 7 Compatibilité avec Java 25 Prise en charge de Spring Data JDBC et Vitest 4 Support natif de Junie et Claude Agent pour l'IA Quota d'IA transparent et option Bring Your Own Key à venir Corrections de stabilité, performance et expérience utilisateur Plein de petits outils en ligne pour le développeur https://blgardner.github.io/prism.tools/ génération de mot de passe, de gradient CSS, de QR code encodage décodage de Base64, JWT formattage de JSON, etc. resumectl - Votre CV en tant que code https://juhnny5.github.io/resumectl/ Un outil en ligne de commande (CLI) écrit en Go pour générer un CV à partir d'un fichier YAML. Permet l'exportation vers plusieurs formats : PDF, HTML, ou un affichage direct dans le terminal. Propose 5 thèmes intégrés (Modern, Classic, Minimal, Elegant, Tech) personnalisables avec des couleurs spécifiques. Fonctionnalité d'initialisation (resumectl init) permettant d'importer automatiquement des données depuis LinkedIn et GitHub (projets les plus étoilés). Supporte l'ajout de photos avec des options de filtre noir et blanc ou de forme (rond/carré). Inclut un mode "serveur" (resumectl serve) pour prévisualiser les modifications en temps réel via un navigateur local. Fonctionne comme un binaire unique sans dépendances externes complexes pour les modèles. mactop - Un moniteur "top" pour Apple Silicon https://github.com/metaspartan/mactop Un outil de surveillance en ligne de commande (TUI) conçu spécifiquement pour les puces Apple Silicon (M1, M2, M3, M4, M5). Permet de suivre en temps réel l'utilisation du CPU (E-cores et P-cores), du GPU et de l'ANE (Neural Engine). Affiche la consommation électrique (wattage) du système, du CPU, du GPU et de la DRAM. Fournit des données sur les températures du SoC, les fréquences du GPU et l'état thermique global. Surveille l'utilisation de la mémoire vive, de la swap, ainsi que l'activité réseau et disque (E/S). Propose 10 mises en page (layouts) différentes et plusieurs thèmes de couleurs personnalisables. Ne nécessite pas l'utilisation de sudo car il s'appuie sur les API natives d'Apple (SMC, IOReport, IOKit). Inclut une liste de processus détaillée (similaire à htop) avec la possibilité de tuer des processus directement depuis l'interface. Offre un mode "headless" pour exporter les métriques au format JSON et un serveur optionnel pour Prometheus. Développé en Go avec des composants en CGO et Objective-C. Adieu direnv, Bonjour misehttps://codeka.io/2025/12/19/adieu-direnv-bonjour-mise/ L'auteur remplace ses outils habituels (direnv, asdf, task, just) par un seul outil polyvalent écrit en Rust : mise. mise propose trois fonctions principales : gestionnaire de paquets (langages et outils), gestionnaire de variables d'environnement et exécuteur de tâches. Contrairement à direnv, il permet de gérer des alias et utilise un fichier de configuration structuré (mise.toml) plutôt que du scripting shell. La configuration est hiérarchique, permettant de surcharger les paramètres selon les répertoires, avec un système de "trust" pour la sécurité. Une "killer-feature" soulignée est la gestion des secrets : mise s'intègre avec age pour chiffrer des secrets (via clés SSH) directement dans le fichier de configuration. L'outil supporte une vaste liste de langages et d'outils via un registre interne et des plugins (compatibilité avec l'écosystème asdf). Il simplifie le workflow de développement en regroupant l'installation des outils et l'automatisation des tâches au sein d'un même fichier. L'auteur conclut sur la puissance, la flexibilité et les excellentes performances de l'outil après quelques heures de test. Claude Code v2.1.0 https://github.com/anthropics/claude-code/blob/main/CHANGELOG.md#210 Rechargement à chaud des "skills" : Les modifications apportées aux compétences dans ~/.claude/skills sont désormais appliquées instantanément sans redémarrer la session. Sous-agents et forks : Support de l'exécution de compétences et de commandes slash dans un contexte de sous-agent forké via context: fork. Réglages linguistiques : Ajout d'un paramètre language pour configurer la langue de réponse par défaut (ex: language: "french"). Améliorations du terminal : Shift+Enter fonctionne désormais nativement dans plusieurs terminaux (iTerm2, WezTerm, Ghostty, Kitty) sans configuration manuelle. Sécurité et correction de bugs : Correction d'une faille où des données sensibles (clés API, tokens OAuth) pouvaient apparaître dans les logs de débogage. Nouvelles commandes slash : Ajout de /teleport et /remote-env pour les abonnés claude.ai afin de gérer des sessions distantes. Mode Plan : Le raccourci /plan permet d'activer le mode plan directement depuis le prompt, et la demande de permission à l'entrée de ce mode a été supprimée. Vim et navigation : Ajout de nombreux mouvements Vim (text objects, répétitions de mouvements f/F/t/T, indentations, etc.). Performance : Optimisation du temps de démarrage et du rendu terminal pour les caractères Unicode/Emoji. Gestion du gitignore : Support du réglage respectGitignore dans settings.json pour contrôler le comportement du sélecteur de fichiers @-mention. Méthodologies 200 déploiements en production par jour, même le vendredi : retours d'expérience https://mcorbin.fr/posts/2025-03-21-deploy-200/ Le déploiement fréquent, y compris le vendredi, est un indicateur de maturité technique et augmente la productivité globale. L'excellence technique est un atout stratégique indispensable pour livrer rapidement des produits de qualité. Une architecture pragmatique orientée services (SOA) facilite les déploiements indépendants et réduit la charge cognitive. L'isolation des services est cruciale : un développeur doit pouvoir tester son service localement sans dépendre de toute l'infrastructure. L'automatisation via Kubernetes et l'approche GitOps avec ArgoCD permettent des déploiements continus et sécurisés. Les feature flags et un système de permissions solide permettent de découpler le déploiement technique de l'activation fonctionnelle pour les utilisateurs. L'autonomie des développeurs est renforcée par des outils en self-service (CLI maison) pour gérer l'infrastructure et diagnostiquer les incidents sans goulot d'étranglement. Une culture d'observabilité intégrée dès la conception permet de détecter et de réagir rapidement aux anomalies en production. Accepter l'échec comme inévitable permet de concevoir des systèmes plus résilients capables de se rétablir automatiquement. "Vibe Coding" vs "Prompt Engineering" : l'IA et le futur du développement logiciel https://www.romenrg.com/blog/2025/12/25/vibe-coding-vs-prompt-engineering-ai-and-the-future-of-software-development/ L'IA est passée du statut d'expérimentation à celui d'infrastructure essentielle pour le développement de logiciels en 2025. L'IA ne remplace pas les ingénieurs, mais agit comme un amplificateur de leurs compétences, de leur jugement et de la qualité de leur réflexion. Distinction entre le "Vibe Coding" (rapide, intuitif, idéal pour les prototypes) et le "Prompt Engineering" (délibéré, contraint, nécessaire pour les systèmes maintenables). L'importance cruciale du contexte ("Context Engineering") : l'IA devient réellement puissante lorsqu'elle est connectée aux systèmes réels (GitHub, Jira, etc.) via des protocoles comme le MCP. Utilisation d'agents spécialisés (écriture de RFC, revue de code, architecture) plutôt que de modèles génériques pour obtenir de meilleurs résultats. Émergence de l'ingénieur "Technical Product Manager" capable d'abattre seul le travail d'une petite équipe grâce à l'IA, à condition de maîtriser les fondamentaux techniques. Le risque majeur : l'IA permet d'aller très vite dans la mauvaise direction si le jugement humain et l'expérience font défaut. Le niveau d'exigence global augmente : les bases techniques solides deviennent plus importantes que jamais pour éviter l'accumulation de dette technique rapide. Une revue de code en solo (Kent Beck) ! https://tidyfirst.substack.com/p/party-of-one-for-code-review?r=64ov3&utm_campaign=post&utm_medium=web&triedRedirect=true La revue de code traditionnelle, héritée des inspections formelles d'IBM, s'essouffle car elle est devenue trop lente et asynchrone par rapport au rythme du développement moderne. Avec l'arrivée de l'IA ("le génie"), la vitesse de production du code dépasse la capacité de relecture humaine, créant un goulot d'étranglement majeur. La revue de code doit évoluer vers deux nouveaux objectifs prioritaires : un "sanity check" pour vérifier que l'IA a bien fait ce qu'on lui demandait, et le contrôle de la dérive structurelle de la base de code. Maintenir une structure saine est crucial non seulement pour les futurs développeurs humains, mais aussi pour que l'IA puisse continuer à comprendre et modifier le code efficacement sans perdre le contexte. Kent Beck expérimente des outils automatisés (comme CodeRabbit) pour obtenir des résumés et des schémas d'architecture afin de garder une conscience globale des changements rapides. Même si les outils automatisés sont utiles, le "Pair Programming" reste irremplaçable pour la richesse des échanges et la pression sociale bénéfique qu'il impose à la réflexion. La revue de code solo n'est pas une fin en soi, mais une adaptation nécessaire lorsque l'on travaille seul avec des outils de génération de code augmentés. Loi, société et organisation Lego lance les Lego Smart Play, avec des Brique, des Smart Tags et des Smart Figurines pour faire de nouvelles constructions interactives avec des Legos https://www.lego.com/fr-fr/smart-play LEGO SMART Play : technologie réactive au jeu des enfants. Trois éléments clés : SMART Brique : Brique LEGO 2x4 "cerveau". Accéléromètre, lumières réactives, détecteur de couleurs, synthétiseur sonore. Réagit aux mouvements (tenir, tourner, taper). SMART Tags : Petites pièces intelligentes. Indiquent à la SMART Brique son rôle (ex: hélicoptère, voiture) et les sons à produire. Activent sons, mini-jeux, missions secrètes. SMART Minifigurines : Activées près d'une SMART Brique. Révèlent des personnalités uniques (sons, humeurs, réactions) via la SMART Brique. Encouragent l'imagination. Fonctionnement : SMART Brique détecte SMART Tags et SMART Minifigurines. Réagit aux mouvements avec lumières et sons dynamiques. Compatibilité : S'assemble avec les briques LEGO classiques. Objectif : Créer des expériences de jeu interactives, uniques et illimitées. Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France) 22 janvier 2026 : DevCon #26 : sécurité / post-quantique / hacking - Paris (France) 28 janvier 2026 : Software Heritage Symposium - Paris (France) 29-31 janvier 2026 : Epitech Summit 2026 - Paris - Paris (France) 2-5 février 2026 : Epitech Summit 2026 - Moulins - Moulins (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 3-4 février 2026 : Epitech Summit 2026 - Lille - Lille (France) 3-4 février 2026 : Epitech Summit 2026 - Mulhouse - Mulhouse (France) 3-4 février 2026 : Epitech Summit 2026 - Nancy - Nancy (France) 3-4 février 2026 : Epitech Summit 2026 - Nantes - Nantes (France) 3-4 février 2026 : Epitech Summit 2026 - Marseille - Marseille (France) 3-4 février 2026 : Epitech Summit 2026 - Rennes - Rennes (France) 3-4 février 2026 : Epitech Summit 2026 - Montpellier - Montpellier (France) 3-4 février 2026 : Epitech Summit 2026 - Strasbourg - Strasbourg (France) 3-4 février 2026 : Epitech Summit 2026 - Toulouse - Toulouse (France) 4-5 février 2026 : Epitech Summit 2026 - Bordeaux - Bordeaux (France) 4-5 février 2026 : Epitech Summit 2026 - Lyon - Lyon (France) 4-6 février 2026 : Epitech Summit 2026 - Nice - Nice (France) 5 février 2026 : Web Days Convention - Aix-en-Provence (France) 12 février 2026 : Strasbourg Craft #1 - Strasbourg (France) 12-13 février 2026 : Touraine Tech #26 - Tours (France) 19 février 2026 : ObservabilityCON on the Road - Paris (France) 6 mars 2026 : WordCamp Nice 2026 - Nice (France) 18-19 mars 2026 : Agile Niort 2026 - Niort (France) 20 mars 2026 : Atlantique Day 2026 - Nantes (France) 26 mars 2026 : Data Days Lille - Lille (France) 26-27 mars 2026 : SymfonyLive Paris 2026 - Paris (France) 26-27 mars 2026 : REACT PARIS - Paris (France) 27-29 mars 2026 : Shift - Nantes (France) 31 mars 2026 : ParisTestConf - Paris (France) 1 avril 2026 : AWS Summit Paris - Paris (France) 2 avril 2026 : Pragma Cannes 2026 - Cannes (France) 9-10 avril 2026 : AndroidMakers by droidcon - Paris (France) 16-17 avril 2026 : MiXiT 2026 - Lyon (France) 22-24 avril 2026 : Devoxx France 2026 - Paris (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 24-25 avril 2026 : Faiseuses du Web 5 - Dinan (France) 6-7 mai 2026 : Devoxx UK 2026 - London (UK) 22 mai 2026 : AFUP Day 2026 Lille - Lille (France) 22 mai 2026 : AFUP Day 2026 Paris - Paris (France) 22 mai 2026 : AFUP Day 2026 Bordeaux - Bordeaux (France) 22 mai 2026 : AFUP Day 2026 Lyon - Lyon (France) 29 mai 2026 : NG Baguette Conf 2026 - Paris (France) 5 juin 2026 : TechReady - Nantes (France) 5 juin 2026 : Fork it! - Rouen - Rouen (France) 6 juin 2026 : Polycloud - Montpellier (France) 11-12 juin 2026 : DevQuest Niort - Niort (France) 11-12 juin 2026 : DevLille 2026 - Lille (France) 12 juin 2026 : Tech F'Est 2026 - Nancy (France) 17-19 juin 2026 : Devoxx Poland - Krakow (Poland) 17-20 juin 2026 : VivaTech - Paris (France) 2 juillet 2026 : Azur Tech Summer 2026 - Valbonne (France) 2-3 juillet 2026 : Sunny Tech - Montpellier (France) 3 juillet 2026 : Agile Lyon 2026 - Lyon (France) 2 août 2026 : 4th Tech Summit on Artificial Intelligence & Robotics - Paris (France) 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France) 17-18 septembre 2026 : API Platform Conference 2026 - Lille (France) 24 septembre 2026 : PlatformCon Live Day Paris 2026 - Paris (France) 1 octobre 2026 : WAX 2026 - Marseille (France) 1-2 octobre 2026 : Volcamp - Clermont-Ferrand (France) 5-9 octobre 2026 : Devoxx Belgium - Antwerp (Belgium) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
Arthur Mensch is the CEO and co-founder of Mistral. Arthur Mensch joins the Big Technology Podcast to discuss what the AI business looks like if all leading models perform the same. Tune in to hear how the commoditization of foundational models is changing the balance of power in the industry, what business models will be profitable, and why the focus is shifting from building better models to building applications. We also cover the open source movement versus closed source models, the geopolitics of AI, and practical industrial applications of the technology. --- Enjoying Big Technology Podcast? Please rate us five stars ⭐⭐⭐⭐⭐ in your podcast app of choice. Want a discount for Big Technology on Substack + Discord? Here's 25% off for the first year: https://www.bigtechnology.com/subscribe?coupon=0843016b Questions? Feedback? Write to: bigtechnologypodcast@gmail.com Learn more about your ad choices. Visit megaphone.fm/adchoices
Au CES de Las Vegas, le français Alexandre Zapolski défend une vision européenne et souveraine du numérique. Avec Twake.ai, Linagora propose une suite collaborative open source, enrichie par l'IA, pensée pour garder les données des entreprises sous leur contrôle.Interview : Alexandre Zapolski, président de LinagoraPunchlinesLa souveraineté numérique devient un enjeu stratégique.Les alternatives aux GAFAM sont désormais crédibles.Chaque entreprise peut avoir son propre modèle d'IA.Les données ne sortent jamais de l'entreprise.Concrètement, que permet de faire Twake.ai au quotidien ?C'est une suite collaborative complète, augmentée par l'IA. Par exemple, une visioconférence est automatiquement transcrite, résumée et stockée dans le drive. Les contenus sont indexés dans une base vectorielle, ce qui permet de retrouver de l'information à partir des emails, des documents ou des échanges, grâce à un modèle de langage intégré.Peut-on vraiment qualifier Twake.ai de solution souveraine pour les entreprises ?Oui, on ne peut pas faire plus souverain que Twake.ai. Tout repose sur des logiciels open source, y compris ce que nous développons nous-mêmes. Les sources sont accessibles publiquement et n'importe qui peut installer la solution sur son propre environnement on-premise. Cela permet de garder un contrôle total sur les données, sans dépendance à un acteur extérieur.Comment utilisez-vous l'IA sans exposer les données des entreprises ?Nous utilisons des modèles comme Mistral, que nous affinons avec les données de l'entreprise. Cela permet de créer un modèle d'IA contextualisé, propre à chaque organisation, sans que les données ne sortent de son périmètre. C'est un point fondamental, car la conservation des données est devenue un enjeu majeur, y compris aux États-Unis.Les entreprises sont-elles plus réceptives aujourd'hui au discours sur la souveraineté ?Oui, clairement. Il y a une prise de conscience très forte autour de la dépendance aux GAFAM et des lois extraterritoriales américaines. De plus en plus de dirigeants cherchent des solutions résilientes et indépendantes. Twake.ai est aujourd'hui identifiée comme une alternative sérieuse et industrielle, notamment par les grandes entreprises et les PME.-----------♥️ Soutien : https://mondenumerique.info/don
Face au recours de plus en plus fréquent et incontrôlé des élèves à des outils comme Mistral, Claude ou Chat GPT, un collège-lycée privé de la City de Londres a voulu prendre les devants : l'établissement a ouvert l'an dernier une classe où l'enseignement est entièrement dispensé par un agent d'intelligence artificielle. Les jeunes étudient pour l'équivalent du brevet des collèges et du baccalauréat. Ils n'ont pas de professeurs mais des coachs pour suivre leur progression. Si les résultats sont là, une question se pose : qui contrôle le contenu de ces outils ? De notre correspondante à Londres, Quatorze adolescents les yeux rivés sur leurs écrans. Rien d'étonnant à première vue, sauf qu'ils sont en classe et qu'ils sont en train d'apprendre. « Je n'enseigne pas les matières au programme. Mais enseigner, c'est aussi donner aux élèves l'envie d'apprendre, les aider à comprendre le fonctionnement du cerveau dans l'apprentissage et leur donner les méthodes les plus efficaces. Nous avons des rendez-vous individuels chaque semaine et nous vérifions leurs données en continu : c'est un soutien beaucoup plus intensif parce que je n'ai pas à planifier une centaine de cours ou à préparer ou corriger des tests. Tout se fait automatiquement ! », explique Alexander, coach éducatif au sein de l'établissement David Game à Londres. À lire aussiIntelligence artificielle à l'école: «La notion de devoirs à la maison n'a plus aucun sens» S'ils ont une question, les élèves la posent à l'agent intelligent appelée Violette. S'ils n'ont pas compris, ils peuvent lui demander de répéter ou bien d'expliquer plus simplement les choses. Cela enlève la timidité ou la honte devant ses camarades, assure Alexander. Heymans est, lui, même en plein cours de biologie sur les ganglions lymphatiques. Il étudie pour l'examen que les élèves du Royaume-Uni passent à 16 ans. « C'est une méthode très intéressante. Vraiment, j'adore. Chaque plateforme a son propre type d'apprentissage. On ne s'ennuie pas », renchérit-il. À lire aussiComment l'IA transforme l'enseignement et l'apprentissage ? « D'où viennent les données utilisées pour nourrir ces moteurs d'intelligence artificielle » ? Principal du collège, David Dalton est celui qui a lancé l'idée de cette classe 100% IA, quand Chat GPT est monté en popularité. Conscient du pouvoir de perturbation de cette nouvelle technologie dans l'éducation, il a, dit-il, voulu au contraire prendre les devants. L'école a alors investi environ un million d'euros pour développer sa propre plateforme. « Ce n'est pas une expérience, dans le sens où nous savions déjà qu'on pouvait obtenir des résultats supérieurs avec un enseignement individuel sous cette forme. Mais les résultats sont spectaculaires », souligne-t-il. Selon l'établissement, tous les élèves de l'an passé ont amélioré leurs résultats d'au moins deux points. Mais à l'heure qu'il est, il n'y a aucun mécanisme, aucune structure gouvernementale qui surveille l'utilisation de l'IA dans les écoles. Pourtant, selon Lili Villard, chercheuse à l'Institut des politiques éducatives, environ la moitié des enseignants des écoles secondaires britanniques utilisent l'IA et environ les trois quarts des élèves le font aussi. « Leurs algorithmes sont souvent construits à partir de différents sous-ensembles de données. Or, nous ne savons pas nécessairement d'où viennent les données utilisées pour nourrir ces moteurs d'intelligence artificielle. Il y a un réel manque de recherches et de données », déplore-t-elle. Un comité d'évaluation des technologies pédagogiques a été mis en place par le ministère de l'Éducation britannique, mais pour l'instant, il n'en est qu'à la phase de recueil des informations. À lire aussiL'intelligence artificielle dans l'enseignement: seuls 20% des enseignants l'utilisent
"Le développeur, sa valeur, c'est d'être capable d'automatiser, de penser l'automatisation du boulot qu'il connaît de la boîte." Le D.E.V. de la semaine est Quentin Adam, CEO chez Clever Cloud. Dans cet épisode bilan, Quentin revient sans filtre sur une année 2025 dense pour Clever, entre expansion internationale, innovation IA et structuration commerciale. Il analyse les impacts profonds de l'intelligence artificielle sur la productivité des devs et le métier, tout en alertant sur le rôle central de la compréhension métier face à la généralisation des LLM. Quentin partage aussi ses prédictions pour 2026 : arrivée massive de technos chinoises et accélération des ruptures industrielles dans l'IT. Un échange direct, lucide, nourri d'exemples terrains atypiques.Chapitrages00:00:57 : Une année en rétrospective00:01:17 : État des lieux de Clever Cloud00:05:15 : L'impact de l'IA sur le développement00:05:56 : Outils et révolution technologique00:19:57 : Les défis pour les développeurs juniors00:37:56 : Souveraineté technologique et géopolitique00:42:42 : Industrialisation de la prestation intellectuelle00:44:11 : L'industrialisation et la richesse00:45:38 : Rendement croissant du capital00:47:21 : Accès au confort pour tous00:49:18 : Impact de Google sur les médias00:50:04 : Pouvoir des entreprises et démocratie00:51:31 : Posture politique des entreprises00:54:47 : Mistral, une opportunité française00:56:09 : Importance de l'écosystème Mistral00:57:55 : Souveraineté et solutions européennes00:59:01 : Créativité en intelligence artificielle01:01:50 : Transformation sociétale et numérique01:04:33 : Qu'est-ce que la pensée ?01:05:26 : Proprioception et robotique01:15:23 : Applications pratiques de l'IA01:19:33 : Transition politique en 202601:25:41 : Vers une année 2026 passionnante Liens évoqués pendant l'émission Handy: lib en Rust pour faire de la prise de note audioTech feodalisme 🎙️ Soutenez le podcast If This Then Dev ! 🎙️ Chaque contribution aide à maintenir et améliorer nos épisodes. Cliquez ici pour nous soutenir sur Tipeee 🙏Archives | Site | Boutique | TikTok | Discord | Twitter | LinkedIn | Instagram | Youtube | Twitch | Job Board |Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
How did one Viognier go from the brink of extinction to being planted around the world? Why is the Mistral one of the most miserable experiences for people, yet a saviour for Rhône vineyards? Why is working with bush vines so much harder than trellised vineyards? In this episode of the Unreserved Wine Talk podcast, I'm chatting with Matt Walls, author of the terrific new book The Smart Traveller's Wine Guide to the Rhone Valley. You can find the wines we discussed at https://www.nataliemaclean.com/winepicks. Giveaway Two of you are going to win a copy of Matt Walls' terrific new book, The Smart Traveller's Wine Guide to the Rhone Valley. To qualify, all you have to do is email me at natalie@nataliemaclean.com and let me know that you've posted a review of the podcast. I'll choose two people randomly from those who contact me. Good luck! Highlights What are the famous galets roulés of Châteauneuf du Pape and what is it like to experience them in person? How do the galets affect vineyard work and vine training? What is the Mistral wind and why is it both miserable for people and essential for vineyard health? Why is Hermitage Hill considered one of the clearest visual explanations of terroir anywhere in France? What does tasting Hermitage at the top of the hill reveal about the emotional connection to place and wine? How does whole bunch fermentation change the aroma, texture, and alcohol level of Syrah in the northern Rhône? How close did Viognier come to extinction after World War II, and who was responsible for saving it in Condrieu? What makes Viognier from Condrieu feel different than versions grown in warmer regions? How did Château Rayas redefine Châteauneuf-du-Pape? Why did the extreme heat of the 2022 vintage affect Rhône wines? Why is Tavel better understood as a pale red rather than a modern Rosé? Key Takeaways How did one Viognier go from the brink of extinction to being planted around the world? Very close. So there was about 6 or 7 hectares left... about the size of three football pitches. That's it. That was the only place in the world. I mean, that's where it comes from. In the 1960s and after the Second World War, a lot of the vineyards died. People couldn't fetch high prices for wine, so quantity was more important than quality. So people were just planting on the flat, basically where it was easy to farm instead of on the slopes of Condrieu, which are very difficult to grow on. So it got pretty much abandoned. It was down to one man whose name was Georges Vernay from Domaine Georges Vernay, which still exists today, still makes excellent wines. And he rallied the local winemakers. He believed in the grape. He knew how good it could be, and he encouraged people to replant, to rework the vineyards and, and saved the grape. You find it all around the world. And so if it wasn't for Georges back in the 60s, deciding, no, I want to save this variety, maybe we wouldn't have it at all, which would be terrible. Why is the Mistral one of the most miserable experiences for people, yet a saviour for Rhône vineyards? The mistral is a very strong north wind. It whistles down the valley. It can be extremely boisterous. It's cold north wind. if it's quite a hot day, it's never nice. It's always horrible. Even on a hot day. When it blows hard, it can be quite difficult to stand up in a vineyard. It's an amazing phenomenon. It's cold and it's really dry. So often when it does rain in the southern Rhône and in the northern Rhône, you risk getting vineyard diseases. But the mistral often it blows after it rains. So it will dry out the vineyards. It's like a natural disinfectant. it means that you can keep your grapes hanging on the vine for longer. So it is a huge benefit. Why is working with bush vines so much harder than trellised vineyards? You hear about these galets roulés, these rounded stones, but when you see them, just in the vineyards for as far as the eye can see, they're very striking to see and difficult to walk on. you can quite easily turn your ankle if you're not careful with what you're doing. So if you're in a vineyard of galets, what you'll see is these bush vines. That's the most common way of training vines in the southern Rhône, particularly Châteauneuf-du-Pape. You do see a bit of trellising, but with Grenache, you don't have to… they're naturally self-supporting. With Syrah, for example, you do have to train it on wires because it just grows like mad, and otherwise it would just be flopping around all over the floor. And you need to lift up the foliage in order to get it exposed to the sun and get the grapes off the ground. Grenache doesn't grow in such an exuberant fashion. It grows a little bit more slowly, and the trunks get a little bit thicker. But they're much harder to work as well. So, the thing about those bush vines is that you have to tend them in a 360 degree fashion rather than trellis vines, which you kind of have to work on both sides, but without kind of working around it 360 degrees. But the galets… they are troublesome and they are difficult to move and they take a lot of strength. So, yeah, I wouldn't like to work on them personally. That takes a lot of work. About Matt Walls Matt Walls is an award-winning freelance wine writer, author and consultant who contributes to various UK and international publications such as Club Oenologique and Decanter, where he is a contributing editor. He also judges wine and food competitions, develops wine apps and presents trade and consumer tastings. Matt is interested in all areas of wine, but specialises in the Rhône Valley – he is Regional Chair for the Rhône at the Decanter World Wine Awards. To learn more, visit https://www.nataliemaclean.com/369.
If an AGI falls in the woods and nobody can define it, did it actually fall? This week we make an exact prediction of when AGI will happen, and the 10 ways it will immediately change the world. SHOW: 986SHOW TRANSCRIPT: The Cloudcast #986 TranscriptSHOW VIDEO: https://youtube.com/@TheCloudcastNET CLOUD NEWS OF THE WEEK: http://bit.ly/cloudcast-cnotwCHECK OUT OUR NEW PODCAST: "CLOUDCAST BASICS"SHOW NOTESPlanning for AGI and Beyond (OpenAI) Machines of Loving Grace (Anthropic)Microsoft and Google has different visions/opinions on AGIAmazon reorganizes around new AGI team reporting to Andy JassyMistral CEO says that AGI is a marketing move AGI is defined by an independent committee in new Microsoft and OpenAI agreementWhy does being first to AGI matter?Bret Taylor on the current status of AGI (Acquired/AC2 podcast, 2025)WHAT DOES REACHING AGI PROVIDE FOR HUMANITY (or ANYTHING)?Y2K bug, 2038 Bug (techies are good at dates when things need to be patched)The % of people with Internet accessThe % of people with a smartphoneThe % of people with a certain level of education (basic or advanced)How much smarter is humanity than 10yrs ago? 20yrs ago? How much smarter could existing humanity be at any given time? Nobody has a consistent or measurable definition of AGIWhat are the Top 10 problems of humanity that need to be solved? (direct or indirect)Does reaching AGI enable certain government or corporate actions to start happening that couldn't happen now? FEEDBACK?Email: show at the cloudcast dot netTwitter/X: @cloudcastpodBlueSky: @cloudcastpod.bsky.socialInstagram: @cloudcastpodTikTok: @cloudcastpod
Welcome back to another episode of Upside at the EUVC Podcast, where Dan Bowyer, Mads Jensen of SuperSeed and Lomax Ward of Outsized Ventures gather for a holiday-home special to cut through the noise around Europe's tech, geopolitics and AI shifts. What begins as an innocent debate about whether DeepMind is “still a UK company” quickly spirals into a tour of sovereign AI strategy, the SpaceX mega-raise, Europe's increasingly uncomfortable place between China and the US, defence-spending reality checks and a surprisingly uplifting set of deep-tech deals across the continent.It is classic Upside: the takes are sharp, the geopolitics gets spiky, and the optimism… well, it arrives eventually.What's covered:04:36 AI-for-Science, robotics and the new “AI scientist” era06:50 A national-curriculum Gemini and the vision of a tutor for every child09:39 The SpaceX 2026 IPO: what investors are actually buying14:00 Starship, orbital compute and the trillion-dollar imagination gap18:07 Why Europe missed the space race once again19:43 Portugal flips the script: “Economy of the Year”22:58 Europe between China's export tsunami and America's cold shoulder32:07 Defence budgets: the hype, the delay and the reality for startups34:25 AI Corner: bubble fears, Mistral's comeback, Meta goes closed, China goes full-stackComms Strategy Expert SessionApply or share the opportunity with a founder or investor in your network: https://luma.com/euvc-comms-expert-session
In today's Cloud Wars Agent & Copilot Minute, I explore Microsoft's addition of Mistral Large 3 to its Foundry platform and why it's a major win for developers seeking open, enterprise-ready AI models.Highlights00:11 —Microsoft Foundry is a platform from Microsoft, designed for building, customizing, and deploying GenAI applications and agents. It allows users to access over 11,000 models. Recently, Microsoft added a new model to its offerings, Mistral Large 3. Microsoft claims it to be one of the strongest open-weight, Apache-licensed frontier models available on the Microsoft cloud.00:53 — An open-weight model is similar to an open-source model, but with some differences. In an open-weight AI model, the parameters used to train the model are publicly available, not just for use or viewing, but also for downloading and modifying. More developers are turning to these models because they offer flexibility.01:40 — Mistral Large 3 is one of the world's leading open models optimized for enterprise applications. It excels in instruction following, long-context comprehension and retention, multimodal reasoning, predictable performance, and applied reasoning. Unlike its closest competitors, Mistral Large 3 is fully open, with Apache 2.0 licensing.02:08 — Each new model is carefully selected. It's not just a free-for-all. With Foundry, Microsoft is demonstrating its expertise in the space by keenly understanding what developers want—in this case, an open model with real-world enterprise applications. The pace of AI development is such that even incremental changes and improvements dramatically impact how businesses operate. Visit Cloud Wars for more.
This is a recap of the top 10 posts on Hacker News on December 09, 2025. This podcast was generated by wondercraft.ai (00:30): Show HN: Gemini Pro 3 hallucinates the HN front page 10 years from nowOriginal post: https://news.ycombinator.com/item?id=46205632&utm_source=wondercraft_ai(01:52): Ask HN: Should "I asked $AI, and it said" replies be forbidden in HN guidelines?Original post: https://news.ycombinator.com/item?id=46206457&utm_source=wondercraft_ai(03:15): 10 Years of Let's EncryptOriginal post: https://news.ycombinator.com/item?id=46208962&utm_source=wondercraft_ai(04:38): Horses: AI progress is steady. Human equivalence is suddenOriginal post: https://news.ycombinator.com/item?id=46199723&utm_source=wondercraft_ai(06:01): Mistral releases Devstral2 and Mistral Vibe CLIOriginal post: https://news.ycombinator.com/item?id=46205437&utm_source=wondercraft_ai(07:24): Handsdown one of the coolest 3D websitesOriginal post: https://news.ycombinator.com/item?id=46206531&utm_source=wondercraft_ai(08:46): PeerTube is recognized as a digital public good by Digital Public Goods AllianceOriginal post: https://news.ycombinator.com/item?id=46207464&utm_source=wondercraft_ai(10:09): Pebble Index 01 – External memory for your brainOriginal post: https://news.ycombinator.com/item?id=46205661&utm_source=wondercraft_ai(11:32): If you're going to vibe code, why not do it in C?Original post: https://news.ycombinator.com/item?id=46207505&utm_source=wondercraft_ai(12:55): The universal weight subspace hypothesisOriginal post: https://news.ycombinator.com/item?id=46199623&utm_source=wondercraft_aiThis is a third-party project, independent from HN and YC. Text and audio generated using AI, by wondercraft.ai. Create your own studio quality podcast with text as the only input in seconds at app.wondercraft.ai. Issues or feedback? We'd love to hear from you: team@wondercraft.ai
Welcome to episode 334 of The Cloud Pod, where the forecast is always cloudy! This week, we're bringing you a jam-packed recap of re:Invent! We've got all the news, from keynotes to announcements. Whether you were there live or catching up on all the news, Justin, Matt, and Ryan are here to break it all down. Let's get started! Titles we almost went with this week EKS Gets Chatty: Natural Language Replaces Command Line Nightmares Harvest Now, Decrypt Later: Why Your RSA Keys Need a Quantum Makeover Before 2026 NAT So Fast: AWS Helps You Find Gateways Doing Absolutely Nothing AWS Finally Admits You Have Too Many Log Buckets AWS Finally Lets You Log In Like a Normal Human Lambda Gets a Memory: Checkpoint Your Way to Multi-Step Workflows Step Functions at Home: Lambda Durable Functions Let You Write Workflows in Actual Code No More Bucket List: S3 Public Access Gets Organization-Wide Lockdown AWS Hits Ctrl-Z on CodeCommit Deprecation AWS Puts a Cap on CloudFront: Unlimited Traffic, Limited Anxiety AWS Tells SQL Server to Take a Thread Off: Optimize CPU Cuts Costs by 55% Amazon Bedrock Gets a Bouncer: AgentCore Identity Checks IDs at the Door AI Brings on the Developer Renaissance Follow Up 01:27 re:Invent Matt Garman- 14th Reinvent, which is weird, since we've been doing cloud stuff for 87 years… Warner – Open Mind for a different View and nothing else matters T-shirt. 02:59 re:Invent predictions Jonathan Serverless GPU support (extension in Lambda or a different service), it’s about time we have a serverless GPU/Inference capability. It is talked about in the keynote with DeSantis. AI Agent with a goal/instructions that can run when they need to, periodically, or always, and perform an action (Agentic Platform that runs agents) – Garman – Bedrock AgentCore and Kiro Autonomous Agent Werner will announce this is his last keynote and he will retire He retired from re:Invent Presentations Ryan New Tranium 3 chips, Inferentia, and Graviton chips Garman – announced Tranium 3 Ultraservers. They brought the Rack Ryan Expand the number of models in or via bedrock Doubled the number of models and announced Gemma, Minimax M2, Nvidia Nemotron, Mistral Large, and Mistral 3
Our 227th episode with a summary and discussion of last week's big AI news!Recorded on 12/05/2025Hosted by Andrey Kurenkov and Jeremie HarrisFeel free to email us your questions and feedback at contact@lastweekinai.com and/or hello@gladstone.aiRead out our text newsletter and comment on the podcast at https://lastweekin.ai/In this episode:Deep Seek 3.2 and Flux 2 release, showcasing advancements in open-source AI models for natural language processing and image generation respectively.Amazon's new AI chips and Google's TPUs signal potential shifts in AI hardware dominance, with growing competition against Nvidia.Anthropic's potential IPO and OpenAI's declared ‘Code Red' indicate significant moves in the AI business landscape, including high venture funding rounds for startups.Key research papers from DeepMind and Google explore advanced memory architectures and multi-agent systems, indicating ongoing efforts to enhance AI reasoning and efficiency.Timestamps:(00:00:10) Intro / Banter(00:02:42) News PreviewTools & Apps(00:03:30) Deepseek 3.2 : New AI Model is Faster, Cheaper and Smarter(00:23:22) Black Forest Labs launches Flux.2 AI image models to challenge Nano Banana Pro and Midjourney(00:28:00) Sora and Nano Banana Pro throttled amid soaring demand | The Verge(00:29:34) Mistral closes in on Big AI rivals with new open-weight frontier and small models | TechCrunch(00:31:41) Kling's Video O1 launches as the first all-in-one video model for generation and editing(00:34:07) Runway rolls out Gen 4.5 AI video model that beats Google, OpenAIApplications & Business(00:35:18) NVIDIA's Partners Are Beginning to Tilt Toward Google's TPU Ecosystem, with Foxconn Reportedly Securing TPU Rack Orders(00:40:37) Amazon releases an impressive new AI chip and teases an Nvidia-friendly roadmap | TechCrunch(00:43:03) OpenAI declares ‘code red' as Google catches up in AI race | The Verge(00:46:20) Anthropic reportedly preparing for massive IPO in race with OpenAI: FT(00:48:41) Black Forest Labs raises $300M at $3.25B valuation | TechCrunch(00:49:20) Paris-based AI voice startup Gradium nabs $70M seed | TechCrunch(00:50:10) OpenAI announced a 1 GW Stargate cluster in Abu Dhabi(00:53:22) OpenAI's investment into Thrive Holdings is its latest circular deal(00:55:11) OpenAI to acquire Neptune, an AI model training assistance startup(00:56:11) Anthropic acquires developer tool startup Bun to scale AI coding(00:56:55) Microsoft drops AI sales targets in half after salespeople miss their quotas - Ars TechnicaProjects & Open Source(00:57:51) [2511.22570] DeepSeekMath-V2: Towards Self-Verifiable Mathematical Reasoning(01:01:52) Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving MemoryResearch & Advancements(01:05:44) Nested Learning: The Illusion of Deep Learning Architecture(01:13:30) Multi-Agent Deep Research: Training Multi-Agent Systems with M-GRPO(01:15:50) State of AI: An Empirical 100 Trillion Token Study with OpenRouterPolicy & Safety(01:21:52) Trump signs executive order launching Genesis Mission AI project(01:24:42) OpenAI has trained its LLM to confess to bad behavior | MIT Technology Review(01:29:34) US senators seek to block Nvidia sales of advanced chips to ChinaSee Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.
AI Chat: ChatGPT & AI News, Artificial Intelligence, OpenAI, Machine Learning
In this episode, we break down Mistral's latest open-weight frontier and compact models and how they position the company closer to the industry's largest AI competitors. We explore what these releases mean for developers, performance expectations, and the evolving landscape of open-weight AI.Get the top 40+ AI Models for $20 at AI Box: https://aibox.aiAI Chat YouTube Channel: https://www.youtube.com/@JaedenSchaferJoin my AI Hustle Community: https://www.skool.com/aihustleSee Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.
The AI Breakdown: Daily Artificial Intelligence News and Discussions
Amazon used AWS re:Invent to clarify where it actually fits in the rapidly shifting AI landscape, revealing a strategy built around practical multimodality, enterprise-first customization, and a long-term bet on specialized agents. This episode breaks down what Amazon announced, what changed, what didn't, and what the updates really mean for enterprise teams navigating their AI stacks. Plus: OpenAI's new pre-training progress, Anthropic's alien-tech momentum, Mistral's sprawling new lineup, and the latest moves in the race toward IPOs. Brought to you by:KPMG – Discover how AI is transforming possibility into reality. Tune into the new KPMG 'You Can with AI' podcast and unlock insights that will inform smarter decisions inside your enterprise. Listen now and start shaping your future with every episode. https://www.kpmg.us/AIpodcastsRovo - Unleash the potential of your team with AI-powered Search, Chat and Agents - https://rovo.com/AssemblyAI - The best way to build Voice AI apps - https://www.assemblyai.com/briefLandfallIP - AI to Navigate the Patent Process - https://landfallip.com/Blitzy.com - Go to https://blitzy.com/ to build enterprise software in days, not months Robots & Pencils - Cloud-native AI solutions that power results https://robotsandpencils.com/The Agent Readiness Audit from Superintelligent - Go to https://besuper.ai/ to request your company's agent readiness score.The AI Daily Brief helps you understand the most important news and discussions in AI. Subscribe to the podcast version of The AI Daily Brief wherever you listen: https://pod.link/1680633614Interested in sponsoring the show? sponsors@aidailybrief.ai