POPULARITY
Categories
(0:00) Introducing Elon Musk, and reflecting on his DOGE experience (2:47) Optimus: Progress and potential, the “hands problem” (12:20) Tesla: AI5 chips, impact on FSD (16:50) SpaceX: Vision for Starlink-enabled smartphones, $17B spectrum deal, Starship update (26:16) xAI: Next-gen Grok models, Colossus 2, scaling laws, “Grokipedia” (31:29) Evolving alongside AI, implosion of the West, the religion vacuum (37:36) Understanding the universe, going to the Moon, what happens on Mars? Thanks to our partners for making this happen! Solana: https://solana.com/ OKX: https://www.okx.com/ Google Cloud: https://cloud.google.com/ IREN: https://iren.com/ Oracle: https://www.oracle.com/ Circle: https://www.circle.com/ BVNK: https://www.bvnk.com/ Follow Elon: https://x.com/elonmusk Follow the besties: https://x.com/chamath https://x.com/Jason https://x.com/DavidSacks https://x.com/friedberg Follow on X: https://x.com/theallinpod Follow on Instagram: https://www.instagram.com/theallinpod Follow on TikTok: https://www.tiktok.com/@theallinpod Follow on LinkedIn: https://www.linkedin.com/company/allinpod Intro Music Credit: https://rb.gy/tppkzl https://x.com/yung_spielburg Intro Video Credit: https://x.com/TheZachEffect
(0:00) Introducing Palantir CEO Alex Karp (1:10) Understanding Palantir's fans and haters (8:40) Palantir's work at the border, data collection and surveillance, built-in protections (20:02) Israel/Palestine (22:23) Is the West committing suicide? (30:54) Antisemitism (31:52) China's strategy, dealing with cartels (36:46) Why modern Progressivism is not progressive Thanks to our partners for making this happen! Solana: https://solana.com/ OKX: https://www.okx.com/ Google Cloud: https://cloud.google.com/ IREN: https://iren.com/ Oracle: https://www.oracle.com/ Circle: https://www.circle.com/ BVNK: https://www.bvnk.com/ Follow the besties: https://x.com/chamath https://x.com/Jason https://x.com/DavidSacks https://x.com/friedberg Follow on X: https://x.com/theallinpod Follow on Instagram: https://www.instagram.com/theallinpod Follow on TikTok: https://www.tiktok.com/@theallinpod Follow on LinkedIn: https://www.linkedin.com/company/allinpod Intro Music Credit: https://rb.gy/tppkzl https://x.com/yung_spielburg Intro Video Credit: https://x.com/TheZachEffect
(0:00) Introducing Adena Friedman (1:16) Nasdaq's business, expanding beyond a stock exchange (2:44) Big announcement! Nasdaq will offer tokenized securities, crypto going mainstream, the 24/5 trading schedule (7:21) How the IPO market can change to help companies go public faster (13:37) Evolution of markets: predictions, options, SPVs, secondaries (18:18) State of the stock market, role at the NY Fed, data issues at the Fed Thanks to our partners for making this happen! Solana: https://solana.com/ OKX: https://www.okx.com/ Google Cloud: https://cloud.google.com/ IREN: https://iren.com/ Oracle: https://www.oracle.com/ Circle: https://www.circle.com/ BVNK: https://www.bvnk.com/ Follow Adena: https://x.com/adenatfriedman Follow the besties: https://x.com/chamath https://x.com/Jason https://x.com/DavidSacks https://x.com/friedberg Follow on X: https://x.com/theallinpod Follow on Instagram: https://www.instagram.com/theallinpod Follow on TikTok: https://www.tiktok.com/@theallinpod Follow on LinkedIn: https://www.linkedin.com/company/allinpod Intro Music Credit: https://rb.gy/tppkzl https://x.com/yung_spielburg Intro Video Credit: https://x.com/TheZachEffect
(0:00) Introducing Mark Cuban, sadness over Luka Doncic (2:38) America's broken healthcare system (15:16) State of the two-party system (19:24) Introducing Tucker Carlson (20:01) The fine line between listening and pandering, is Mamdani the Trump of the Left? (24:27) How to make Americans believe in America again (34:12) AI job displacement (39:29) Lightning round with Tucker: Epstein, Putin, why the West is killing itself, the SSRI epidemic, Iryna Zarutska murder (52:54) Antisemitism and Israel Thanks to our partners for making this happen! Solana: https://solana.com/ OKX: https://www.okx.com/ Google Cloud: https://cloud.google.com/ IREN: https://iren.com/ Oracle: https://www.oracle.com/ Circle: https://www.circle.com/ BVNK: https://www.bvnk.com/ Follow Mark Cuban: https://x.com/mcuban Follow Tucker Carlson: https://x.com/TuckerCarlson Follow the besties: https://x.com/chamath https://x.com/Jason https://x.com/DavidSacks https://x.com/friedberg Follow on X: https://x.com/theallinpod Follow on Instagram: https://www.instagram.com/theallinpod Follow on TikTok: https://www.tiktok.com/@theallinpod Follow on LinkedIn: https://www.linkedin.com/company/allinpod Intro Music Credit: https://rb.gy/tppkzl https://x.com/yung_spielburg Intro Video Credit: https://x.com/TheZachEffect
(0:00) Introducing Secretary Wright (1:09) Nuclear, China's approach (4:02) Increasing energy output, how the climate change complex slowed us down, problems with solar and wind (11:32) Debating renewables vs nat gas and coal (18:40) Chamath's energy framework (21:42) Addressing challenges: budget cuts to research labs, residential energy cost increases due to datacenter demand, speeding up nuclear development Thanks to our partners for making this happen! Solana: https://solana.com/ OKX: https://www.okx.com/ Google Cloud: https://cloud.google.com/ IREN: https://iren.com/ Oracle: https://www.oracle.com/ Circle: https://www.circle.com/ BVNK: https://www.bvnk.com/ Follow Secretary Wright: https://x.com/SecretaryWright Follow the besties: https://x.com/chamath https://x.com/Jason https://x.com/DavidSacks https://x.com/friedberg Follow on X: https://x.com/theallinpod Follow on Instagram: https://www.instagram.com/theallinpod Follow on TikTok: https://www.tiktok.com/@theallinpod Follow on LinkedIn: https://www.linkedin.com/company/allinpod Intro Music Credit: https://rb.gy/tppkzl https://x.com/yung_spielburg Intro Video Credit: https://x.com/TheZachEffect
Robinson Burkey is the Co-Founder of the Wormhole Foundation. With an impressive track record spanning nearly a decade, Robinson has consistently excelled in leading growth and go-to-market strategies for startups, making a significant impact in the crypto industry since 2021. Prior to joining the Wormhole Foundation, Robinson held a key position at Acala, where he spearheaded Business Development and Ecosystem efforts within the Polkadot ecosystem. As a co-founder, Robinson is dedicated to accelerating the foundation's growth trajectory and fostering the widespread adoption of Wormhole as the leading interoperability platform powering multichain applications and bridges at scale. Wormhole provides developers, institutions, and users seamless connectivity between over 40 leading blockchain networks. The wider Wormhole network is trusted and used by teams like BlackRock, Apollo Global, VanEck, Google Cloud, Circle, and Uniswap. To date, the platform has enabled over $60 billion in all-time multichain volume, the most of any protocol in the world. In this conversation, we discuss:- NYC is the Silicon Valley of crypto - Interoperability - Wormhole connecting 30+ blockchains with 1B+ messages processed - Fixing the liquidity fragmentation issue - Cross-chain communication - Wormhole's Native Token Transfer (NTT) - Routing liquidity - Current ecosystem around DATs - Securing the most value between all blockchains - Stablecoins are still crypto's killer use case WormholeWebsite: wormhole.comX: @wormholeTelegram: t.me/wormholecryptoRobinson BurkeyX: @robinsonLinkedIn: Robinson Burkey---------------------------------------------------------------------------------This episode is brought to you by PrimeXBT.PrimeXBT offers a robust trading system for both beginners and professional traders that demand highly reliable market data and performance. Traders of all experience levels can easily design and customize layouts and widgets to best fit their trading style. PrimeXBT is always offering innovative products and professional trading conditions to all customers. PrimeXBT is running an exclusive promotion for listeners of the podcast. After making your first deposit, 50% of that first deposit will be credited to your account as a bonus that can be used as additional collateral to open positions. Code: CRYPTONEWS50 This promotion is available for a month after activation. Click the link below: PrimeXBT x CRYPTONEWS50
Tras 20 meses de operación, Banorte acuerda la venta de Bineo, su banco digital | Inicia prueba piloto para el registro de usuarios de telefonía móvil | Gobierno de México enfrenta 14 incidentes relevantes de ciberseguridad | La adopción de GenAI en México es casi equivalente a la AI tradicional | La Agencia Digital del Estado de México es una de las historias innovadoras | Así lo dijo el presidente para AL de Google Cloud, Eduardo López | El director de Banca minorista de BBVA México, Hugo Nájera, nos comparte el prompt que le cambió la vida | Rodrigo Iglesias, director de Sistemas del Centro Oncológico Internacional, nos da el IT Masters Insight
At the EUVC Summit 2025, the “Impact Leader of the Year” award went to a voice that's impossible to ignore—and equally impossible to copy.Hampus Jakobsson, General Partner at Pale Blue Dot, was honored for his relentless push to bring urgency, clarity, and conviction to climate investing.The award, presented by Google Cloud, recognized not just a fund or a firm, but a force in the ecosystem—someone who has helped reshape the narrative on impact itself.As Google Cloud put it:“Innovation isn't just the next feature. It's about who's solving the world's most pressing challenges.”What Hampus and the Pale Blue Dot team have done is create a space—both intellectually and practically—that brings together VCs, LPs, founders, and operators who actually want to build things that matter.From climate investing as a sector (not a virtue), to challenging LPs who see ESG as a checkbox, to advocating for clarity over carbon offsetting theatre—Hampus has never opted for the easy soundbite.When he came back to the stage to accept the award, Hampus didn't offer a speech. Just a sharp observation—about his T-shirt:“Some smart people noticed my T-shirt today. It's not the Zuckerberg one that says ‘We need more emperors.' It's the one that says—‘We need fewer emperors.'”Because that's the vibe:Less ego.Less bluster.More building.More impact.Hampus leads not with scale, but with substance.Not with "thought leadership", but with actual thought.He reminds the ecosystem that climate investing is:UrgentSmartPotentially enormousAnd yes, a little uncomfortable—because it means changing how capital behavesCongratulations to Hampus Jakobsson—Impact Leader of the Year.Let's keep turning clarity into action. And ambition into outcomes.Not Just Widgets. Not Just Warm Words.We Need Fewer EmperorsLeadership That Leaves a Mark
Welcome to the Cloud Wars Minute — your daily cloud news and commentary show. Each episode provides insights and perspectives around the “reimagination machine” that is the cloud.In today's Cloud Wars Minute, I spotlight Google's stunning 33x reduction in AI power consumption, what it means for the future of sustainable tech, and how bold innovation is driving the AI revolution forward. Highlights00:23 — Google says it has achieved a 33x reduction in power consumption for Gemini apps' text prompts. A remarkable number. Google, rather than just saying, “Well, hey, we're going to go invest all our money in getting as many users as we can, and we'll deal down the road with some of the energy implications,” have said, “No—now is the time to do it.”01:37 — Now it's got a larger metric here that it uses for the total—what it calls carbon footprint—down by 44x. All of the details behind this have been released in a blog post by a couple of executives.02:31 — Google has adopted a completely end-to-end approach to doing this, where it's taking a look at all of the different technology up and down its stack that could have an input on this. And the data it's collecting is going to give them a fantastic foundation to continue this effort into the future.The AI Revolution, we can safely say now, is not going to boil the Earth.AI Agent & Copilot Summit is an AI-first event to define opportunities, impact, and outcomes with Microsoft Copilot and agents. Building on its 2025 success, the 2026 event takes place March 17-19 in San Diego. Get more details. 03:42 — Several years ago, Google Cloud was number nine on the Cloud Wars Top 10. I'm not sure at the time why it was not number ten, but it had fantastic technology, but could not fully put that in the service of their customers. It was sort of like a mismatch. It's harnessed it over the last several years, under Thomas Kurian, to be fully in service of what customers want and need.04:44 — These breakthroughs by Google and Google Cloud, across the board (again, the details of this in the article coming up later today) show that there's incredible potential to keep doing this. And I think it's this power of innovation that says: Don't be afraid of big ideas. Go after them. Dig into it. Try new approaches to it. There are better ways forward. Visit Cloud Wars for more.
In today's Cloud Wars Minute, I dive into Snowflake's record-breaking Q2 performance and explore how CEO Sridhar Ramaswamy is positioning the company for long-term AI-driven success.Highlights00:14 — Snowflake has been a remarkable story of growth and achievement—category creation here around the AI Data Cloud—and it reported last week a very strong Q2 with product revenue up 32% to $1.09 billion. That's the first time it has topped $1 billion. That's the good news. The bad news is that the competition is really intensifying.01:16 — CEO Sridhar Ramaswamy said, “We're also trying to continue to push out new AI solutions and technology as rapidly as possible.” There are startups and similarly sized companies, such as Databricks and Palantir, coming after it in that core market. But also bigger players (SAP, Oracle, Microsoft, Google Cloud, and others) are getting more deeply into this AI Data Cloud space.02:06 — Ramaswamy feels that Snowflake is very well positioned around this end-to-end data lifecycle spot that it has. He has been repeating relentlessly over the 18 months he's been CEO that businesses cannot have a successful AI strategy unless they first have a successful data strategy and are able to execute on that data very, very forcefully and consistently.03:30 — I mentioned Palantir, talked about them some last week—and the phenomenal Q1 it had. It grew 48%. So I really applaud Snowflake for 32% growth. But here's Palantir in a similar space—analytics and AI—growing 48%, which is a 50% higher growth rate than what Snowflake just posted. Databricks is growing very rapidly as well, doing some good things.03:54 — Lots of competition there, but—as always in the Cloud Wars—the biggest winners are always, always the customers. Later, we'll have a long, detailed article on Cloud Wars about Snowflake's Q2 results, perspectives from Ramaswamy, and some of my own thoughts about how this all shapes out. Visit Cloud Wars for more.
Third Edition of the National AI Meet announced as Industry, Academia and Policy Experts to convene in Galway TechIreland has announced that the third edition of the National AI Meet will take place in Galway on 18th September, bringing together senior leaders from industry, academia, and public policy to highlight Ireland's growing role as a leader in AI adoption across business and society. The event will be officially opened by Minister Niamh Smyth TD, Minister of State at the Department of Enterprise, Trade and Employment, with responsibility for Trade Promotion, Artificial Intelligence, and Digital Transformation. National AI Meet, Galway September 18th A curated cohort of over 300 businesses (invite-only) from diverse sectors across the island are expected to attend, reflecting the wide-reaching impact of AI on both technology and non-tech industries. The top teams from this year's National AI Challenge will also showcase their solutions at the Meet. The National AI Meet has received longstanding support from Enterprise Ireland, IDA Ireland, InterTradeIreland, Data2Sustain European Digital Innovation Hubs, and global AI leaders including Google and OpenAI - reinforcing Ireland's unique standing in AI talent, research, and innovation. This year's programme features top executives from the likes of CeADAR, Údarás na Gaeltachta and Iarnród Éireann (Irish Rail), alongside multinationals such as Genesys and Workhuman, and Irish startups like Jentic and Success.co. Expert panels will cover topics ranging from AI Agents and manufacturing automation, to future skills-needs, underscoring the Meet's objective in supporting AI adoption across the Irish workforce. In last year's event, more than 200 leadership team members participated, 60% were high potential companies and multinationals with significant R&I in Ireland, 17% from the public sector, 8% academics and research community. 45% of attendees were from Dublin, 25% from the host city - Galway and the remainder representing more than 18 counties from Belfast to Cork and Donegal to Waterford. Inspired by Ireland's refreshed National AI Strategy - AI: Here for Good (2024), and strengthened by the presence of nearly all leading AI multinationals in Ireland, world-class universities offering cutting-edge programmes, and a vibrant indigenous ecosystem of more than 4,000 technology startups, Ireland has a unique opportunity to be a global frontrunner in ethical and human-centric AI adoption. Organisers and partners look forward to welcoming industry leaders at the National AI Meet in Galway, and working together to place Ireland at the forefront of innovation. Acknowledgements TechIreland is grateful to all partners; Enterprise Ireland, Data2Sustain EDIH, InterTradeIreland, Google Cloud, IDA Ireland; supporters OpenAI, Iarnród Éireann and Údarás na Gaeltachta; and co-sponsors ITAG, Bank of Ireland, Technology Ireland ICT Skillnet, and Code Institute for their collaboration and support. Commentary from Key Stakeholders Brian Caulfield, TechIreland: ''Over the past three years, TechIreland's National AI Meet has continued to grow, welcoming an ever-larger number of participants. This momentum reflects the increasing interest in and support for artificial intelligence adoption across the island of Ireland. I hope this event will provide further impetus for deeper conversations and stronger collaboration in the years ahead.'' Donnchadh Cullinan, Enterprise Ireland: "Enterprise Ireland is proud to support the National AI Meet, a key initiative that reflects our strategy to accelerate sustainable Irish business. By connecting startups, scale-ups, and global leaders, the Meet fosters innovation, competitiveness, and collaboration - driving AI adoption that helps Irish companies start, scale, and lead globally. It's a powerful platform for accelerating real-world transformation across sectors." John Durcan, IDA Ireland: ''It is great to see TechIreland going from strength to strength, t...
The U.S. is stepping deeper into crypto and markets are feeling it. Powell's Jackson Hole speech warned against cutting rates too soon, while Trump's move to oust Fed Governor Lisa Cook sparked a legal fight over Fed independence. At the same time, the Commerce Department is publishing GDP data on-chain through Chainlink, and Google Cloud unveiled a new blockchain (GCUL) for institutions. Banks are lobbying against stablecoins, the U.S. is taking a 10% stake in Intel but not Nvidia, and Bitcoin faces pressure as transaction fees hit their lowest since 2011 and a whale dumped 24,000 BTC, driving the price below $110K.
Nvidia's (NVDA) earnings overshadowed Alphabet's (GOOGL) march to new all-time highs. LikeFolio's Megan Brantley notes the Mag 7 company's growth in Google Cloud far outpacing Amazon's (AMZN) AWS and Microsoft's (MSFT) Azure as a leading driver behind the rally. She points to a "vulnerability" in search revenue if Alphabet is forced to divest Google Chrome, adding that Chrome's search dominance is only gaining traction.======== Schwab Network ========Empowering every investor and trader, every market day.Subscribe to the Market Minute newsletter - https://schwabnetwork.com/subscribeDownload the iOS app - https://apps.apple.com/us/app/schwab-network/id1460719185Download the Amazon Fire Tv App - https://www.amazon.com/TD-Ameritrade-Network/dp/B07KRD76C7Watch on Sling - https://watch.sling.com/1/asset/191928615bd8d47686f94682aefaa007/watchWatch on Vizio - https://www.vizio.com/en/watchfreeplus-exploreWatch on DistroTV - https://www.distro.tv/live/schwab-network/Follow us on X – https://twitter.com/schwabnetworkFollow us on Facebook – https://www.facebook.com/schwabnetworkFollow us on LinkedIn - https://www.linkedin.com/company/schwab-network/About Schwab Network - https://schwabnetwork.com/about
In today's Cloud Wars Minute, I explore how explosive AI demand is driving massive infrastructure deals like the one between Google Cloud and Meta.Highlights0:03 — Google Cloud has entered into a six-year agreement with Meta that's reportedly worth over $10 billion. The deal encompasses a variety of services, including use of Google Cloud servers, storage, and networking facilities. This is a significant deal in terms of the relationship between Meta and Google, both of which are continuously battling for dominance in the ad spend space.00:52 — As the demand for cloud capacity surges, such deals are not just important, but crucial, given the fierce competition among top cloud infrastructure providers. And my colleague Bob Evans recently reported on the explosive demand for AI services — and how this demand has led to four companies spending a combined billion dollars a day on capital expenditure in Q2.01:29 — Currently, Google Cloud holds the second position in the Cloud Wars Top 10. However, more deals like this — especially those that mean potential losses for Microsoft — could soon elevate Google Cloud to the top spot. Visit Cloud Wars for more.
Databases are shifting from passive engines to reasoning tools for artificial intelligence, according to Google Cloud's Yasmeen Ahmad. She joined Bloomberg Intelligence senior technology analyst Mandeep Singh to discuss how AI agents are reshaping the market, citing production use cases involving retrieval-augmented generation and tokenization. Ahmad pointed to rising demand for databases and said Google's infrastructure — including its in-house chips and large language models — gives the company an edge in addressing return-on-investment concerns tied to AI adoption.
De cryptomarkt heeft het lastig deze week. Bitcoin schommelt rond de 113.000 dollar en dat is duidelijk lager dan de recordstanden van twee weken geleden, toen de koers nog 124.000 dollar aantikte. Daarmee heerst er een sfeer van onzekerheid. Toch zijn er altcoins die beter presteren. Ethereum houdt al weken een sterke lijn vast en noteert rond de 4.600 dollar, dichtbij het oude koersrecord. Solana valt eveneens op met een stijging van dertien procent tot 210 dollar. De markt balanceert zo tussen hoop op nieuwe records en vrees voor een verdere terugval. Tegen deze achtergrond liet Google nieuwe plannen zien om de cryptowereld binnen te stappen. Het bedrijf presenteerde Google Cloud’s Universal Ledger, een blockchainplatform dat in 2026 operationeel moet zijn. Het platform is gericht op financiële instellingen die toepassingen willen ontwikkelen met cryptotechnologie. Denk daarbij aan de uitgifte van stablecoins of het tokeniseren van financiële assets, waarbij eigendomsrechten en waardepapieren via de blockchain beheerd kunnen worden. Google richt zich nadrukkelijk niet op consumenten, maar positioneert het platform als infrastructuur voor banken, fintechs en andere bedrijven. Volgens Google is het onderscheidend vermogen van het Universal Ledger dat het een neutraal alternatief wil bieden. Waar bedrijven als Stripe en Circle hun eigen commerciële belangen hebben, zegt Google niet gebonden te zijn aan de financiële wereld. Daarmee hoopt het concern een breed scala aan klanten aan te trekken. Bovendien beschikt Google over een groot voordeel: de bestaande gebruikersbasis van Google Cloud, waar de blockchain-diensten eenvoudig aan toegevoegd kunnen worden. Toch blijven er volop alternatieven bestaan, van publieke netwerken als Ethereum en Solana tot infrastructuur van andere grote fintechs. Solana zelf komt ondertussen met een opvallende uitbreiding richting hardware. Het bedrijf Play Solana, los van de officiële Solana Foundation, kondigde een eigen gamingconsole aan: de PSG1. Dit apparaat doet qua uiterlijk denken aan de klassieke handheld-consoles, maar heeft ingebouwde functies voor cryptowallets en Web3-toepassingen. Het succes van de PSG1 hangt voor een groot deel af van de beschikbaarheid van spellen. Een groot ecosysteem van ontwikkelaars ontbreekt vooralsnog, maar bij de aanschaf van de console krijgen kopers gratis cryptomunten, wat voor extra belangstelling zorgt. Daar blijft het niet bij, want ook de tweede Solana-smartphone, de Seeker, is inmiddels uitgeleverd. Deze midrange-telefoon kost ongeveer 500 euro en trok vooral kopers door de belofte van gratis tokens, voornamelijk memecoins. Daarmee weet Solana zich te onderscheiden als een van de weinige cryptoprojecten die ook hardwareproducten ontwikkelt. Voorlopig lijkt het succes van de apparaten vooral samen te hangen met de waarde van de extra crypto die bij aanschaf wordt meegeleverd. Deze week in de CryptocastEen gesprek met Jasper Bets van de Autoriteit Financiële Markten. De AFM is toezichthouder op de cryptosector sinds de introductie van de Europese cryptowet MICAR, en samen met Bert Slagter blikken we terug op het uitdelen van de eerste vergunningen. Daar ging een hoop goed, maar ook wat dingen fout. En we kijken naar de rest van Europa, want in andere landen, zoals Malta, zitten toezichthouders die wat minder streng zijn... En die bedrijven mogen nu wél op de Nederlandse markt opereren. Met Daniël Mol bespreken we elke week de stand van de cryptomarkt. Luister live donderdagochtend rond 8:50 in De Ochtendspits, of wanneer je wilt via bnr.nl/podcast/cryptocast See omnystudio.com/listener for privacy information.
De cryptomarkt heeft het lastig deze week. Bitcoin schommelt rond de 113.000 dollar en dat is duidelijk lager dan de recordstanden van twee weken geleden, toen de koers nog 124.000 dollar aantikte. Daarmee heerst er een sfeer van onzekerheid. Toch zijn er altcoins die beter presteren. Ethereum houdt al weken een sterke lijn vast en noteert rond de 4.600 dollar, dichtbij het oude koersrecord. Solana valt eveneens op met een stijging van dertien procent tot 210 dollar. De markt balanceert zo tussen hoop op nieuwe records en vrees voor een verdere terugval. Tegen deze achtergrond liet Google nieuwe plannen zien om de cryptowereld binnen te stappen. Het bedrijf presenteerde Google Cloud’s Universal Ledger, een blockchainplatform dat in 2026 operationeel moet zijn. Het platform is gericht op financiële instellingen die toepassingen willen ontwikkelen met cryptotechnologie. Denk daarbij aan de uitgifte van stablecoins of het tokeniseren van financiële assets, waarbij eigendomsrechten en waardepapieren via de blockchain beheerd kunnen worden. Google richt zich nadrukkelijk niet op consumenten, maar positioneert het platform als infrastructuur voor banken, fintechs en andere bedrijven. Volgens Google is het onderscheidend vermogen van het Universal Ledger dat het een neutraal alternatief wil bieden. Waar bedrijven als Stripe en Circle hun eigen commerciële belangen hebben, zegt Google niet gebonden te zijn aan de financiële wereld. Daarmee hoopt het concern een breed scala aan klanten aan te trekken. Bovendien beschikt Google over een groot voordeel: de bestaande gebruikersbasis van Google Cloud, waar de blockchain-diensten eenvoudig aan toegevoegd kunnen worden. Toch blijven er volop alternatieven bestaan, van publieke netwerken als Ethereum en Solana tot infrastructuur van andere grote fintechs. Solana zelf komt ondertussen met een opvallende uitbreiding richting hardware. Het bedrijf Play Solana, los van de officiële Solana Foundation, kondigde een eigen gamingconsole aan: de PSG1. Dit apparaat doet qua uiterlijk denken aan de klassieke handheld-consoles, maar heeft ingebouwde functies voor cryptowallets en Web3-toepassingen. Het succes van de PSG1 hangt voor een groot deel af van de beschikbaarheid van spellen. Een groot ecosysteem van ontwikkelaars ontbreekt vooralsnog, maar bij de aanschaf van de console krijgen kopers gratis cryptomunten, wat voor extra belangstelling zorgt. Daar blijft het niet bij, want ook de tweede Solana-smartphone, de Seeker, is inmiddels uitgeleverd. Deze midrange-telefoon kost ongeveer 500 euro en trok vooral kopers door de belofte van gratis tokens, voornamelijk memecoins. Daarmee weet Solana zich te onderscheiden als een van de weinige cryptoprojecten die ook hardwareproducten ontwikkelt. Voorlopig lijkt het succes van de apparaten vooral samen te hangen met de waarde van de extra crypto die bij aanschaf wordt meegeleverd. Deze week in de CryptocastEen gesprek met Jasper Bets van de Autoriteit Financiële Markten. De AFM is toezichthouder op de cryptosector sinds de introductie van de Europese cryptowet MICAR, en samen met Bert Slagter blikken we terug op het uitdelen van de eerste vergunningen. Daar ging een hoop goed, maar ook wat dingen fout. En we kijken naar de rest van Europa, want in andere landen, zoals Malta, zitten toezichthouders die wat minder streng zijn... En die bedrijven mogen nu wél op de Nederlandse markt opereren. Met Daniël Mol bespreken we elke week de stand van de cryptomarkt. Luister live donderdagochtend rond 8:50 in De Ochtendspits, of wanneer je wilt via bnr.nl/podcast/cryptocast See omnystudio.com/listener for privacy information.
Today's blockchain and cryptocurrency news Bitcoin is up slightly at $111,320 Eth is up slightly at $4,615 XRP, is down slightly at $2.99 Google Cloud's blockchain reaches private testnet CFTC down to one commissioner MetaMask rolls out social login Trump Media, crypto.com, Yorkville team up for CRO strategy Numerai secures $500M from JPMorgan Learn more about your ad choices. Visit megaphone.fm/adchoices
Send us a textWhat happens when three major cloud providers each reimagine network design from scratch? You get three completely different approaches to solving the same fundamental problem.The foundation of cloud networking begins with the virtual containers that hold your resources: AWS's Virtual Private Clouds (VPCs), Azure's Virtual Networks (VNets), and Google Cloud's VPCs (yes, the same name, very different implementation). While they all serve the same basic purpose—providing logical isolation for your workloads—their design philosophies reveal profound differences in how each provider expects you to architect your solutions.AWS took the explicit control approach. When you create subnets within an AWS VPC, you must assign each to a specific Availability Zone. This creates a vertical architecture pattern where you're deliberately placing resources in specific physical locations and designing resilience across those boundaries. Network engineers often find this intuitive because it matches traditional fault domain thinking. However, this design means you must account for cross-AZ data transfer costs and explicit resiliency patterns.Azure flipped the script with their horizontal approach. By default, subnets span across all AZs in a region, with Microsoft's automation handling the resilience for you. This "let us handle the complexity" philosophy makes initial deployment simpler but provides less granular control. Meanwhile, Google Cloud went global, allowing a single VPC to span regions worldwide—an approach that simplifies global connectivity but introduces new challenges for security segmentation.These architectural differences aren't merely academic—they fundamentally change how you design for resilience, manage costs, and implement security. The cloud introduced "toll booth" pricing for data movement, where crossing availability zones or regions incurs charges that didn't exist in traditional data centers. Understanding these nuances is crucial whether you're migrating existing networks or designing new ones.Want to dive deeper into cloud networking concepts? Let us know what topics you'd like us to cover next as we explore how traditional networking skills translate to the cloud world.Purchase Chris and Tim's new book on AWS Cloud Networking: https://www.amazon.com/Certified-Advanced-Networking-Certification-certification/dp/1835080839/ Check out the Fortnightly Cloud Networking Newshttps://docs.google.com/document/d/1fkBWCGwXDUX9OfZ9_MvSVup8tJJzJeqrauaE6VPT2b0/Visit our website and subscribe: https://www.cables2clouds.com/Follow us on BlueSky: https://bsky.app/profile/cables2clouds.comFollow us on YouTube: https://www.youtube.com/@cables2clouds/Follow us on TikTok: https://www.tiktok.com/@cables2cloudsMerch Store: https://store.cables2clouds.com/Join the Discord Study group: https://artofneteng.com/iaatj
Back in 2017, Google published the research that sparked the entire generative AI boom. But when OpenAI launched ChatGPT in 2022, Google was caught off guard. Fast forward to 2025, and Google's own AI, Gemini, is no longer a rushed response. It's a full-grown product, one the company is pushing hard by bundling it with Workspace and Google Cloud. In India, that strategy is already visible. Enterprises are adopting Gemini for everything from customer service to search to creative media. But here's the twist: India's cloud market is big on adoption but light on innovation, which means price matters. And Google is betting Gemini will give it the edge.Tune in.Daybreak is produced from the newsroom of The Ken, India's first subscriber-only business news platform. Subscribe for more exclusive, deeply-reported, and analytical business stories.
Witamy w kolejnym odcinku Brew! Tym razem zagłębiamy się w przyszłość e-commerce według Shopify, analizujemy nową wersję GPT-5 i dyskutujemy o ataku na kryptowalutę Monero. Zastanawiamy się też, czy Klarna faktycznie porzuciła Jirę na rzecz własnego narzędzia i co kryje się za sukcesem edytora Zed. Tym razem m.in:
¡Bienvenidos amigos de Desde el Paddock! Un episodio más lleno de noticias, dinámicas y todo lo que necesitas saber rumbo al GP de Holanda y al notición del verano en la Formula 1.Semana cargada de noticias en el mundo del automovilismo. ¡Es oficial! Checo Pérez regresa a la Formula 1 en 2026 con Cadillac. Analizamos qué significa este fichaje para él, para la máxima categoría y para el automovilismo mexicano. Además, Valtteri Bottas será su compañero de equipo. ¿Cómo será la dupla Checo–Bottas? Recordamos sus etapas en Red Bull y Mercedes para comparar lo que podemos esperar ahora con la escudería americana.También seguimos con el tema del reglamento 2026: Nikolas Tombazis desde la FIA afirma que los autos serán entre 1 y 2.5 segundos más lentos al inicio, mientras que Piero Rodarte asegura que podrían ser incluso más rápidos, con rectas arriba de 400 km/h. Andrea Stella, por su parte, confía en que McLaren mantenga su solidez en la nueva era gracias a la eficiencia aerodinámica y los sistemas que ya le han dado resultado.En la previa del GP de Holanda repasamos el circuito de Zandvoort, las expectativas de la carrera y nuestras predicciones. Además, Munir trae la dinámica con CalienteMX para ponerle más emoción al fin de semana.En la sección de #PregúntaleAMemo respondemos a la comunidad: ¿se convertirá McLaren en la nueva batalla tipo Hamilton vs Nico? Y, ¿hay equipos que ya tiraron la toalla en esta temporada?No podía faltar Alex Facts con la Formula E: expansión a China con hasta cuatro carreras, innovaciones de accesibilidad con Google Cloud y RNIB para fans con discapacidad visual, y las palabras de Jeff Dodds asegurando que la brecha con la Formula 1 se cierra cada vez más con los Gen4 y Gen5.En NASCAR vivimos un final épico en Daytona con la Coke Zero Sugar 400. Daniel Suárez protagonizó una remontada espectacular y Ryan Blaney se llevó la victoria en un photo finish de cuatro autos. ¿Qué significa este resultado para los playoffs? Lo analizamos.Sigue interactuando con nosotros para aparecer en la sección de #PregúntaleAMemo, donde tus preguntas serán respondidas con análisis directo, claro y al grano.Gracias por ser parte de Desde el Paddock. Recuerda seguirnos en todas nuestras redes para no perderte dinámicas exclusivas, anuncios y contenido que compartimos con la comunidad.
TechCrunch will announce the 2025 Startup Battlefield 200 list on August 27, 2025, featuring selected early-stage startups that will present at Disrupt 2025 in San Francisco from October 27 to 29. The event will include live pitches and demonstrations, with the Top 20 finalists competing for a $100,000 prize and the Disrupt Cup. Previous winners include Salva Health, recognized for early breast cancer detection technology, and geCKo Materials, noted for advancements in adhesive technology. The program is led by Isabelle Johannessen and is sponsored by Google Cloud.Learn more on this news by visiting us at: https://greyjournal.net/news/ Hosted on Acast. See acast.com/privacy for more information.
Summary del Show: • Wall Street sube antes del discurso de Powell en Jackson Hole, con cautela tras la revisión a la baja de payrolls y la expectativa de señales sobre futuros recortes de tasas. • La administración Trump evalúa redirigir $2B del CHIPS Act hacia minerales críticos, impulsando a compañías como $ALB en la carrera por recursos estratégicos. • Meta $META firma un acuerdo de $10B con Google Cloud $GOOG para cubrir demanda inmediata de infraestructura AI mientras construye sus propios centros de datos. • Nuro recauda $203M con el respaldo de Uber $UBER y Nvidia $NVDA, alcanzando $6B de valoración y reforzando su apuesta por la conducción autónoma en EE.UU.
In today's Cloud Wars Minute, I look at how the four hyperscalers are now spending a billion dollars every day on CapEx to keep up with explosive AI demand.Highlights00:19 — The four hyperscalers — AWS, Microsoft, Google, and Oracle — are now spending, as of Q2, a combined billion dollars a day on CapEx to try to keep up with explosive AI demand. Here's where these numbers come from. And I will say here, I'm calling it Q2, but Oracle's quarter ended May 31.01:00 — But these are very close for the four CapEx spending numbers for the four hyperscalers: AWS, $31.6 billion; Microsoft, about $27 billion. Google Cloud, $22.4 billion. Oracle, $9.1 billion — far more than Oracle has ever spent before. That's a total of $90.1 billion. We had 91 days in the quarter. So yeah, I cheated a little. It's actually $990.1 million per day. But I got a little crazy.02:02 — Andy Jassy, the CEO of Amazon said, “You know, this is a new industry. It's pretty crazy. You know, we've built at AWS a $123 billion annualized run rate business, and we're still in the early days.” All of the business leaders are realizing that to be able to compete going forward, they're going to have to turn their businesses into AI-powered enterprises.03:20 — They don't see this as a one-time seasonal boom that will go back down. They all say, “We think we're going to be spending at these rates going forward.” Oracle CEO Safra Catz, reflecting on the $9 billion that Oracle spent in its quarter ended May 31, said for the coming year, “We are expecting to spend more than $25 billion in CapEx — way more than ever before.”04:05 — CFO Amy Hood gently guided the questioner through this, saying, “That is a lot of money, there's no question about it. But our RPO, or remaining performance obligation — we have future commitments at Microsoft Cloud for $368 billion in customer contracts, and we don't currently have enough capacity to meet that. It's going to continue to go up.” Visit Cloud Wars for more.
From the environmental costs of data centers to the cultural biases baked into today's models, Paul Roetzer and Cathy McPhillips answer your questions from our 50th Intro to AI class. Throughout the episode, they unpack the gray areas of AI-generated content, debate what the rise of agents means for work, and consider how creatives can stay ahead with AI. Show Notes: Access the show notes and show links here Timestamps: 00:00:00 — Intro 00:05:13 — Question #1: Which environmental concern feels most urgent for the AI industry to solve? 00:07:58 — Question #2: How well do AI models reflect diverse languages and cultures? 00:10:25 — Question #3: What risks and ownership issues come with AI-generated video and images in marketing? 00:15:26 — Question #4: What are the best ways to start experimenting with AI agents? 00:18:22 — Question #5: Is there value in using multiple AI platforms to cross-check results? 00:22:06 — Question #6: How should businesses weigh built-in AI assistants versus standalone tools like ChatGPT? 00:24:30 — Question #7: Are we moving toward a standardized way for websites to guide how AI systems interact with their content? 00:29:27 — Question #8: How do you see different search engines being used or leveraged by AI companies? 00:32:24 — Question #9: How do you choose the right AI model for marketing, HR, and sales tasks? 00:34:56 — Question #10: What role do you see AI playing in building and managing communities? 00:38:31 — Question #11: What frameworks should teams use when integrating AI into CRM or workflow automation to keep systems scalable and secure? 00:40:51 — Question #12: What are the most common mistakes companies make when trying to ‘force-fit' AI into a workflow? 00:42:23 — Question #13: Which AI tooling is best suited to develop and monitor a marketing communications strategy at SME vs. enterprise scale? 00:45:11 — Question #14: Do you think AI fluency will become a baseline requirement for executives?00:46:55 — Question #15: What should creatives in fields like graphic design or UX/UI be thinking about as AI continues to evolve? 00:52:29 — Question #16: How do you see coding and technical skills as careers in a world where today's kids will grow up with AI?00:55:35 — Question #17: What's the best way to handle situations when AI gets things wrong, and how do you approach fact-checking? 00:58:39 — Question #18: If you had to narrow it down to just one ethical principle that matters most right now, which would it be and why? 01:00:48 — Question #19: How should companies address internal concerns around data privacy, compliance, and governance? 01:01:53 — Question #20: Which AI applications do you expect to break through sooner than people think? This episode is brought to you by Google Cloud: Google Cloud is the new way to the cloud, providing AI, infrastructure, developer, data, security, and collaboration tools built for today and tomorrow. Google Cloud offers a powerful, fully integrated and optimized AI stack with its own planet-scale infrastructure, custom-built chips, generative AI models and development platform, as well as AI-powered applications, to help organizations transform. Customers in more than 200 countries and territories turn to Google Cloud as their trusted technology partner. Learn more about Google Cloud here: https://cloud.google.com/ This episode is brought to you by AI Academy by SmarterX. AI Academy is your gateway to personalized AI learning for professionals and teams. Discover our new on-demand courses, live classes, certifications, and a smarter way to master AI. Learn more here. Visit our website Receive our weekly newsletter Join our community: Slack LinkedIn Twitter Instagram Facebook Looking for content and resources? Register for a free webinar Come to our next Marketing AI Conference Enroll in our AI Academy
[00:01:00] - When you think about your own journey, what pulled you into product marketing in the first place, and how has that perspective evolved across Salesforce, Box, MuleSoft, Google Cloud, and now Canva?[00:06:00] - Can you unpack what your LinkedIn bio quote means: "A good platform is a good story and a good story is also a good platform"?[00:10:00] - Two-part question:In some ways this means that the company has to be at a certain level, right? Early stage startups aren't really gonna have ecosystems - is that something you look for in your next role?What is ecosystem? Break it down - what does ecosystem marketing entail, maybe your day-to-day or week to week of what that's like to be an ecosystem marketer?[00:17:00] - Let's talk about building a product marketing team in a global environment, multiple offices around lots of time zones. How do you approach that? How do you even think about that? And has anything changed in how you think about this coming out of Covid?[00:22:00] - What's one piece of advice that you wish you had earlier in your product marketing career? Or what would you wish you could go back and tell yourself 10, 15 years ago?[00:30:00] - What's inspiring you right now, outside of marketing, maybe outside of Canva?Want more insights from Indy? Check out her Sharebird Profile.Looking to connect? You can find Indy here on LinkedIn.
Plus A New AI Religion Is Here Like this? Get AIDAILY, delivered to your inbox 3x a week. Subscribe to our newsletter at https://aidaily.us“AI psychosis” isn't a diagnosis—but it is real. People are spiraling into delusions, paranoia, and emotional dependence after heavy chatbot use—even if they had no previous mental health issues. These bots can validate unhealthy beliefs—not check you. Less glitchy tech isn't a fix unless we rethink how and when we interact.A former Berkeley hotel—Lighthaven—is now the physical HQ for Rationalists, a crew blending math, AI apocalypse fears, and effective altruism. Critics say it's culty, pointing to doomsday vibes and echoes of higher‑purpose religion. The main drama? Believing AI might save us… or annihilate us first.America's got trust issues—with AI. A Reuters/Ipsos poll shows 71% worry AI could kill jobs for good, 77% fear it's weaponized to mess with politics, and two-thirds are spooked that AI sidekicks could replace real human connection. Basically, AI hype's hitting a wall of existential dread.Game devs are legit vibing with AI. A Google Cloud survey reveals nearly 9 in 10 studios are using AI agents to speed up coding, testing, localization, and even make NPCs adapt to your vibe IRL. Indie teams especially are hyped—AI's helping them compete with big-shot publishers.Went to the AI Film Fest at Lincoln Center—saw ten AI-made shorts from butterfly POVs to “perfume ads for androids.” Some felt imaginative, others were just slick “slop” with weird glitches. The vibe? Cool as a tool, sketchy as a creator. AI's creative future looks wild—but still needs human soul.Meta just overhauled its freshly minted Meta Superintelligence Labs—except now it's split into four squads (research, products, superintelligence, infrastructure) to get AI moving faster. The shakeup comes amid internal friction, mega-spending on elite hires, and pressure to catch up with OpenAI, DeepMind, and co.AI therapy bots like Woebot are legit, but generic ones like ChatGPT can accidentally mess with your head—and even shut innovators down. STAT suggests a “red-yellow-green” label system (like food safety) vetted by mental-health pros to help users pick AI that helps—not harms.The Era of ‘AI Psychosis' Is Here. Are You a Possible Victim?Inside Silicon Valley's “Techno-Religion” at LighthavenWhat Americans Really Worry About With AI—From Politics to Jobs to FriendshipsAI Agents Are Transforming Game DevelopmentI Went to an AI Film Festival Screening and Left With More Questions Than AnswersMark Zuckerberg Splits Meta's AI Team—AgainWhich AI Can You Trust with Your Mental Health? Labels Could Help
In this AI Basics episode, Jason sits down with Matt Rouif, Co-founder & CEO of Photoroom — the AI photo editing app with 300M+ downloads and 5B images processed annually.They break down:Why Photoroom built its own specialized AI modelsHow they grew from a scrappy startup to $50M+ in revenueLessons in product-led growth (from eBay sellers to DoorDash & Amazon)Red-teaming, brand safety, and building trust in AI imageryThe future of personalized ads, content, and designThis one is a masterclass for founders, operators, and builders.Timestamps:(0:00) Matt Rouif joins Jason to discuss AI Basics.(0:45) Meet Matt Rouif: Photoroom's $50M+ AI photo startup(3:15) Live demo: background removal + virtual try-on(7:40) From indie sellers to DoorDash & Amazon(12:20) The “Barbie Movie” API moment(17:05) Red-teaming AI: trust, safety & brand protection(22:10) Running a 100-person AI startup(26:30) The future of personalized ads (put you in the ad?)Explore Further:Google Cloud's Report: The Future of AIGet insights from 23 leading experts on how startups can leverage AI for real business impact.
Welcome to Cloud and Clear, the SADA podcast that brings you exclusive insights and customer success stories from the cloud! In this episode, your host, Veronica Raulin, is joined by Austin Leone, SADA's Senior Manager of Organizational Change Management, to discuss Agentspace. Agentspace is Google's powerful new platform that acts like a 'do-engine,' connecting all of an organization's data from sources like SharePoint, Confluence, and ServiceNow, and allowing people to interact with it conversationally. But what does a successful deployment look like? Austin explains how SADA's robust change management methodologies go beyond standard training to ensure true user adoption. You'll learn about: The SADA Approach: How SADA is guiding customers through Agentspace implementations, from proof of value to large-scale deployments, by using custom, department-specific sessions and hands-on engagement. The Importance of a Partner: Austin highlights how SADA's experience with 18 successful Agentspace projects has led to the creation of a "prompt library" and custom training methodologies that fit specific organizational needs. Driving Adoption: Discover how SADA uses gamification, like hackathon-style events, to build excitement and generate a library of use cases specific to an organization's workflows. Security and Best Practices: Austin reassures listeners that Agentspace is built within an organization's secure Google Cloud environment, respecting existing permissions and access controls. Looking Forward: A look into the future of Agentspace, where more complex actions and workflows will automate tasks and boost efficiency. This episode offers valuable, practical advice for anyone—from executives to tech professionals—looking for inspiration on how to implement and adopt new technology in their organization successfully. Subscribe to Cloud and Clear:
In today's Cloud Wars Minute, I explored why the groundbreaking Oracle–Google Cloud partnership around Gemini AI marks a bold new era for multi-cloud collaboration.Highlights00:14 — It's a brilliant move by Oracle and Google Cloud to form a partnership where Gemini AI is now available on the Oracle Cloud. Gemini on OCI is pretty wild. Both Oracle and Google compete viciously against each other. At the same time, they're both customer-centric enough to say: " ... in this other area, we're going to create new and significant value for customers."01:52 — Too often, I think tech vendors get into this mindset of: "Well, they're a competitor, so I'm not going to do anything with them — even if that might make life better for customers."I think those days are over. That's why I feel this is truly transformative.02:08 — Both executives from Google Cloud and Oracle spoke in great detail about how this partnership will make life easier for customers. They also talked about how this reflects their new philosophy: "We've got to be open. We've got to give choice — regardless of where it comes from."03:05 — Beyond Oracle and Google Cloud, I'd love to see AWS do some things with competitors. Microsoft has done some of this, but I think there's still room for all these companies to do more. It's the best of both worlds for customers: being able to get combinations of technologies and vendor capabilities rolled into single packages.03:41 — You're going to have both Google Cloud and Oracle salespeople now able to sell Gemini on Oracle Cloud. Just like about a year ago with the multi-cloud agreements — where Oracle Database became available on Azure, AWS, and Google Cloud — those hard and fast walls that used to separate vendors from ever cooperating are coming down. And they're coming down quickly.04:12 — What we see here is that tech vendors have to be not only world-class in the technology they're developing, but also in how they're willing to go to market in unprecedented ways to drive new and significant value for customers. That's going to be one of the primary yardsticks by which vendors are measured — not just by the power of their technology. Visit Cloud Wars for more.
En este episodio de Road to CTO conversamos con David Poblador (ex-Spotify) para aterrizar qué hace realmente un CTO hoy, cómo equilibrar producto y tecnología sin perder foco, qué cambia entre startups y empresas grandes, cómo liderar equipos y contratar con criterio, y cómo orientar la carrera entre management e IC. Repasamos su trayectoria: más de once años en Spotify liderando iniciativas de modernización (migración a Google Cloud, renovación de VCS/CI y estrategia multirregión de datos), su etapa actual como fundador de Castuner creando herramientas sencillas y efectivas para creadores, su labor de Technology Segment Host en La tarda de Catalunya Ràdio, su paso por Secways como CTO y advisor, y su faceta divulgadora en los podcasts 2048 enllà y Entre Dev y Ops. Un episodio repleto de aprendizajes prácticos para quien quiera crecer en liderazgo técnico sin perder la esencia del producto. Si te aporta, suscríbete y compártelo con alguien en su propio Road to CTO.Support the show
Send us a textIn this episode, Frank and SteveO cover the latest cloud updates that matter for FinOps practitioners:Compute & AI: AWS launches the P6e GB200 Ultra Servers, delivering record-breaking GPU performance for training and inference at trillion-parameter scale. Google announces FlexStart VMs to lower inference costs, while Azure rolls out free AWS-to-Azure Blob migration.Storage & Data: Google introduces editable backup plans, and AWS adds tagging support for S3 Express One Zone—a step toward using tags as operational levers, not just reporting tools.Visibility & Optimization: AWS Transform enhances EBS cost analysis and .NET modernization insights. GCP improves billing exports with spend-based CUD metadata in BigQuery and previews a Cost Explorer for better spend tracking.Pricing & Commitments: AWS Connect introduces per-day pricing for external voice connectors. Google expands flexible CUDs to cover Cloud Run services, with full migration to the new model coming in January 2026.Savings & Compliance: Azure Firewall adds ingestion-time log transformations to cut monitoring costs. AWS Audit Manager improves evidence collection, reducing compliance overhead and spend.AI-assisted Operations: AWS debuts MCP servers for S3 Tables, CloudWatch, and Application Signals—enabling AI-driven data access, troubleshooting, and observability. Plus, QuickSight doubles SPICE datasets to 2B rows.As always, we cut through the noise to focus on the FinOps impact—cost, commitments, compliance, and the growing role of AI in managing the cloud.
In today's Cloud Wars Minute, I take a closer look at AWS's market positioning and the narrative shared during its recent earnings call.Highlights00:36 — I was puzzled by some of the math and the numbers that Amazon CEO Andy Jassy, speaking on behalf of AWS on the Amazon earnings call, used in trying to describe the competitive position that AWS finds itself in.01:28 — We've got AWS, now on a $123 billion annualized run rate, and which grew 17.5% in Q2, which is extremely good for a company that size. The challenge comes in when you compare it with the growth rates, both in recent-quarter revenue, but also RPO, or backlog. AWS is far, far behind the other three hyperscalers on those metrics, or the rate of acceleration as they each grew from Q2 over Q1.02:12 — On the earnings call, Jassy said the second player has revenue that's only 65% as big as AWS. So that has to be Microsoft. So he's saying that Microsoft's cloud revenue is more in the range of $75 to $80 billion, but it's more than twice that — $187 billion. I don't get that. Maybe he's trying to say it's only about infrastructure, but he doesn't say that.03:46 — The issue is that the AWS growth rate is lower than that of Microsoft, Google Cloud, and Oracle, and it has been lower for at least the last eight quarters. Yet on the earnings call, Jassy said, "Sometimes we grow faster than they do, sometimes they grow faster than we do."04:07 — So, perhaps Andy Jassy, who has been an extraordinary executive, I'm not questioning his overall capability, his record stands for itself. But Jassy is choosing to try to play a little bit of a shell game here, trying to say that Microsoft's whole cloud revenue isn't all there, or some is illegitimate — something like that.05:26 — It's something that AWS has to address, own up to, and figure out what to do about it. And I think AWS is a great company. I don't think it helps AWS's cause for Andy Jassy to be using some numbers and representations of the market that seem to clash with reality. Visit Cloud Wars for more.
Will AI replace nurses?Is Google's Nurse Handoff app secure?Could this be the beginning of nurses designing the future of healthcare?Would you trust a nurse handoff powered by AI over traditional methods?Do you think AI should be involved in critical nurse-patient workflows? Hey there, tech enthusiasts!
As we prepare for a brand new season of Eccles Business Buzz launching this fall, we're bringing back some of your favorite episodes from our archive. In this series of conversations from Season 7 about Artificial Intelligence and how it's changing the world around us, Frances talks to an AI engineer at Google about the ins and outs of the newest crop of AI models and agents.Joining the show to give an insider's perspective is Derek Egan. Derek is on the Vertex AI team at Google Cloud where he works on helping developers build generative AI-powered agents for their own applications. Derek is also a graduate of the David Eccles School of Business with a degree in Operations Management. David and Frances discuss the difference between models and agents, and why humans are still very much integral to the process. They address the strengths and weaknesses of these types of systems and the ways in which they might be used by organizations most effectively to help them work more efficiently. Derek speaks to the realistic worries of some AI critics and gives some of his own real-life examples of how AI agents help streamline his work life and personal life. Eccles Business Buzz is a production of the David Eccles School of Business and is produced by University fm.Show Links:Derek Egan | LinkedInVertex AI | Google CloudMaster of Science in Business Analytics - The David Eccles School of BusinessDavid Eccles School of Business (@ubusiness) • InstagramEccles Alumni Network (@ecclesalumni) • Instagram Eccles Experience Magazine
Arnaud et Guillaume explore l'évolution de l'écosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur l'infrastructure cloud, les défis MCP et CLI, tout en discutant de l'impact de l'IA sur la productivité des développeurs et la gestion de la dette technique. Enregistré le 8 août 2025 Téléchargement de l'épisode LesCastCodeurs-Episode–329.mp3 ou en vidéo sur YouTube. News Langages Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515 Le JEP 515 a pour but d'améliorer le temps de démarrage et de chauffe des applications Java. L'idée est de collecter les profils d'exécution des méthodes lors d'une exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle. Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que l'application soit en cours d'exécution. Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks. L'intégration se fait via les commandes de création de cache AOT existantes. Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514 Java 25: JEP 518 : Échantillonnage coopératif JFR https://openjdk.org/jeps/518 Le JEP 518 a pour objectif d'améliorer la stabilité et l'évolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage d'exécution. Le mécanisme d'échantillonnage des piles d'appels de threads Java est retravaillé pour s'exécuter uniquement à des safepoints, ce qui réduit les risques d'instabilité. Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent. Le JEP ajoute un nouvel événement, SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. L'approche rend le processus d'échantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même. Librairies Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot–4–0–0-M1-available-now Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité. Les types annotés avec @ConfigurationProperties peuvent maintenant référencer des types situés dans des modules externes grâce à @ConfigurationPropertiesSource. Le support de l'information sur la validité des certificats SSL a été simplifié, supprimant l'état WILL_EXPIRE_SOON au profit de VALID. L'auto-configuration des métriques Micrometer supporte désormais l'annotation @MeterTag sur les méthodes annotées @Counted et @Timed, avec évaluation via SpEL. Le support de @ServiceConnection pour MongoDB inclut désormais l'intégration avec MongoDBAtlasLocalContainer de Testcontainers. Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2. Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel. Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1. Passage de Spring Boot à Quarkus : retour d'expérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53 Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire. L'objectif était aussi d'optimiser l'application pour le cloud natif. La migration a été plus complexe que prévu, notamment à cause de l'incompatibilité avec certaines bibliothèques et d'un écosystème Quarkus moins mature. Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot. Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort d'adaptation. La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot. Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration d'un projet existant est un vrai défi. LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0 Modules stables : Les modules langchain4j-anthropic, langchain4j-azure-open-ai, langchain4j-bedrock, langchain4j-google-ai-gemini, langchain4j-mistral-ai et langchain4j-ollama sont désormais en version stable 1.2.0. Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables. BOM mis à jour : Le langchain4j-bom a été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. Principales améliorations : Support du raisonnement/pensée dans les modèles. Appels d'outils partiels en streaming. Option MCP pour exposer automatiquement les ressources en tant qu'outils. OpenAI : possibilité de définir des paramètres de requête personnalisés et d'accéder aux réponses HTTP brutes et aux événements SSE. Améliorations de la gestion des erreurs et de la documentation. Filtering Metadata Infinispan ! (cc Katia( Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0 2 nouveaux modules expérimentaux, langchain4j-agentic et langchain4j-agentic-a2a qui introduisent un ensemble d'abstractions et d'utilitaires pour construire des applications agentiques Infrastructure Cette fois c'est vraiment l'année de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html Linux a franchi la barre des 5% aux USA Cette progression s'explique en grande partie par l'essor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public. Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme. Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés. Le cloud, l'IoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale. Ce basculement symbolique marque un changement d'équilibre dans l'écosystème des systèmes d'exploitation. Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques. Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires. Cloud Cloudflare 1.1.1.1 s'en va pendant une heure d'internet https://blog.cloudflare.com/cloudflare–1–1–1–1-incident-on-july–14–2025/ Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux. Cette panne a aussi causé une dégradation intermittente du service Gateway DNS. L'incident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025. Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast. Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux. Ce n'était pas le résultat d'une attaque ou d'un problème BGP, mais une erreur interne de configuration. Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type d'incident à l'avenir. Le service est revenu à la normale après environ une heure d'indisponibilité. L'incident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité d'une gestion rigoureuse des configurations réseau. Web L'évolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs–2025/ Évolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs. ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe node: pour les modules natifs afin d'éviter les conflits. API web intégrées : fetch, AbortController, et AbortSignal sont maintenant natifs, réduisant le besoin de librairies comme axios. Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode “watch” et des rapports de couverture. Patterns asynchrones avancés : Utilisation plus poussée de async/await avec Promise.all() pour le parallélisme et les AsyncIterators pour les flux d'événements. Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer l'event loop principal. Expérience de développement améliorée : Intégration du mode --watch (remplace nodemon) et du support --env-file (remplace dotenv). Sécurité et performance : Modèle de permission expérimental pour restreindre l'accès et des hooks de performance natifs pour le monitoring. Distribution simplifiée : Création d'exécutables uniques pour faciliter le déploiement d'applications ou d'outils en ligne de commande. Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/ Apache ECharts 6.0 : Sortie officielle après 12 ans d'évolution. 12 mises à niveau majeures pour la visualisation de données. Trois dimensions clés d'amélioration : Présentation visuelle plus professionnelle : Nouveau thème par défaut (design moderne). Changement dynamique de thème. Prise en charge du mode sombre. Extension des limites de l'expression des données : Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart). Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis). Graphiques boursiers améliorés Liberté de composition : Nouveau système de coordonnées matriciel. Séries personnalisées améliorées (réutilisation du code, publication npm). Nouveaux graphiques personnalisés inclus (violon, contour, etc.). Optimisation de l'agencement des étiquettes d'axe. Data et Intelligence Artificielle Grok 4 s'est pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok–4s-problematic-responses/ À son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites. Ce comportement provenait d'une recherche automatique sur le web qui a mal interprété un mème viral comme une vérité. Grok alignait aussi ses réponses controversées sur les opinions d'Elon Musk et de xAI, ce qui a amplifié les biais. xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk. Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts système, et imposé des directives demandant à Grok d'effectuer une analyse indépendante, en utilisant des sources diverses. Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles. xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même. Cet incident met en lumière les défis persistants d'alignement et de sécurité des modèles d'IA face aux injections indirectes issues du contenu en ligne. La correction n'est pas qu'un simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement d'IA à grande échelle. Guillaume a sorti toute une série d'article sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/ Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/ Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/ Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/ Et enfin, comment faire des boucles d'amélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/ Tout ça évidemment en Java :slightly_smiling_face: 6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ Orta partage son retour après 6 semaines d'utilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder. Il ne « code » plus vraiment ligne par ligne, mais décrit ce qu'il veut, laisse Claude proposer une solution, puis corrige ou ajuste. Cela permet de se concentrer sur le résultat plutôt que sur l'implémentation, comme passer de la peinture au polaroid. Claude s'avère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code. Il reste toujours en contrôle, révise chaque diff généré, et guide l'IA via des prompts bien cadrés. Il note qu'il faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes. Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de l'expérience et du discernement. Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend l'ensemble du système. Le gain principal est une vitesse de feedback plus rapide et une boucle d'itération beaucoup plus courte. Ce type d'outil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme. Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/ Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace. Le MCP Context7 montre comment fournir à l'IA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs. Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail. Le MCP Playwright permet de manipuler des navigateurs et d'executer des tests E2E Le MCP Digital Ocean permet de déployer facilement l'application en production Tout n'est pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté) Nicolas complète cet article avec l'écriture d'un MVP en 20 heures: https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/ Le développement augmenté, un avis politiquement correct, mais bon… https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/ Nicolas partage un avis nuancé (et un peu provoquant) sur le développement augmenté, où l'IA comme Claude Code assiste le développeur sans le remplacer. Il rejette l'idée que cela serait « trop magique » ou « trop facile » : c'est une évolution logique de notre métier, pas un raccourci pour les paresseux. Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider — même si l'IA aide à coder plus vite. Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude. Ce genre d'outillage change le rapport au temps : on passe de « je vais y réfléchir » à « je tente tout de suite une version qui marche à peu près ». Il assume aimer cette approche rapide et imparfaite : mieux vaut une version brute livrée vite qu'un projet bloqué par le perfectionnisme. L'IA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé. Il conclut que le « dev augmenté » ne remplace pas les bons développeurs… mais les développeurs moyens doivent s'y mettre, sous peine d'être dépassés. ChatGPT lance le mode d'étude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/ OpenAI propose un mode d'étude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse. Ce mode vise à encourager la réflexion active et l'apprentissage en profondeur. Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de l'utilisateur. Le mode d'étude favorise la gestion de la charge cognitive et stimule la métacognition. Il propose des réponses structurées pour faciliter la compréhension progressive des sujets. Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu. L'objectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances. A priori Gemini viendrait de sortir un fonctionnalité similaire Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/ https://openai.com/index/gpt-oss-model-card/ OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT–2. Deux modèles sont disponibles : gpt-oss–120b et gpt-oss–20b, qui sont des modèles mixtes d'experts conçus pour le raisonnement et les tâches d'agent. Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales. Le modèle gpt-oss–120b est capable de performances proches du modèle OpenAI o4-mini, tandis que le gpt-oss–20b est comparable au o3-mini. OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter l'adoption. Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama. OpenAI a mené des recherches sur la sécurité pour s'assurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique. Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus–4–1 Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage. Cette nouvelle version met l'accent sur l'amélioration des performances en codage, en raisonnement et sur les tâches de recherche et d'analyse de données. Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente. Il excelle notamment dans la refactorisation de code multifichier et est capable d'effectuer des recherches approfondies. Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via l'API, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux d'Opus 4. Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles. OpenAI Summer Update. GPT–5 is out https://openai.com/index/introducing-gpt–5/ Détails https://openai.com/index/gpt–5-new-era-of-work/ https://openai.com/index/introducing-gpt–5-for-developers/ https://openai.com/index/gpt–5-safe-completions/ https://openai.com/index/gpt–5-system-card/ Amélioration majeure des capacités cognitives - GPT‑5 montre un niveau de raisonnement, d'abstraction et de compréhension nettement supérieur aux modèles précédents. Deux variantes principales - gpt-5-main : rapide, efficace pour les tâches générales. gpt-5-thinking : plus lent mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de l'utilisateur. Fenêtre de contexte encore étendue - GPT‑5 peut traiter des volumes de texte plus longs (jusqu'à 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers. Réduction significative des hallucinations - GPT‑5 donne des réponses plus fiables, avec moins d'erreurs inventées ou de fausses affirmations. Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à l'alignement excessif avec les opinions de l'utilisateur. Capacité accrue à suivre des instructions complexes - GPT‑5 comprend mieux les consignes longues, implicites ou nuancées. Approche “Safe completions” - Remplacement des “refus d'exécution” par des réponses utiles mais sûres — le modèle essaie de répondre avec prudence plutôt que bloquer. Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc. Améliorations spécifiques pour le codage - GPT‑5 est plus performant pour l'écriture de code, la compréhension de contextes logiciels complexes, et l'usage d'outils de développement. Expérience utilisateur plus rapide et fluide- Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles. Capacités agentiques renforcées - GPT‑5 peut être utilisé comme base pour des agents autonomes capables d'accomplir des objectifs avec peu d'interventions humaines. Multimodalité maîtrisée (texte, image, audio) - GPT‑5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle. Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables. Personnalisation contextuelle accrue - Le système s'adapte mieux au style, ton ou préférences de l'utilisateur, sans instructions répétées. Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches. Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises. Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe. Priorité à la sécurité et à l'alignement - GPT‑5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables. Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPT‑5 n'est pas une intelligence artificielle générale. Non, non, les juniors ne sont pas obsolètes malgré l'IA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/ L'IA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes. Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA. L'objectif est de développer des compétences pour travailler avec l'IA, pas d'être remplacé. La créativité et la curiosité sont des qualités humaines clés. Cinq façons de se démarquer : Utiliser l'IA (ex: GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex: mode tuteur, désactiver l'autocomplétion temporairement). Construire des projets publics démontrant ses compétences (y compris en IA). Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests). Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes). Déboguer plus intelligemment et rapidement avec l'IA (ex: Copilot Chat pour explications, corrections, tests). Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/ Protocole Agent2Agent (A2A) : Standard ouvert pour l'interopérabilité universelle des agents IA. Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks. Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes. Objet de l'article : Guide pour construire un premier agent A2A (agent météo) dans WildFly. Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP). Agent conforme A2A v0.2.5. Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+, uv. Étapes de construction de l'agent météo : Création du service LLM : Interface Java (WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctions get_alerts, get_forecast). Définition de l'agent A2A (via CDI) : ▪︎ Agent Card : Fournit les métadonnées de l'agent (nom, description, URL, capacités, compétences comme “weather_search”). Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse. Exposition de l'agent : Enregistrement d'une application JAX-RS pour les endpoints. Déploiement et test : Configuration de l'outil A2A-inspector de Google (via un conteneur Podman). Construction du projet Maven, configuration des variables d'environnement (ex: GEMINI_API_KEY). Lancement du serveur WildFly. Conclusion : Transformation minimale d'une application IA en agent A2A. Permet la collaboration et le partage d'informations entre agents IA, indépendamment de leur infrastructure sous-jacente. Outillage IntelliJ IDEa bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/ À partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément. Une seule version unifiée d'IntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate. Les fonctionnalités avancées de l'édition Ultimate seront accessibles via abonnement. Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à l'édition Community actuelle. Cette unification vise à simplifier l'expérience utilisateur et réduire les différences entre les éditions. Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée. Il sera possible d'activer les fonctionnalités Ultimate temporairement d'un simple clic. En cas d'expiration d'abonnement Ultimate, l'utilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption. Ce changement reflète l'engagement de JetBrains envers l'open source et l'adaptation aux besoins de la communauté. Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment–3150797791 Afin d'éviter de dupliquer du contenu dans un workflow les Ancres permettent d'insérer des morceaux réutilisables de YAML Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout. Attention à ne pas en abuser car la lisibilité de tels documents n'est pas si facile Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude :disappointed: Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/ Claude Code propose des hooks qui permettent d'exécuter des scripts à différents moments d'une session, par exemple au début, lors de l'utilisation d'outils, ou à la fin. Ces hooks facilitent l'automatisation de tâches comme la gestion de branches Git, l'envoi de notifications, ou l'intégration avec d'autres outils. Un exemple simple est l'envoi d'une notification sur le bureau à la fin d'une session. Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local. Sur macOS, l'envoi de notifications nécessite une permission spécifique via l'application “Script Editor”. Il est important d'avoir une version à jour de Claude Code pour utiliser ces hooks. GitButler permet desormais de s'intégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/ Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/ Demandé par certains utilisateurs depuis longtemps Ca serait un client graphique du même style qu'un GitButler, SourceTree, etc Apache Maven 4 …. arrive …. l'utilitaire mvnupva vous aider à upgrader https://maven.apache.org/tools/mvnup.html Fixe les incompatibilités connues Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4 Reformattage selon les conventions maven … Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/ Google a lancé Gemini CLI GitHub Actions, un agent d'IA qui fonctionne comme un “coéquipier de code” pour les dépôts GitHub. L'outil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), l'examen des demandes de tirage (pull requests) et d'autres tâches de développement. Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request. L'outil est basé sur la CLI Gemini, un agent d'IA open-source qui amène le modèle Gemini directement dans le terminal. Il utilise l'infrastructure GitHub Actions, ce qui permet d'isoler les processus dans des conteneurs séparés pour des raisons de sécurité. Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, l'examen des pull requests et la collaboration à la demande. Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/ Armin souligne qu'il n'est pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte. Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP. Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives. Il préfère créer des scripts clairs plutôt que se reposer sur l'inférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles. Pour les tâches récurrentes, si on les automatise, mieux vaut le faire avec du code reusable, plutôt que de laisser l'IA deviner à chaque fois. Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt qu'un usage direct d'IA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération. Ce workflow LLM→code→LLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus. Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop d'inférence et trop de variations par appel. Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés. MCP vs CLI … https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/ Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir l'IA via MCP ou laisser l'IA utiliser directement les CLI du système. Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité. Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent l'accès pour les utilisateurs moins expérimentés. Il reconnaît la critique selon laquelle MCP consomme trop de contexte (« context bloat ») et que les appels CLI peuvent être plus rapides et compréhensibles. Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en lui‑même. Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de l'IA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser). Il apprécie la capacité des MCP à offrir des opérations état‑durables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement. Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par n'importe quel client. Son verdict : pas de solution universelle — chaque contexte mérite d'être évalué, et on ne devrait pas imposer MCP ou CLI à tout prix. Jules, l'agent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/ Jules, agent de codage asynchrone, est maintenant publiquement disponible. Propulsé par Gemini 2.5 Pro. Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs. Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal. Gemini 2.5 Pro améliore les plans de codage et la qualité du code. Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures). Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro). Architecture Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible–97483.html La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales. Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair. Cette difficulté limite la priorisation des projets de réduction de dette technique face à d'autres initiatives jugées plus urgentes ou stratégiques. Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement. Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter l'accumulation de cette dette. L'absence d'outils adaptés pour mesurer les progrès rend la démarche encore plus complexe. En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne. Il ne faut pas se Mocker … https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html L'auteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock. Les frameworks de mocking isolent le code, mais entraînent souvent : Un fort couplage entre les tests et les détails d'implémentation. Des tests qui valident le mock plutôt que le comportement réel. Deux principes fondamentaux guident son approche : Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord). Contrôler les données de test : par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler. Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore il préfère en simuler seulement le transport plutôt que le comportement métier. Résultat : les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code. L'article conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout. Le blog en réponse d'Henri Tremblay nuance un peu ces retours Méthodologies C'est quoi être un bon PM ? (Product Manager) Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de l'équipe pour assurer le succès. 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Mieux vaut livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet d'apprendre de la réalité. 2. Donner l'envie du grand large : La meilleure façon de faire avancer un projet est d'inspirer l'équipe avec une vision forte et désirable. Montrer le “pourquoi”. 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours. 4. Être un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base d'une exécution rapide. 5. Donner plus qu'on ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées. 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire “oui”, et ne pas se laisser bloquer par des avis non décisionnaires. 7. N'aller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi s'écarter (réunions, projets) quand on n'est pas utile. 8. Le succès a plusieurs parents, l'échec est orphelin : Si le produit réussit, c'est un succès d'équipe. S'il échoue, c'est la faute du PM. Il faut assumer la responsabilité finale. Conclusion : Le PM est un chef d'orchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est d'orchestrer avec humilité le travail de tous pour créer quelque chose d'harmonieux. Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/ L'auteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production. Le projet inclut automatiquement la dépendance spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring. Tests de cas d'usage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données. Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance). Tests de contrôleur : permettent de tester les endpoints web (ex. @WebMvcTest), souvent avec MockBean pour simuler les dépendances. Tests d'intégration complets : ils démarrent tout le contexte Spring (@SpringBootTest) pour tester l'application dans son ensemble. L'auteur évoque également des tests d'architecture, mais sans entrer dans le détail dans cet article. Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile. Sécurité Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/ Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe. Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de l'utilisateur, garantissant l'application du principe de chiffrement zero‑knowledge. L'intégration se fait via l'interface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être auto‑hébergé pour un contrôle maximal des données. Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications. Une démo avec Claude (agent IA d'Anthropic) montre que l'IA peut interagir avec le coffre Bitwarden : vérifier l'état, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe. Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à l'utilisation d'IA autonome. L'usage d'un LLM local privé est fortement recommandé pour limiter les vulnérabilités. Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas d'usage) ou un extrait spécifique ! NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve–2025–23266-nvidiascape Il s'agit d'une faille d'évasion de conteneur dans le NVIDIA Container Toolkit. La gravité est jugée critique avec un score CVSS de 9.0. Cette vulnérabilité permet à un conteneur malveillant d'obtenir un accès root complet sur l'hôte. L'origine du problème vient d'une mauvaise configuration des hooks OCI dans le toolkit. L'exploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes. Le risque principal concerne la compromission de l'isolation entre différents clients sur des infrastructures cloud GPU partagées. Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusqu'à la 1.17.7 et du NVIDIA GPU Operator jusqu'à la version 25.3.1. Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées. En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter l'exposition. Cette faille met en lumière l'importance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI. Fuite de données de l'application Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés. En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces d'identité) et plus d'1,1 million de messages privés. La fuite a été révélée après qu'un utilisateur ait partagé un lien pour télécharger la base de données compromise. Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle l'application a migré vers une infrastructure plus sécurisée. En réponse, Tea prévoit de proposer des services de protection d'identité aux utilisateurs impactés. Faille dans le paquet npm is : attaque en chaîne d'approvisionnement https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet is. Des versions compromises du paquet is (notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement l'exécution de code arbitraire. L'attaque fait suite à d'autres compromissions de paquets populaires comme eslint-config-prettier, eslint-plugin-prettier, synckit, @pkgr/core, napi-postinstall, et got-fetch. Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs. Le domaine usurpé [npnjs.com](http://npnjs.com) a été utilisé pour collecter les jetons d'accès via des emails de phishing trompeurs. L'épisode met en lumière la fragilité des chaînes d'approvisionnement logicielle dans l'écosystème npm et la nécessité d'adopter des pratiques renforcées de sécurité autour des dépendances. Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage d'IA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils d'IA accélèrent considérablement le développement de logiciels. Commande /security-review : les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude d'identifier les vulnérabilités de sécurité, notamment les risques d'injection SQL, les vulnérabilités de script intersite (XSS), les failles d'authentification et d'autorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code d'analyser automatiquement chaque nouvelle demande d'extraction (pull request). L'outil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande d'extraction avec les problèmes détectés et les correctifs recommandés. Ces fonctionnalités sont conçues pour créer un processus d'examen de sécurité cohérent et s'intégrer aux pipelines CI/CD existants, ce qui permet de s'assurer qu'aucun code n'atteint la production sans un examen de sécurité de base. Loi, société et organisation Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/ windsurf devait être racheté par OpenAI Google ne fait pas d'offre de rachat mais débauche quelques personnes clés de Windsurf Windsurf reste donc indépendante mais sans certains cerveaux y compris son PDG. Les nouveaux dirigeants sont les ex leaders des force de vente Donc plus une boîte tech Pourquoi le deal a 3 milliard est tombé à l'eau ? On ne sait pas mais la divergence et l‘indépendance technologique est possiblement en cause. Les transfuge vont bosser chez Deepmind dans le code argentique Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/ Jan Moser critique ceux qui pensent que l'IA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents. Il cite l'exemple de l'application Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images d'utilisateurs en raison d'une mauvaise configuration de Firebase et d'un manque de pratiques de développement sécurisées. Il souligne que l'absence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données. Moser avertit que des outils comme l'IA ne peuvent pas compenser l'absence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code. Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel. YouTube déploie une technologie d'estimation d'âge pour identifier les adolescents aux États-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/ Sujet très à la mode, surtout au UK mais pas que… YouTube commence à déployer une technologie d'estimation d'âge basée sur l'IA pour identifier les utilisateurs adolescents aux États-Unis, indépendamment de l'âge déclaré lors de l'inscription. Cette technologie analyse divers signaux comportementaux, tels que l'historique de visionnage, les catégories de vidéos consultées et l'âge du compte. Lorsqu'un utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment : Désactivation des publicités personnalisées. Activation des outils de bien-être numérique, tels que les rappels de temps d'écran et de coucher. Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à l'image corporelle. Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce d'identité gouvernementale, une carte de crédit ou un selfie. Ce déploiement initial concerne un petit groupe d'utilisateurs aux États-Unis et sera étendu progressivement. Cette initiative s'inscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne. Mistral AI : contribution à un standard environnemental pour l'IA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai Mistral AI a réalisé la première analyse de cycle de vie complète d'un modèle d'IA, en collaboration avec plusieurs partenaires. L'étude quantifie l'impact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation d'eau, et l'épuisement des ressources. La phase d'entraînement a généré 20,4 kilotonnes de CO₂ équivalent, consommé 281 000 m³ d'eau, et utilisé 660 kg SB-eq (mineral consumption). Pour une réponse de 400 tokens, l'impact marginal est faible mais non négligeable : 1,14 gramme de CO₂, 45 mL d'eau, et 0,16 mg d'équivalent antimoine. Mistral propose trois indicateurs pour évaluer cet impact : l'impact absolu de l'entraînement, l'impact marginal de l'inférence, et le ratio inference/impact total sur le cycle de vie. L'entreprise souligne l'importance de choisir le modèle en fonction du cas d'usage pour limiter l'empreinte environnementale. Mistral appelle à plus de transparence et à l'adoption de standards internationaux pour permettre une comparaison claire entre modèles. L'IA promettait plus d'efficacité… elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient Les outils d'IA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans d'autres tâches, créant une surcharge. Les utilisateurs croient être plus productifs avec l'IA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant l'IA prennent 19 % de temps en plus pour accomplir leurs tâches. Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque l'usage de l'IA augmente : –1,5 % de throughput et –7,2 % de stabilité de livraison pour +25 % d'adoption de l'IA. L'IA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants… Cela épuise et limite le temps de concentration réelle. Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement. Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter l'épuisement professionnel. Trois pistes concrètes : Repenser la productivité non en temps gagné, mais en énergie préservée. Être sélectif dans l'usage des outils IA, en fonction de son ressenti et non du battage médiatique. Accepter la courbe en J : l'IA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels. Le vrai hack de productivité ? Parfois, ralentir pour rester lucide et durable. Conférences MCP Submit Europe https://mcpdevsummit.ai/ Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns–2026/ JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026. Après le succès de l'édition 2025, ce retour s'inscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover. La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 25–27 août 2025 : SHAKA Biarritz - Biarritz (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France) 18–19 septembre 2025 : API Platform Conference - Lille (France) & Online 22–24 septembre 2025 : Kernel Recipes - Paris (France) 22–27 septembre 2025 : La Mélée Numérique - Toulouse (France) 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 23–24 septembre 2025 : AI Engineer Paris - Paris (France) 25 septembre 2025 : Agile Game Toulouse - Toulouse (France) 25–26 septembre 2025 : Paris Web 2025 - Paris (France) 30 septembre 2025–1 octobre 2025 : PyData Paris 2025 - Paris (France) 2 octobre 2025 : Nantes Craft - Nantes (France) 2–3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6–7 octobre 2025 : Swift Connection 2025 - Paris (France) 6–10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 7–8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France) 8–10 octobre 2025 : SIG 2025 - Paris (France) & Online 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France) 9–10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9–10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16 octobre 2025 : Power 365 - 2025 - Lille (France) 16–17 octobre 2025 : DevFest Nantes - Nantes (France) 17 octobre 2025 : Sylius Con 2025 - Lyon (France) 17 octobre 2025 : ScalaIO 2025 - Paris (France) 17–19 octobre 2025 : OpenInfra Summit Europe - Paris (France) 20 octobre 2025 : Codeurs en Seine - Rouen (France) 23 octobre 2025 : Cloud Nord - Lille (France) 30–31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30–31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025–2 novembre 2025 : PyConFR 2025 - Lyon (France) 4–7 novembre 2025 : NewCrafts 2025 - Paris (France) 5–6 novembre 2025 : Tech Show Paris - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12–14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15–16 novembre 2025 : Capitole du Libre - Toulouse (France) 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France) 19–21 novembre 2025 : Agile Grenoble - Grenoble (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 1–2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France) 4–5 décembre 2025 : Agile Tour Rennes - Rennes (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 9–11 décembre 2025 : APIdays Paris - Paris (France) 9–11 décembre 2025 : Green IO Paris - Paris (France) 10–11 décembre 2025 : Devops REX - Paris (France) 10–11 décembre 2025 : Open Source Experience - Paris (France) 11 décembre 2025 : Normandie.ai 2025 - Rouen (France) 28–31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2–6 février 2026 : Web Days Convention - Aix-en-Provence (France) 3 février 2026 : Cloud Native Days France 2026 - Paris (France) 12–13 février 2026 : Touraine Tech #26 - Tours (France) 22–24 avril 2026 : Devoxx France 2026 - Paris (France) 23–25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
Amazon Web Services, Microsoft Azure, and Google Cloud dominate the infrastructure-as-a-service market, controlling 71% of the market share. This concentration is driven by the rapid growth of artificial intelligence, with global cloud spending projected to exceed $700 billion in 2025. The economic impact of AI is significant, as evidenced by Microsoft reaching a $4 trillion valuation, largely due to investments in AI infrastructure. However, this boom has created challenges for recent computer science graduates, who are struggling to find jobs in a tech industry that is increasingly adopting AI tools while simultaneously laying off employees.The job market for young tech workers is deteriorating, with unemployment rates for those aged 20 to 30 rising sharply. Economists warn of a potential "jobless recovery" for white-collar roles, as AI continues to replace routine jobs. The share of tech jobs peaked in late 2022 but has since declined, leaving graduates questioning the reliability of traditional pathways into tech careers. This shift highlights the need for companies to reassess their hiring practices and adapt to the changing landscape influenced by AI.In a concerning development, researchers have identified vulnerabilities in Google's Gemini AI Assistant that could allow attackers to hijack smart devices through manipulated calendar invites. These vulnerabilities pose significant risks as AI becomes more integrated into everyday applications. Although Google has addressed these issues, the potential for exploitation raises alarms about the security of AI systems and the importance of implementing strict controls and user training to mitigate risks.The recent launch of GPT-5 by OpenAI has sparked disappointment among users, leading to a petition for a return to the previous model. Many users feel that GPT-5 does not offer substantial improvements over its predecessor, resulting in a significant drop in OpenAI's perceived leadership in AI. This disconnect between advanced AI tools available at home and outdated technology in the workplace is causing dissatisfaction among employees, prompting organizations to evaluate their AI policies and capabilities to retain talent and enhance productivity. Four things to know today 00:00 AI Boom Fuels Cloud Giants' Growth While Squeezing Entry-Level Tech Jobs06:33 Researchers Expose Gemini AI Flaw Allowing Smart Device Hijacking via Calendar Invites08:04 GPT-5 Backlash Highlights AI Leadership Slip and Workplace Adoption Crisis11:06 Intel CEO Goes from “Conflict Risk” to “Success” in Trump's Eyes Supported by: https://scalepad.com/dave/https://www.moovila.com/ Tell us about a newsletter https://bit.ly/biztechnewsletter All our Sponsors: https://businessof.tech/sponsors/ Do you want the show on your podcast app or the written versions of the stories? Subscribe to the Business of Tech: https://www.businessof.tech/subscribe/Looking for a link from the stories? The entire script of the show, with links to articles, are posted in each story on https://www.businessof.tech/ Support the show on Patreon: https://patreon.com/mspradio/ Want to be a guest on Business of Tech: Daily 10-Minute IT Services Insights? Send Dave Sobel a message on PodMatch, here: https://www.podmatch.com/hostdetailpreview/businessoftech Want our stuff? Cool Merch? Wear “Why Do We Care?” - Visit https://mspradio.myspreadshop.com Follow us on:LinkedIn: https://www.linkedin.com/company/28908079/YouTube: https://youtube.com/mspradio/Facebook: https://www.facebook.com/mspradionews/Instagram: https://www.instagram.com/mspradio/TikTok: https://www.tiktok.com/@businessoftechBluesky: https://bsky.app/profile/businessof.tech
In today's Cloud Wars Minute, I discuss Satya Nadella's bold Q4 claim that Microsoft is the #1 cloud provider, leaving rivals to fight for second place.Highlights00:12 — Microsoft laid out a very clear, unmistakable story in Q4 that it is the biggest and right now certainly the most powerful, most influential cloud provider. CEO Satya Nadella used the opportunity of these unprecedented financial results to spread the word that, “We're number one, and all of the other hyperscalers — Google, Oracle, and AWS — can fight for the number two spot.”01:06 — Q4 cloud revenue was up 27% to 46.7 billion. Full year cloud revenue was $168 billion, up 23%. One that really blows me away, its RPO for Q4 was $368 billion up 37%, so that is remaining performance,obligation, contracted business not yet recognized as revenue. Then for Azure, for the full year, $75 billion and a 39% growth rate in Q4. So pretty powerful stuff.02:04 — Nadella said, "We're the leaders in breadth of AI products and AI infrastructure." He said, "In our overall tech stack, nobody can touch us, and that's how we're able to deliver at this scale." He said, "We have more data centers than anybody else does," cutting against some claims that have been made by Oracle and others. "We are outperforming everybody else."03:16 — I thought it was interesting that, without identifying those specific companies, he referred to our competitors and that we're doing more than them. Now, I think this was a smart move by Nadella, right? Because we're not talking about some technical features — these are the technological foundations that business leaders will be betting the future of their companies on.03:55 — So, the hyperscalers with the best overall capabilities are going to be the ones that those business leaders tend to go with. I think it's a smart move by Nadella here to say, in my view, here's where we stand. We're out ahead of the others on all this. Now, I'm sure Google Cloud, Oracle, and AWS will have their own points of view on this, and I would encourage all of them to speak up.04:20 — I'm not talking about name-calling, but a very clear and well-articulated, reasoned, customer-oriented set of here's where I stand versus competitors here. I was glad to see this from Microsoft. I hope everybody does it, and later this morning on Cloud Wars, I'll have a detailed article offering the verbatim comments that Nadella made about these different subjects. Visit Cloud Wars for more.
nvestors keep score with growth rates, but this quarter you had to read the footnotes and the fine print. Microsoft put up eye-popping Azure growth again, but a big slice of that acceleration is AI inference — notably ChatGPT — now embedded in the revised Azure definition - great for headlines but not conducive to apples-to-apples comparisons. Meanwhile, AWS delivered the largest dollars and a very clear message that demand exceeds supply. Meaning growth is capped by power and components, not pipeline. That creates a weird optics penalty — AWS showing growth in the high teens growth on a $120B-plus run rate and it's a “concern.” But it also telegraphs future upside as capacity lands and depreciation cycles through. The stealth story is Google. Google Cloud posted a strong print with solid top-line growth and steadily improving operating margin — and GCP (the IaaS/PaaS core) is growing materially faster than Cloud overall - our estimate is nearly 40%. Backlog is building at more than $250M and $1B+ deals are real. As the mix shifts toward AI-heavy, infrastructure-centric workloads, it becomes a tailwind for Google, continues to lag the scale of AWS and Azure. Let's call it a disciplined scale strategy with less noise.The other common thread is a capex arms race that faces real constraints. All three players said the quiet part out loud — power, sites, servers, power and lead times will dictate who wins AI inference and who monetizes it. Microsoft is capacity-constrained, AWS says “several quarters” to rebalance, and Google raised capex again. This is not a one-quarter story; it's a multi-year land-and-power grab that will determine margin structures for the next cycle. Meanwhile, the Big three cloud players are on a pace to spend about $240B this year on CAPEX with AI revenue coming in at about 10% of that figure. We clearly have a big hurdle before that massive investment pays back.
In this episode of The Digital Executive podcast, Brian Thomas welcomes Fahd Rafi, founder of Noodle Seed, an AI startup transforming how modern organizations operate through intelligent automation. Drawing from a background leading AI and data strategy at Google Cloud and Microsoft, Fahd shares how his mission is to “automate the ordinary and enable the extraordinary” through a new paradigm: Agents-as-a-Service.Fahd explains how Noodle Seed builds agentic systems that go far beyond simple chatbots—by identifying business processes that should be automated, eliminated, or augmented with AI. He breaks down misconceptions around AI implementation, emphasizing the need for outcome-driven design over hype-driven deployment. Instead of charging by user seats or token usage, Fahd advocates for shared-value models where pricing aligns with business results.From eliminating repetitive tasks to empowering enterprise teams with intelligent agents, Fahd offers a compelling vision of the AI-powered future—where human creativity is prioritized, and machines take care of the rest.Like to be a future guest on the show? Apply Here
In today's Cloud Wars Minute, I break down reports of a potential $1.2 billion cloud deal between Google Cloud and ServiceNow, and what it means for the ever-intensifying battle among the cloud giants.Highlights00:04 — Google Cloud has just secured a massive cloud deal with ServiceNow worth an estimated $1.2 billion over five years. In its latest filing, ServiceNow states that it's entered into various non-cancellable agreements with cloud service providers, under which it is committed to spend an aggregate of approximately $4.8 billion through 2030 on cloud services.00:29 — However, neither Google Cloud nor ServiceNow would comment on the alleged $1.2 billion deal.00:55 —This deal, although many details are yet to emerge, serves as a great reminder of how crucial cloud infrastructure is to leading tech companies — both those providing cloud services and those that utilize them. Now, while AI has dominated the headlines in recent months — perhaps we're looking at years even — the demand for cloud infrastructure remains consistent. Visit Cloud Wars for more.
business history.Highlights00:14 — Now, any question about this greatest growth market the world has ever known was blown away last week, when Microsoft reported its fiscal Q4 earnings. And I think Microsoft's Q4 results have to be regarded as the greatest quarterly results of any company in any industry of all time.00:40 — Now, I cannot say that I have done a rigorous analysis of every quarterly report from every company in every industry there's ever been. But I will be wide open to hearing from anybody about anything that expands this. It could have grown even more, but customer demand is just swamping ability to build out data center capacity.01:38 — Microsoft Cloud used to be a nice, healthy portion of its business. It's now 61% of Microsoft's overall revenue. The total number for Microsoft's remaining performance obligation: $368 billion — a phenomenal, huge number. But it grew 37%, so you've got a combination here of scale with an incredible rate of growth here on this.03:31 — Azure in Q4, it grew 39%. If you look at the full year, Azure grew 34%. Now, revenue for Azure is over $75 billion. And the Q1 growth guidance for Azure is 37%. So again, even at these very large numbers, the growth rates are astonishing. Also looking ahead to Q1, which will end September 30, CFO Amy Hood said the CapEx is expected to be $30 billion.04:45 — We saw Google Cloud last week report very, very strong Q4. It's up 32% to $13.6 billion. Oracle's reporting just spectacular growth rates. RPO in its most recent quarter was 62%, and they're predicting 100% RPO for their fiscal year, which will end May 31 of next year. AWS numbers haven't come out yet, so I will get to them later next week. But hats off to Microsoft. Visit Cloud Wars for more.
Thomas Raymond looks at why AI is so important for the tech sector. He breaks down how Alphabet (GOOGL) is implementing AI across diverse business segments, including Waymo's self-driving cars and YouTube's algorithm, as well as increased Google Cloud revenue. Thomas argues GOOGL is still underappreciated: “This name should be richly valued…and is trading at a discount to the S&P 500.” He calls Nvidia (NVDA) the “metaphorical gas station” fueling the AI phenomenon and also believes it is undervalued.======== Schwab Network ========Empowering every investor and trader, every market day.Subscribe to the Market Minute newsletter - https://schwabnetwork.com/subscribeDownload the iOS app - https://apps.apple.com/us/app/schwab-network/id1460719185Download the Amazon Fire Tv App - https://www.amazon.com/TD-Ameritrade-Network/dp/B07KRD76C7Watch on Sling - https://watch.sling.com/1/asset/191928615bd8d47686f94682aefaa007/watchWatch on Vizio - https://www.vizio.com/en/watchfreeplus-exploreWatch on DistroTV - https://www.distro.tv/live/schwab-network/Follow us on X – https://twitter.com/schwabnetworkFollow us on Facebook – https://www.facebook.com/schwabnetworkFollow us on LinkedIn - https://www.linkedin.com/company/schwab-network/About Schwab Network - https://schwabnetwork.com/about
In this emergency solo episode I walk you through #ChatGate, the discovery that thousands of “shared” ChatGPT conversations are now fully searchable on Google. We de-mystify the site: operator, trace the unusual timeline that puts OpenAI, Google Cloud and Microsoft on a collision course, and explain why some marketers cheer while privacy advocates panic. Most importantly, you'll learn how to check whether your chats are exposed and what to do next. Key TakeawaysShared ChatGPT links are public if you tick “Enable search indexing.”A sitemap discovered in late 2024 helps Google crawl those pages automatically.OpenAI now pays Google for compute while Microsoft cools its spending — timing that looks suspicious.Marketers cheering the “SEO gold-mine” are ignoring the privacy fallout.Audit yourself (site:chatgpt.com/share "Your Name"), delete stray links, and think twice before sharing sensitive prompts.Enjoy the listen — and remember: what happens in ChatGPT doesn't necessarily stay in ChatGPT.Resources & Further ReadingGoogle Support – Advanced Search Operators (official guide to site:) https://support.google.com/websearch/answer/2466433?hl=enOpenAI Help Center – “Share your conversations” (checkbox controls indexing) https://help.openai.com/en/articles/7925741-chatgpt-shared-links-faqLinkedIn Post by Senthil Kumar – “OpenAI's /shared-convos-sitemap.xml SEO play” https://www.linkedin.com/pulse/unboxing-chatgpts-organic-traffic-deep-dive-openais-seo-hariram-jhtkcTechCrunch (31 July 2025) – “Your public ChatGPT queries are getting indexed by Google” https://techcrunch.com/2025/07/31/your-public-chatgpt-queries-are-getting-indexed-by-google-and-other-search-engines/Fast Company (30 July 2025) – “Google is indexing ChatGPT conversations—here's why it's a privacy nightmare” https://www.fastcompany.com/91376687/google-indexing-chatgpt-conversationsYahoo Finance (Dec 2024) – “Microsoft has invested nearly $14 billion in OpenAI but is pulling back” https://finance.yahoo.com/news/microsoft-invested-nearly-14-billion-000512844.htmlReuters (16 July 2025) – “OpenAI taps Google Cloud TPU chips to meet soaring demand” https://www.reuters.com/business/media-telecom/openai-lists-google-cloud-partner-amid-growing-demand-computing-capacity-2025-07-16/Juliana Jackson – Substack Essay “ChatGPT Indexed Conversations” https://julianajackson.substack.com/p/chatgpt-indexed-conversations---If you enjoyed the episode, please share it with a friend!No Hacks websiteYouTubeLinkedInInstagram
What happens after AI helps you write code faster? You create a bottleneck in testing, security, and operations. In part two of their conversation, SADA's Simon Margolis and Google Cloud's Ameer Abbas tackle this exact problem. They explore how Google's AI strategy extends beyond the developer's keyboard with Gemini Code Assist and Cloud Assist, creating a balanced and efficient software lifecycle from start to finish. We address the burning questions about AI's impact on the software development ecosystem: Is AI replacing developers? What does the future hold for aspiring software engineers? Gain insights on embracing AI as an augmentation tool, the concept of "intentional prompting" versus "vibe coding," and why skilled professionals are more crucial than ever in the enterprise. This episode offers practical advice for enterprises on adopting AI tools, measuring success through quantitative and qualitative metrics, and finding internal champions to drive adoption. We also peek into the near future, discussing the evolution towards AI agents capable of multi-step inferencing and full automation for specific use cases. Key Takeaways: Gemini Code Assist: AI for developer inner-loop productivity, supporting various IDEs and SCMs. Gemini Cloud Assist: AI for cloud operations, cost optimization, and incident resolution within GCP. AI's Role in Development: Augmentation, not replacement; the importance of human agency and prompting skills. Enterprise Adoption: Strategies for integrating AI tools, measuring ROI, and fostering a culture of innovation. The Future: Agents with multi-step inferencing, automation for routine tasks, and background AI processes. Relevant Links: Blog: A framework for adopting Gemini Code Assist and measuring its impact Gemini Code Assist product page Gemini Cloud Assist product page Listen now to understand how AI is shaping the future of software delivery! Join us for more content by liking, sharing, and subscribing!
Please enjoy this encore of Career Notes. Director of Google Cloud's Office of the CISO, MK Palmore, dedicated much of his life to public service and now brings his experience working for the greater good to the private sector. A graduate of the US Naval Academy, including the Naval Academy Prep School that he calls the most impactful educational experience of his life, MK commissioned into the US Marine Corps following his service academy time. He joined the FBI and that is where he came into the cybersecurity realm. MK is passionate about getting more diversity, equity and inclusion into industry. We thank MK for sharing his story with us. Learn more about your ad choices. Visit megaphone.fm/adchoices