Tout ce qu'il faut savoir dans le domaine de la Green Tech.

Elles sont perçues comme le Saint Graal de la voiture électrique. Les batteries à électrolyte solide promettent d'effacer les faiblesses des modèles actuels : plus d'autonomie, une sécurité accrue, une durée de vie prolongée. En remplaçant le liquide inflammable par un matériau solide, elles stockent davantage d'énergie sans risque d'incendie et supportent des milliers de cycles de charge. Sur le papier, c'est la révolution attendue de l'électromobilité. Mais dans les faits, le chemin reste semé d'embûches. Car ces batteries, si prometteuses soient-elles, posent encore un casse-tête technologique. Leurs matériaux à base de sulfures, rigides mais fragiles, se fissurent facilement. Ces microfractures bloquent la circulation des ions lithium et font chuter les performances. Leur fabrication, elle, exige une précision quasi chirurgicale, à des coûts prohibitifs. Quant aux composants chimiques nécessaires, ils restent rares et chers. Résultat : impossible, pour l'instant, d'envisager une production de masse.Mais voilà que la Chine, déjà en position dominante sur le marché mondial des batteries, revendique trois percées majeures qui pourraient rebattre les cartes. Selon Pékin, ces innovations permettraient à un pack de 100 kilos d'atteindre 1 000 kilomètres d'autonomie. Première avancée : l'Académie chinoise des sciences a conçu une « colle ionique » à base d'iode. Ces ions, en suivant le champ électrique, attirent le lithium et comblent les fissures microscopiques, améliorant la conductivité interne. Deuxième innovation : l'Institut de recherche sur les métaux a développé un électrolyte polymère ultraflexible, capable d'être plié 20 000 fois sans rupture, tout en augmentant la capacité de stockage de 86 %. Enfin, l'université Tsinghua a mis au point un polyéther fluoré formant une véritable armure autour de l'électrolyte, le protégeant de la chaleur et des chocs.Si ces prototypes passent le cap industriel, la Chine pourrait verrouiller l'avenir des batteries solides, laissant l'Occident à la traîne. Une bataille stratégique, à la croisée de la science, de l'énergie… et de la souveraineté technologique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Face à l'urgence climatique et à la précarité énergétique, une découverte venue d'Arabie saoudite pourrait bien marquer un tournant. Des chercheurs de l'Université des sciences et technologies du roi Abdallah (KAUST), dirigés par le professeur Peng Wang, ont mis au point une technologie révolutionnaire baptisée Nescod — pour No Electricity and Sustainable Cooling On Demand. Son principe : produire du froid sans la moindre électricité.Le secret réside dans une réaction chimique bien connue, la dissolution endothermique. Lorsqu'un sel, ici le nitrate d'ammonium, se dissout dans l'eau, il absorbe la chaleur ambiante, faisant chuter brutalement la température du liquide. Les chercheurs ont testé plusieurs sels avant d'arrêter leur choix sur celui-ci, dont la solubilité exceptionnelle confère un pouvoir réfrigérant quatre fois supérieur à ses concurrents. Accessible, peu coûteux et déjà utilisé dans les engrais, le nitrate d'ammonium présente aussi l'avantage d'être facile à stocker et à transporter, même dans les zones isolées.Les résultats expérimentaux sont bluffants : dans un simple récipient isolé, la température est passée de 25 à 3,6 °C en vingt minutes, avant de rester sous les 15 °C pendant plus de quinze heures. Une performance qui ouvre la voie à des usages variés : refroidir des habitations rurales, conserver des aliments, protéger des médicaments sensibles à la chaleur ou encore servir en cas de coupure d'électricité.Autre atout majeur : le système se régénère grâce au soleil. Une fois le sel dissous, l'eau s'évapore sous la chaleur solaire, reformant les cristaux de nitrate d'ammonium — prêts à être réutilisés. Le procédé crée ainsi un cycle autonome et durable, particulièrement adapté aux climats chauds et ensoleillés. Dans un monde où la climatisation consomme déjà près de 10 % de l'électricité mondiale et pourrait en mobiliser le double d'ici 2050, Nescod apparaît comme une solution d'avenir : simple, écologique et surtout accessible. Une innovation capable, peut-être, de refroidir la planète sans l'échauffer davantage. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Face à la montée inexorable des océans, l'humanité pourrait bien devoir réapprendre à vivre… sur l'eau. Selon le think tank australien Institute for Economics and Peace, plus d'un milliard de personnes risquent de perdre leur habitation d'ici la fin du siècle, englouties par la dilatation des mers et la fonte des glaces. En tout, ce sont 2 millions de kilomètres carrés – l'équivalent de trois fois la France – qui pourraient disparaître sous les flots. Pour y faire face, une idée autrefois utopique refait surface : les villes flottantes.L'une des plus spectaculaires s'appelle Lilypad. Imaginée par l'architecte belge Vincent Callebaut, cette cité amphibie est conçue pour abriter 50 000 habitants. Totalement autosuffisante, elle combine panneaux solaires, éoliennes et turbines hydrauliques sous-marines pour produire son énergie, tout en s'alimentant grâce à l'aquaculture et à des fermes flottantes. Lilypad serait capable de naviguer lentement sur les courants marins, de l'équateur vers les pôles, au rythme des saisons.Autre projet d'envergure : Oceanix City, soutenu par l'ONU-Habitat, le programme des Nations unies pour les établissements humains. Conçue par le cabinet d'architecture danois BIG, cette cité se compose de plateformes hexagonales modulaires de deux hectares chacune, accueillant des bâtiments de sept étages. Résistante aux ouragans de catégorie 5, autonome en énergie et capable de nourrir jusqu'à 10 000 habitants, Oceanix City incarne une vision très concrète du futur urbain. Le premier prototype est déjà en construction au large de Busan, en Corée du Sud.Ces projets, inspirés à la fois de Jules Verne et des expériences sous-marines de Jacques-Yves Cousteau et Jacques Rougerie, ne relèvent plus de la science-fiction. Alors que les sécheresses, les canicules et les pénuries d'eau rendent déjà certains territoires inhabitables, ces villes océaniques pourraient devenir bien plus qu'un refuge pour les réfugiés climatiques. Elles annoncent peut-être une nouvelle ère de l'urbanisme planétaire — où les cités du futur flotteront, littéralement, entre ciel et mer. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Aux États-Unis, la chasse aux dépenses publiques continue, et cette fois, c'est la science qui trinque. La Maison-Blanche a décidé de réduire drastiquement le budget de la NASA, en ciblant notamment un programme jugé pourtant essentiel : les Orbiting Carbon Observatories. Ces deux instruments, un satellite lancé en 2014 et un capteur installé sur la Station spatiale internationale depuis 2019, mesurent la concentration mondiale de CO₂, son absorption par les océans et les forêts, mais aussi l'activité végétale via la détection de la photosynthèse depuis l'espace.Problème : ces observatoires sont les seules missions spatiales américaines dédiées au dioxyde de carbone. En 2023, une évaluation interne de la NASA les qualifiait même de « scientifiquement cruciales » et de « qualité exceptionnelle ». Leurs données servent aussi bien aux chercheurs qu'au département de l'Agriculture ou aux entreprises énergétiques pour surveiller leurs émissions. Mais rien n'y fait. Selon plusieurs employés, l'administration Trump aurait donné l'ordre de préparer la “phase F”, autrement dit la fin de mission : désorbitation du satellite et arrêt complet de l'instrument embarqué sur l'ISS.Une décision qui fait bondir la communauté scientifique et politique. « Éliminer ces satellites serait catastrophique », s'indigne Zoe Lofgren, députée démocrate, qui dénonce « une vision anti-science illégale » contournant le budget voté par le Congrès. Car la disparition de ces missions briserait une continuité de données unique, accumulée depuis dix ans, cruciale pour suivre l'évolution du climat et affiner les modèles mondiaux. À la NASA, la colère gronde. Certains ingénieurs dénoncent une mise en péril des programmes d'observation de la Terre, d'autres craignent que ces coupes ne menacent à terme la sécurité même des astronautes. Et tous s'accordent sur un point : en sacrifiant la science climatique, les États-Unis risquent aussi de perdre leur leadership mondial dans l'espace. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si l'avenir de l'énergie solaire tenait dans une feuille d'or… ou presque ? Des chercheurs du Laboratoire international ibérique de nanotechnologie viennent de présenter une avancée prometteuse : des panneaux solaires ultrafins bien plus légers, moins coûteux à produire et bientôt adaptables à presque toutes les surfaces — véhicules, bâtiments, objets connectés. Problème jusqu'ici : leur rendement limité. Trop minces, ces cellules laissaient échapper une partie de la lumière, réduisant leur efficacité. L'équipe ibérique a trouvé la parade en déposant une fine couche d'or de 25 nanomètres sous la cellule photovoltaïque, formant un « miroir nanostructuré ». Ce dernier renvoie la lumière vers la cellule pour qu'elle soit absorbée une seconde fois. Résultat : une hausse du rendement de 1,5 point de pourcentage, selon l'étude publiée dans la revue Solar RRL.Concrètement, cette structure en forme de T, encapsulée dans de l'oxyde d'aluminium, assure une passivation de l'interface et réduit les pertes d'énergie à l'arrière. Et cerise sur le panneau : la méthode employée, la lithographie par nano-impression en une seule étape, est simple, rapide et peu coûteuse, contrairement aux procédés traditionnels utilisés en nanofabrication. Cette découverte pourrait marquer un tournant. En rendant les panneaux solaires plus fins, flexibles et abordables, les chercheurs ouvrent la voie à une production à grande échelle. Une technologie qui pourrait bien transformer n'importe quelle surface — du toit d'un bus au capot d'une voiture — en générateur d'électricité propre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Apple passe à la vitesse supérieure sur le front de la transition énergétique. Le géant californien a annoncé un plan d'investissement de plus de 600 millions de dollars, soit un peu plus de 500 millions d'euros, pour verdir la consommation électrique de ses utilisateurs européens. L'objectif : compenser d'ici 2030 l'intégralité de l'électricité utilisée pour charger les appareils Apple sur le Vieux Continent.Six pays sont concernés : l'Italie, l'Espagne, la Grèce, la Pologne, la Roumanie et la Lettonie. Dans chacun, la marque à la pomme finance des parcs solaires et éoliens géants, pour injecter à terme 3 000 gigawattheures d'énergie renouvelable par an dans les réseaux européens. Une manière concrète de réduire son empreinte carbone, tout en renforçant la production locale d'électricité propre. Les premiers résultats sont déjà visibles. En Grèce, une centrale solaire de 110 mégawatts, opérée par HELLENiQ Energy, tourne à plein régime. En Italie, plusieurs projets solaires et éoliens totalisant 129 MW sont en cours, dont le premier site sicilien démarre ce mois-ci. En Espagne, le parc solaire Castaño près de Ségovie, développé par ib vogt, produit déjà ses 131 MW depuis janvier.Dans l'Est du continent, Apple concentre ses efforts sur les régions les plus carbonées. En Pologne, une installation de 40 MW verra le jour fin 2025, tandis qu'en Roumanie, un parc éolien de 99 MW est en construction dans le comté de Galați. En Lettonie, European Energy édifie l'un des plus grands parcs solaires du pays, avec 110 MW de puissance. Au total, ces projets ajouteront 650 MW de capacités vertes au réseau européen. Apple explique que 29 % de ses émissions mondiales proviennent de l'usage même de ses produits : autrement dit, de chaque recharge d'iPhone ou de Mac. « D'ici 2030, nous voulons que nos utilisateurs sachent que l'énergie qu'ils consomment est intégralement compensée par de l'électricité propre », promet Lisa Jackson, vice-présidente en charge de l'environnement. Avec 19 gigawatts de renouvelable déjà produits dans le monde, Apple veut désormais s'attaquer aux régions les plus dépendantes du charbon. Un pari ambitieux, mais peut-être le plus cohérent de sa stratégie carbone : faire rimer high-tech et énergie propre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si la lutte contre le réchauffement climatique se jouait… depuis l'espace ? Grâce à son instrument Orbiting Carbon Observatory-3, ou OCO-3, installé à bord de la Station spatiale internationale, la Nasa peut désormais mesurer les émissions de dioxyde de carbone (CO₂) des grandes métropoles du globe avec une précision inédite. Le dioxyde de carbone, principal gaz à effet de serre, provient à 75 % des activités humaines, selon l'agence américaine. Et les grandes villes, véritables poumons économiques, sont aussi les plus gros émetteurs. La plupart se sont engagées à atteindre la neutralité carbone d'ici 2050, mais encore faut-il savoir précisément combien elles rejettent dans l'atmosphère. Or, les bilans réalisés au sol restent souvent approximatifs, voire biaisés.C'est là qu'intervient OCO-3. En utilisant un système de miroirs orientables, il mesure les concentrations de CO₂ lorsque la Station spatiale survole une zone urbaine donnée. Une équipe de chercheurs américains a ainsi pu observer 54 villes dans le monde et comparer les résultats spatiaux avec les estimations locales. Verdict : une marge d'erreur de seulement 7 %, ce qui confirme la fiabilité du dispositif. Mais les résultats réservent quelques surprises. Les mégalopoles asiatiques, souvent pointées du doigt, émettent en réalité moins que ce que les modèles terrestres prévoyaient. À l'inverse, l'Afrique, l'Océanie, l'Europe et les Amériques ont plutôt sous-évalué leurs émissions.Autre enseignement : la richesse d'une ville influe directement sur son empreinte carbone. Les métropoles les plus développées produisent davantage de richesse par kilo de CO₂ émis. Exemple : 0,1 kg de CO₂ par dollar de PIB pour les villes nord-américaines, contre 0,5 kg pour les villes africaines. Et plus surprenant encore : plus une ville est grande, moins ses habitants polluent individuellement. Dans les mégapoles de plus de 20 millions d'habitants, chaque citoyen émet en moyenne 1,8 tonne de CO₂ par an, contre 7,7 tonnes dans les villes plus petites. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le compte à rebours est lancé : le 1er novembre, le système des heures pleines - heures creuses, pilier du modèle énergétique français depuis les années 60, va entamer sa mue. Une réforme d'ampleur, pilotée par la Commission de régulation de l'énergie, qui vise à adapter nos habitudes de consommation à l'essor du solaire. Objectif : profiter des surplus d'électricité verte produits en journée, plutôt que la nuit.Historiquement, ce dispositif est né avec l'ère du tout-nucléaire. À l'époque, les centrales tournaient jour et nuit, produisant la même quantité d'électricité, qu'on en ait besoin ou non. Pour lisser la demande, l'État avait instauré huit heures à tarif réduit, la nuit. Résultat : on lançait sa machine à laver à 23h, on faisait chauffer l'eau pendant le sommeil, et tout le monde y gagnait. Mais depuis quelques années, le paysage énergétique a basculé. Les toitures photovoltaïques se sont multipliées, et le réseau déborde d'électricité en milieu de journée. Désormais, entre 11h et 16h, c'est le plein soleil… et le plein d'énergie. D'où la refonte : les heures creuses glissent peu à peu vers l'après-midi.Concrètement, 1,7 million de foyers verront leurs plages horaires modifiées d'ici juin 2026, puis 9,3 millions supplémentaires entre fin 2026 et 2027. Le principe reste huit heures à tarif réduit par jour, mais avec au moins cinq heures consécutives la nuit et jusqu'à trois heures entre 11h et 17h. Les périodes de forte demande – 7h-11h et 17h-23h – sortent définitivement du dispositif. Les compteurs Linky seront reprogrammés à distance, et les chauffe-eaux automatiques suivront le mouvement. Seule précaution : si vous rechargez une voiture électrique, vos plages nocturnes pourraient devenir trop courtes. Cette transition s'étalera jusqu'en 2027, avec un système saisonnier l'été et l'hiver. Une révolution silencieuse, mais symbolique : l'électricité française se met enfin à l'heure du soleil. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les chiffres sont sans appel. Selon l'Agence européenne pour l'environnement, plus de 60 % des espèces et 80 % des habitats naturels du continent sont déjà dégradés. L'eau devient plus rare, les sols s'appauvrissent, et le réchauffement climatique – deux fois plus rapide en Europe que dans le reste du monde – accentue cette vulnérabilité. En 2022, plus de 70 000 décès ont été liés aux vagues de chaleur, tandis que les inondations, de plus en plus fréquentes, menacent directement 12 % de la population européenne, ainsi que 15 % des sites industriels.Entre 1980 et 2023, les phénomènes météorologiques extrêmes ont coûté 738 milliards d'euros à l'économie européenne. Rien que sur les trois dernières années, 162 milliards se sont envolés en pertes, souvent non couvertes par les assurances. Pourtant, le continent n'est pas resté immobile. Depuis 1990, les émissions de CO₂ ont baissé de 37 %, et le Pacte vert vise désormais –55 % d'ici 2030. L'électricité se décarbone, les renouvelables progressent – elles comptent désormais pour un quart de la consommation –, et les émissions du secteur énergétique ont été divisées par deux. Mais le tableau n'est pas tout rose. Les transports et l'agriculture stagnent, avec des réductions d'émissions limitées à 6 et 7 %. Les mobilisations agricoles récentes ont même conduit Bruxelles à assouplir plusieurs mesures environnementales, pendant que les dirigeants évitent soigneusement de rallumer la colère des automobilistes.Surtout, la conjoncture politique détourne l'attention : guerre en Ukraine, tensions économiques, montée des extrêmes droites, autant de priorités qui relèguent le climat au second plan. Plusieurs piliers du Pacte vert sont déjà fragilisés – report de la loi contre la déforestation, recul sur la fin du moteur thermique en 2035, affaiblissement du devoir de vigilance des entreprises. À l'approche de la COP30, l'Union européenne n'a toujours pas fixé de cap clair pour 2040. Ursula von der Leyen assure vouloir “maintenir le cap”, mais l'AEE prévient : sans sursaut politique, la crise écologique deviendra aussi économique et sociale. La question, désormais, n'est plus de savoir si l'Europe paiera le prix de son inaction, mais quand. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est l'un des grands débats de notre époque : peut-on vraiment refroidir la Terre artificiellement sans tout bouleverser ? Une nouvelle étude de l'université de Californie, publiée dans la revue Earth's Future, apporte des éléments de réponse… et ils sont plutôt inquiétants.Deux techniques de géo-ingénierie solaire sont au cœur des discussions : l'injection d'aérosols stratosphériques – qui imite les effets d'une éruption volcanique en projetant du dioxyde de soufre dans l'atmosphère pour réfléchir la lumière du soleil – et l'éclaircissement des nuages marins, qui consiste à pulvériser du sel pour épaissir les nuages bas, augmentant ainsi leur pouvoir de réflexion. L'objectif ? Réduire la température moyenne de la planète en limitant la quantité de rayonnement solaire absorbée. Mais selon les chercheurs californiens, ces méthodes ne sont pas sans danger. En simulant sur ordinateur leur impact sur le climat mondial, ils ont découvert qu'elles pourraient perturber le cycle naturel El Niño – La Niña, l'un des régulateurs essentiels du climat global. Ce cycle, qui alterne entre des périodes d'eaux chaudes et froides dans le Pacifique, influence la météo sur toute la planète : pluies en Asie, sécheresses en Afrique, ouragans dans l'Atlantique…Les simulations montrent que l'éclaircissement des nuages au-dessus du Pacifique réduirait la variabilité naturelle du phénomène de 61 %. Autrement dit, la météo mondiale perdrait une partie de son équilibre naturel. En pratique, certaines régions deviendraient plus sèches et plus ventées, d'autres plus humides ou plus froides. Résultat : un système globalement déstabilisé, qui avantagerait certaines zones géographiques au détriment d'autres. Les chercheurs alertent également sur un autre effet collatéral : en bloquant une partie de la lumière du soleil, ces techniques réduiraient la photosynthèse, menaçant les forêts, les cultures et la vie marine. En résumé, si la géo-ingénierie promet un frein au réchauffement, elle pourrait aussi dérégler les cycles naturels qui font tourner la planète. Un rappel brutal que manipuler le climat… revient peut-être à jouer aux apprentis sorciers. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Bonne nouvelle, du moins en apparence : le leasing social automobile fait son grand retour à la fin du mois de septembre. Ce dispositif, réservé aux ménages modestes, permet de louer une voiture électrique à prix réduit. Et cette fois, une prime supplémentaire de 1 000 euros s'ajoute au bonus écologique, déjà compris entre 3 100 et 4 200 euros selon les revenus. De quoi séduire de nouveaux automobilistes… sauf qu'en coulisses, le mode de financement change radicalement.Jusqu'ici, ces aides étaient directement financées par l'État. Désormais, ce sont les fournisseurs d'énergie et de carburant qui mettront la main à la poche, via le mécanisme des certificats d'économie d'énergie, ou CEE. En clair : les distributeurs d'électricité, de gaz et de carburant doivent financer ces primes, et — vous l'aurez deviné — ils répercuteront ces coûts sur nos factures. Selon 60 Millions de consommateurs, cette bascule budgétaire n'est pas anodine. Les CEE, initialement créés pour pousser les entreprises à promouvoir les économies d'énergie, deviennent peu à peu le guichet universel du financement vert. Les primes des constructeurs automobiles, MaPrimeRénov', ou encore les « coups de pouce travaux » s'appuient désormais sur ce même dispositif. Le ministère du Logement l'a d'ailleurs confirmé : la part des CEE dans le financement des rénovations énergétiques va encore augmenter.Mais cette stratégie a un coût. En 2023, la Cour des comptes estimait que le système des certificats d'économie d'énergie coûtait déjà 164 euros par an et par ménage. Et ce n'est pas tout : ces dispositifs massifs attirent la fraude, que la Cour juge « considérable ». Résultat, l'efficacité énergétique promise s'en trouve affaiblie. En résumé, le leasing social redémarre, les aides continuent, mais le financement glisse discrètement de l'État vers le consommateur, via sa facture d'énergie. Un choix habile sur le papier pour équilibrer les comptes publics, mais qui risque bien de se ressentir, lui, à la pompe comme à la prise Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Depuis l'essor de l'IA générative, un spectre hante les débats : celui d'une crise énergétique provoquée par les chatbots et les modèles de langage. Certains titres évoquent même une consommation équivalente à des milliers de vols transatlantiques. Mais derrière ces comparaisons spectaculaires, la réalité apparaît bien plus nuancée.Le problème, c'est que la plupart des projections reposent sur des données brutes et souvent spéculatives. Les opérateurs électriques fondent leurs estimations sur les demandes de raccordement des futurs centres de données — or, ces demandes sont parfois gonflées par ce que les spécialistes appellent des projets fantômes. En clair : plusieurs dépôts pour un même site, ou des projets qui ne verront jamais le jour. Résultat, une demande théorique largement surestimée. Ajoutons à cela les contraintes bien concrètes du monde réel : manque de transformateurs, pénurie de semi-conducteurs, délais de construction qui s'étirent sur plusieurs années… Ces obstacles ralentissent naturellement le rythme auquel l'infrastructure de l'IA peut se déployer.Alors, faut-il vraiment craindre la panne générale ? Pas vraiment, selon les estimations de l'Agence Internationale de l'Énergie. Oui, la consommation des centres de données devrait doubler d'ici 2030, mais elle ne représentera qu'une fraction de la hausse globale de la demande électrique, également tirée par l'industrie et la mobilité électrique. Et tout n'est pas à charge pour l'IA : les progrès en efficacité énergétique se multiplient. Sur le plan logiciel, des technologies comme le Mixture of Experts (MoE), la quantisation ou la distillation, popularisée par DeepSeek, réduisent déjà la consommation des modèles. En France, Mistral AI s'est d'ailleurs imposée comme une référence en matière d'efficience.Le vrai défi réside désormais dans la densité énergétique des GPU, ces processeurs surpuissants qui font tourner les modèles. Pour y faire face, des géants comme Google et Microsoft investissent dans des énergies alternatives, y compris le nucléaire. Bref, l'IA fera grimper la facture énergétique, mais pas jusqu'à l'apocalypse annoncée. Le futur du numérique dépendra avant tout de notre capacité à planifier et optimiser intelligemment nos réseaux — pas seulement de produire toujours plus d'électricité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une annonce qui souffle un vent d'optimisme sur la transition énergétique française. Le mercredi 24 septembre, TotalEnergies a décroché le plus grand projet d'éolien offshore jamais attribué dans l'Hexagone. Le groupe a été désigné lauréat d'un appel d'offres historique lancé par l'État pour un parc en mer d'une capacité colossale de 1,5 gigawatt — l'équivalent d'un réacteur nucléaire moderne.Ce géant des mers prendra place au large de la Normandie, à plus de 40 kilomètres des côtes. Baptisé Centre Manche 2, le futur parc profitera de vents réguliers et puissants, idéaux pour une production continue d'électricité verte. À pleine puissance, il devrait générer 6 térawattheures par an, soit plus que la consommation annuelle de Lyon et Marseille réunies. En clair, plus d'un million de foyers français verront leurs ampoules et leurs radiateurs fonctionner grâce à ce seul projet. Le tarif négocié de 66 euros le mégawatt-heure place cette énergie renouvelable dans une zone de compétitivité directe avec les sources conventionnelles. Mais un chantier d'une telle ampleur prend du temps : les études techniques s'achèveront en 2029, pour une mise en service prévue en 2033, en coordination avec RTE, le gestionnaire du réseau électrique national.Avec 4,5 milliards d'euros d'investissement, TotalEnergies signe là son plus gros projet en France depuis trente ans. Le groupe, historiquement pétrolier, confirme ainsi sa mue vers les renouvelables. L'impact local s'annonce considérable : 2 500 emplois mobilisés pendant trois ans, dont une partie dédiée à la formation de la main-d'œuvre normande, grâce à 500 000 heures de formation promises aux apprentis et personnes en reconversion. Enfin, pour répondre aux enjeux écologiques, TotalEnergies consacre 60 millions d'euros à la protection de la biodiversité marine et aux compensations environnementales. Entre ambitions industrielles et responsabilité écologique, ce chantier marque une étape décisive : la France s'offre enfin un champion de l'éolien en mer capable de rivaliser avec les grands parcs du Nord de l'Europe. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si la solution à la surchauffe des data centers se trouvait… à l'intérieur même des puces ? C'est le pari audacieux de Microsoft, qui vient de dévoiler une technologie de refroidissement révolutionnaire : la microfluidique intégrée au silicium. Une innovation qui pourrait bien transformer la façon dont sont conçus les processeurs de demain.Le principe est aussi simple qu'ingénieux. Plutôt que de poser des plaques froides à la surface d'un GPU ou d'un CPU — la méthode actuelle —, Microsoft propose de faire circuler un liquide de refroidissement directement dans la puce, au plus près des zones de chaleur. Concrètement, de minuscules canaux sont gravés à l'arrière du silicium, à la manière des nervures d'une feuille. Ce réseau microfluidique guide le liquide exactement là où il faut, pour évacuer la chaleur trois fois plus efficacement que les systèmes actuels. Sur son blog, la firme explique : « Les dernières avancées en matière d'IA génèrent beaucoup plus de chaleur que les générations précédentes de puces. Nous avons testé avec succès un système capable d'éliminer la chaleur jusqu'à trois fois mieux que les plaques froides utilisées aujourd'hui. » Mais la prouesse ne s'arrête pas là. L'intelligence artificielle vient elle-même optimiser le dispositif : elle analyse en temps réel la signature thermique unique de chaque puce, et oriente le flux de liquide vers les points les plus chauds. Une technologie que Microsoft décrit comme « inspirée par la nature, personnalisée par l'IA ».L'enjeu est colossal. En améliorant le refroidissement, cette approche pourrait réduire la taille des serveurs, prolonger la durée de vie des composants et surtout diminuer la consommation énergétique des data centers, dont une large part est aujourd'hui dédiée à la climatisation. Microsoft affirme que sa solution peut faire chuter la température des puces de 65 % selon les charges de travail. Reste une question : quand cette technologie, aussi prometteuse que délicate à manipuler, sera-t-elle déployée à grande échelle ? Si elle tient ses promesses, c'est peut-être un nouveau standard du refroidissement qui vient de naître — au cœur même du silicium. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Autrefois, un rack de serveurs, c'était un simple meuble technique : quelques machines bien rangées, quelques kilowatts à fournir, et le tour était joué. Mais l'arrivée de l'intelligence artificielle a tout bouleversé. Aujourd'hui, les “racks IA” consomment vingt à trente fois plus d'énergie qu'un rack classique. Selon Lennox Data Centre Solutions, certains atteignent désormais jusqu'à un mégawatt par rack, soit l'équivalent d'une petite centrale électrique.Cette explosion de puissance change tout : la chaleur dégagée devient un enjeu central, tout comme la stabilité électrique. Les centres de données passent progressivement au courant continu haute tension (+/-400 volts) pour limiter les pertes et réduire la taille des câbles. Chaque watt compte, et chaque choix technique influe directement sur la performance. Comme l'explique Ted Pulfer, directeur chez Lennox, « le refroidissement, autrefois secondaire, est désormais au cœur du métier. Les charges de travail liées à l'IA imposent des approches inédites, comme le refroidissement liquide ».Concrètement, les data centers font circuler du liquide dans des plaques froides fixées aux composants les plus sollicités. Microsoft, de son côté, expérimente la microfluidique : de minuscules canaux gravés directement dans le dos des puces laissent passer le liquide au plus près du silicium. Résultat : une dissipation thermique jusqu'à trois fois plus efficace et une température réduite de 65 % sur les GPU selon la charge. L'IA elle-même vient prêter main forte en identifiant, en temps réel, les zones les plus chaudes pour adapter le flux de refroidissement. Cette course à la puissance crée aussi des opportunités pour les acteurs plus agiles, capables de proposer des solutions innovantes là où les géants peinent à suivre la demande. Alors oui, ces infrastructures avalent des mégawatts, mais pas de panique : malgré l'appétit grandissant de l'IA, on reste encore loin d'une crise énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si la fusion nucléaire devenait enfin une réalité industrielle ? C'est la promesse de First Light Fusion, une société britannique qui pourrait bien être la première à rendre cette énergie propre et quasi illimitée commercialement viable. Son concept, baptisé FLARE — pour Fusion via Low-power Assembly and Rapid Excitation —, repose sur une idée simple mais révolutionnaire : séparer la compression et l'allumage du combustible.Cette méthode pourrait atteindre un gain énergétique de 1 000, soit 250 fois le record actuel détenu par le National Ignition Facility américain, qui plafonne à 4. Le gain énergétique, c'est le rapport entre l'énergie produite et celle injectée. Autrement dit, si FLARE tient ses promesses, la fusion pourrait enfin produire de l'électricité à un coût inférieur aux centrales actuelles, et avec une efficacité sans précédent. Concrètement, le procédé de First Light consiste à comprimer le combustible de manière contrôlée, avant de déclencher son allumage par une impulsion rapide et précise. Cette approche requiert beaucoup moins d'énergie que les systèmes de fusion classiques et divise les coûts d'expérimentation par vingt. Là où le NIF américain a coûté 5,3 milliards de dollars, une installation FLARE pourrait être construite pour 100 à 200 millions.Pour le PDG Mark Thomas, « un gain de 1 000 % nous place bien au-delà du seuil où la fusion devient économiquement transformatrice ». Un constat partagé par Jeremy Chittenden, physicien à l'Imperial College de Londres, qui salue une approche fondée sur des technologies « éprouvées et économiquement crédibles ». Si tout se déroule comme prévu, la démonstration commerciale de FLARE pourrait voir le jour d'ici le milieu des années 2030. À terme, une seule installation serait capable d'alimenter une ville comme Coventry — environ 345 000 habitants — ou de fournir l'électricité nécessaire aux centres de données d'IA, gourmands en énergie. Avec ce projet, le Royaume-Uni espère bien se placer à la pointe mondiale d'une course évaluée à 1 000 milliards de dollars par an d'ici 2050. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Si l'avenir de la mobilité passe par la voiture électrique, encore faut-il pouvoir la recharger facilement. En France, on se félicite d'un réseau qui atteint désormais 2,5 millions de bornes, publiques et privées confondues. Mais à plus de 9 000 kilomètres de là, la Californie vient de placer la barre bien plus haut.D'après les derniers chiffres de la California Energy Commission, l'État doré compte 201 180 bornes publiques ou partagées. Oui, vous avez bien entendu : 68 % de plus que le nombre de pompes à essence. Et ce n'est que la partie visible de l'iceberg, puisque près de 800 000 chargeurs résidentiels sont également installés dans les foyers californiens. Résultat : selon le gouverneur Gavin Newsom, 94 % des habitants vivent à moins de dix minutes d'une borne de recharge. Un record mondial qui illustre l'avance prise par la Californie, pionnière dans l'adoption du véhicule électrique. Il faut dire que la région concentre à la fois les constructeurs, les start-up et les politiques environnementales les plus ambitieuses des États-Unis.Mais pas question pour les autorités locales de s'arrêter en si bon chemin. « Notre objectif est de faire du véhicule électrique un choix évident pour tous les Californiens », explique Nancy Skinner, commissaire à la CEC. « Ces voitures sont agréables à conduire, ne nécessitent pas de vidange, ne polluent pas et leur recharge devient de plus en plus simple grâce aux infrastructures publiques. » En clair, la Californie n'a pas seulement construit un réseau : elle a créé un écosystème complet qui rend la voiture électrique aussi pratique que le plein d'essence. Un modèle que beaucoup de pays — la France comprise — pourraient bien regarder de près dans les années à venir. Parce que l'avenir de la route, là-bas, se branche déjà sur secteur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Alors que les géants de la tech construisent à la chaîne des data centers toujours plus voraces, une startup américaine, Vaire Computing, vient peut-être de changer la donne. Son processeur expérimental baptisé « Ice River » a prouvé qu'il était possible… de recycler une partie de l'énergie utilisée pour calculer.Pour comprendre l'exploit, il faut d'abord rappeler le principe : dans une puce classique, chaque opération est un choc, comme un coup de marteau. À chaque calcul, un transistor commute et dissipe son énergie sous forme de chaleur — perdue à jamais. Ice River, lui, adopte le principe du pendule : l'énergie oscille et revient partiellement dans le cycle suivant. Résultat : près de 30 % de l'énergie récupérée lors des tests. Pour y parvenir, les ingénieurs de Vaire Computing ont combiné deux techniques rarement exploitées dans le silicium moderne. D'abord le calcul adiabatique, qui ajuste la tension progressivement pour éviter les pertes d'énergie brutales. Ensuite la logique réversible, un concept presque philosophique : « dé-calculer » une opération pour revenir à l'état initial, sans effacer l'information, donc sans gaspillage.Une approche prometteuse, mais encore lente. Ce type de calcul repose sur des variations de tension douces — idéales pour l'efficacité énergétique, moins pour la vitesse. Dans un secteur obsédé par la performance brute, la lenteur reste le talon d'Achille. Et si la démonstration a été menée sur une technologie de gravure éprouvée, en 22 nanomètres, il faudra encore des années pour l'intégrer à grande échelle dans les infrastructures d'IA. Mais l'idée fait son chemin. À l'heure où les serveurs d'intelligence artificielle consomment autant qu'un petit pays, Ice River montre que la sobriété peut venir du cœur même du silicium. Elle s'inscrit dans une tendance plus large, où des fondeurs comme TSMC utilisent déjà l'IA pour optimiser leurs propres circuits.En clair, cette innovation ne sauvera pas à elle seule la planète — mais elle rappelle qu'il existe encore de la marge de progrès. Et qu'entre la surchauffe énergétique et la quête de puissance infinie, la prochaine révolution pourrait bien être… un simple retour d'énergie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Rendre visible ce que nos poumons subissent chaque jour… C'est l'ambition de la carte interactive de Climate TRACE. L'outil, déjà connu pour localiser les sites industriels les plus polluants, franchit une étape décisive : il montre désormais les panaches de particules fines – les fameux PM2,5 – que ces installations rejettent dans l'air que nous respirons.La plateforme ne couvre pas tout : seules apparaissent les centrales électriques, l'industrie lourde, les ports, les raffineries et les mines. Mais cela représente tout de même 9 560 sites répartis dans 2 572 zones urbaines. Gavin McCormick, cofondateur de Climate TRACE et directeur exécutif de l'ONG WattTime, confie avoir découvert qu'il vivait lui-même dans le panache d'un super-émetteur dont il ignorait l'existence. Et il n'est pas seul : selon les concepteurs, plus d'1,6 milliard de citadins sont exposés à un air contaminé par ces rejets.Derrière la carte, le message est clair : la pollution atmosphérique et la crise climatique ont la même racine, la combustion des énergies fossiles. « Les particules générées par ces installations retombent sur les quartiers voisins et provoquent 8,7 millions de morts chaque année », rappelle Al Gore, cofondateur du projet et ancien vice-président des États-Unis. L'analyse identifie aussi les « super-émetteurs », ces 10 % d'installations qui produisent la majorité des particules fines. Plus de 900 millions de personnes respirent un air directement contaminé par ces géants pollueurs.La carte révèle enfin les dix zones urbaines les plus exposées : Karachi arrive en tête, suivie de Guangzhou, Séoul, New York, Dhaka, Le Caire, Shanghai, Bangkok, Shenzhen et Tokyo. Autant de mégapoles où des millions d'habitants vivent au quotidien dans des nuages invisibles mais mortels. Pour illustrer ces données, les chercheurs citent « l'Allée du Cancer » en Louisiane. Dans ce couloir industriel, le taux de cancers atteint jusqu'à 50 fois la moyenne nationale. Si la région était un pays, elle figurerait parmi les pires émetteurs mondiaux de gaz à effet de serre. « Beaucoup savaient déjà qu'ils vivaient dans l'ombre des grands pollueurs », résume Gavin McCormick. Aujourd'hui, les preuves sont là, visibles par tous. Reste désormais à agir, insiste Al Gore, pour que ces nuages invisibles cessent d'étouffer les villes du monde. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le réchauffement climatique révèle un danger que l'on n'avait pas vu venir. Derrière la fonte spectaculaire des glaciers, ce ne sont pas seulement des paysages qui disparaissent, mais aussi des substances toxiques qui se libèrent dans notre environnement. Une équipe de l'université de Milan et de la Fondation One Ocean a analysé seize glaciers italiens. Le constat est alarmant : en fondant, ces géants de glace relâchent dans l'air, les sols et les cours d'eau des polluants et des métaux lourds accumulés depuis des décennies. L'étude, publiée dans la revue Archives of Environmental Contamination and Toxicology et relayée par La Repubblica, tire une sonnette d'alarme sanitaire.Dans les échantillons, les chercheurs ont identifié des polluants organiques persistants comme des insecticides, des fongicides ou encore des isolants électriques. À cela s'ajoutent des métaux lourds tels que le plomb et le cadmium, mais aussi certaines substances naturelles qui, en forte concentration, deviennent problématiques. Tous ces polluants sont issus de nos propres activités humaines, piégés dans la glace pendant des décennies et aujourd'hui libérés par la fonte accélérée.Les conséquences pourraient être considérables. Ces substances contaminent les sols, les cultures et finissent par rejoindre nos mers. « Ce qui se passe au sommet des montagnes a des répercussions directes sur les écosystèmes des vallées et des mers », rappelle Jan Pachner, secrétaire général de la Fondation One Ocean. Certains glaciers inquiètent particulièrement les scientifiques. L'Ebenferner, par exemple, présente déjà des niveaux très élevés de métaux toxiques. « Cette approche nous permet de comprendre comment les contaminants sont transportés, accumulés et relâchés dans les écosystèmes », souligne Marco Paolini, auteur principal de l'étude. Face à cette menace invisible, les chercheurs appellent à développer rapidement des solutions : traitements pour dépolluer l'eau, systèmes de filtrage en amont et stratégies pour limiter la dispersion des substances toxiques. Car au-delà de la fonte des glaces, c'est un héritage chimique enfoui depuis des décennies qui refait surface et menace directement notre santé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le dimanche 31 août à Tour-de-Faure, dans le Lot, le calme du Parc naturel des Causses du Quercy a laissé place aux slogans des manifestants. En ligne de mire : le projet de TotalEnergies, qui prévoit d'installer près de 44 000 panneaux photovoltaïques sur 19 hectares de forêts et de prairies semi-ouvertes. Des milliers d'arbres devraient être abattus pour faire place au chantier.Pour les opposants, le paradoxe est criant : au nom de l'énergie verte, on sacrifie des espaces naturels riches en biodiversité. Ici vivent mammifères, oiseaux, reptiles et insectes protégés, comme le capricorne du chêne ou le lucane cerf-volant. « Il y a déjà assez d'espaces artificialisés pour installer des panneaux solaires et couvrir nos besoins énergétiques », rappelle Sébastien Garreta, président de l'association Lot Célé, au micro de FranceInfo. L'Ademe, l'Agence de la transition écologique, partage ce constat. Elle recommande d'installer les panneaux sur des toitures, parkings ou zones déjà artificialisées, afin de limiter les impacts sur les sols et la faune. D'autant que les études scientifiques abondent dans ce sens : selon l'université de Yale, construire dans des espaces naturels peut dégrader la biodiversité sans réel gain pour le climat.Du côté des élus, le premier adjoint Jean-Louis Eyrolles défend le projet, affirmant qu'il permettra d'alimenter en électricité le développement touristique local. TotalEnergies promet de compenser en replantant des essences locales dans un rayon de 30 kilomètres. Mais pour les écologistes, l'équation n'est pas si simple. La montagne de Lure, en Provence, a déjà vu un projet solaire annulé pour atteintes environnementales. Depuis le permis de construire signé en janvier 2023, associations et riverains mènent la bataille judiciaire. La Cour administrative d'appel de Toulouse a validé le projet, estimant que le site n'avait pas d'intérêt biologique « remarquable ». Mais la mobilisation reste vive, et tous attendent désormais le verdict de la Cour de cassation sur l'autorisation de défrichement. Entre transition énergétique et protection de la nature, le Lot illustre un dilemme bien français : comment produire une électricité propre… sans sacrifier les forêts qui nous protègent déjà. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Recycler, c'est transformer un déchet en ressource. Mais des chercheurs de l'université de Copenhague ont décidé d'aller plus loin : utiliser le plastique non seulement pour limiter la pollution, mais aussi pour lutter contre le réchauffement climatique. Leur découverte, publiée dans Science Advances, ouvre une piste inattendue.Le plastique en question, c'est le PET, omniprésent dans nos vies : bouteilles, emballages alimentaires, cartes bancaires, voire prothèses médicales. Problème, il finit trop souvent en décharge, où il se décompose en microplastiques qui polluent sols, rivières et atmosphère. Les chimistes danois, eux, ont mis au point une technique utilisant l'éthylènediamine, une molécule déjà connue pour capter le dioxyde de carbone. Résultat : le PET est décomposé en un nouveau matériau, baptisé BAETA, qui se révèle au moins aussi efficace que les technologies actuelles pour piéger le CO₂.Concrètement, quand les fumées industrielles passent par un filtre rempli de BAETA, le CO₂ est capturé. Une fois le matériau saturé, un simple chauffage suffit pour libérer le gaz, qui peut alors être concentré, stocké ou réutilisé. L'efficacité du BAETA est ainsi régénérée, et le cycle peut recommencer. Atout supplémentaire : cette technologie ne concurrence pas le recyclage classique. Elle s'appuie sur le PET le plus difficile à traiter, comme les plastiques colorés, mélangés ou dégradés… y compris ceux qui flottent dans les océans. Le procédé présente deux autres avantages majeurs. D'abord, il fonctionne à température ambiante, là où d'autres matériaux de captage du CO₂ nécessitent des conditions beaucoup plus énergivores. Ensuite, il reste performant sur une large plage de températures, de l'air ambiant jusqu'à 150 °C, ce qui permet de l'installer directement en sortie d'usine.Les chercheurs assurent que leur technologie peut passer à l'échelle industrielle. Reste à convaincre des investisseurs. Car au-delà de l'innovation scientifique, c'est une opportunité économique : transformer un déchet encombrant en ressource stratégique pour dépolluer l'air et les océans. « Les problèmes environnementaux ne sont pas isolés, et les solutions ne doivent pas l'être non plus », résume Jiwoong Lee, professeur de chimie à Copenhague. Le plastique, ennemi de la planète, pourrait bien devenir un allié contre le changement climatique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si demain, réparer une batterie de voiture électrique devenait aussi simple que changer une pile dans une télécommande ? C'est l'ambition du partenariat entre le Commissariat à l'énergie atomique et aux énergies alternatives, le CEA, et le constructeur taïwanais ProLogium. Ensemble, ils ont présenté un concept baptisé « Design-for-Disassembly » — autrement dit, une batterie conçue dès le départ pour être démontée et réparée.L'idée est simple : au lieu de jeter un module entier dès qu'une cellule tombe en panne, il suffira de retirer la pièce défectueuse, comme on démonte un Lego, et de la remplacer. Un gain économique évident, mais aussi écologique, quand on sait à quel point le recyclage complet d'une batterie reste lourd et coûteux.ProLogium n'est pas un nouveau venu. Fondée en 2006, l'entreprise a déjà livré plus d'un demi-million de cellules depuis son usine de Taïwan. Sa spécialité : la technologie céramique au lithium. Plus sûre, plus stable, elle élimine les risques d'incendie et garantit des performances solides, du désert aux grands froids scandinaves. Autre atout, ses batteries dites « superfluidifiées » se rechargent rapidement, même par basses températures. Le prototype sera présenté au salon automobile de Munich, du 9 au 11 septembre. Il montrera comment chaque cellule peut être retirée individuellement, sans soudure ni colle définitive. Les mécaniciens pourront diagnostiquer, remplacer et remettre en route un pack en un temps record. Pour les automobilistes, cela pourrait signifier des coûts de maintenance divisés et une durée de vie allongée.Mais l'enjeu dépasse l'automobile. Aujourd'hui, recycler une batterie classique revient à la broyer intégralement, avec une récupération imparfaite des métaux. Ici, les cellules étant accessibles une par une, lithium, cobalt et autres matériaux critiques pourraient être récupérés plus facilement, et en meilleur état. Un atout stratégique pour l'Europe, qui reste très dépendante des importations d'Asie et d'Afrique. Et ProLogium voit grand : l'entreprise prépare déjà sa première usine européenne, à Dunkerque. Les travaux démarreront en 2026, avec une production prévue en 2028 et une montée en puissance jusqu'à 4 gigawattheures l'année suivante. De quoi équiper des dizaines de milliers de véhicules électriques avec des batteries non seulement performantes, mais aussi réparables et recyclables. Un pas décisif vers une mobilité plus durable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À partir du 1er octobre 2025, les data centers français de plus d'un mégawatt vont devoir composer avec de nouvelles règles. La loi DDADUE, adoptée le 30 avril dernier, transpose une directive européenne de septembre 2023 et impose un virage réglementaire centré sur l'efficacité énergétique et la récupération de chaleur.Concrètement, les opérateurs devront désormais valoriser la chaleur fatale dégagée par le refroidissement des serveurs. L'idée est simple : transformer cette énergie perdue en ressource utile, par exemple pour alimenter des réseaux de chauffage urbain. Autre obligation, toute création ou modification importante d'un site dépassant 1 MW devra faire l'objet d'une analyse coûts-avantages, visant à évaluer la faisabilité économique d'améliorations énergétiques dans l'approvisionnement en chaud et en froid. L'exploitant sera directement responsable de cette démarche. Et gare aux récalcitrants : en cas de manquement, l'administration pourra adresser une mise en demeure, puis prononcer des amendes pouvant atteindre 50 000 euros. Un décret d'application, encore en préparation, viendra préciser les modalités pratiques de ce dispositif.Ces nouvelles règles viennent s'ajouter à un cadre déjà dense. Les data centers ne disposent pas de catégorie spécifique dans la réglementation ICPE — les installations classées pour la protection de l'environnement —, mais les équipements associés, comme les groupes électrogènes ou les systèmes de refroidissement, déclenchent souvent des obligations environnementales. À cela s'ajoutent des contraintes liées à la localisation : une installation peut nécessiter une évaluation environnementale, voire se heurter aux règles sur le défrichement, Natura 2000 ou la protection des espèces. Pour Christophe Remy, expert HSE chez Tennaxia, le paradoxe est clair : alors que l'Union européenne semble ralentir sur certaines exigences environnementales, la France durcit le ton avec de nouvelles obligations. Mais, souligne-t-il, « c'est bien sur le terrain que la protection de l'environnement se joue, et les obligations HSE sont un excellent moyen pour progresser ». Les data centers, infrastructures vitales à l'économie numérique, se retrouvent donc face à un défi inédit : allier performance et sobriété énergétique, dans un contexte où la consommation électrique de ces géants du cloud ne cesse de croître. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une première mondiale qui vient de tomber. Le 5 septembre, le géant chinois CATL a annoncé que sa nouvelle batterie sodium-ion, baptisée Naxtra, venait de décrocher la certification nationale GB 38031-2025. Une norme de sécurité cruciale pour les batteries de traction destinées aux véhicules électriques, et qui n'entrera en vigueur qu'en juillet 2026. Autrement dit, CATL prend de l'avance.Les tests ont été menés par le Centre chinois de technologie et de recherche automobiles. Au programme : résistance aux chocs, diffusion thermique, cycles de charge rapide. Verdict : la Naxtra a coché toutes les cases. Selon le constructeur, elle conserve 90 % de sa capacité même à –40 °C, atteint une densité énergétique de 175 Wh/kg, offre une autonomie de 500 kilomètres et dépasse les 10 000 cycles de charge. De quoi rivaliser avec les batteries lithium-fer-phosphate, référence actuelle du marché.CATL ne compte pas en rester là. La production de masse doit débuter en décembre 2025, avec un premier déploiement sur les modèles dits Choco-swap. Particularité de ces véhicules : leurs batteries ne se rechargent pas, elles s'échangent. Un concept déjà soutenu par le réseau Chocolate, qui aligne aujourd'hui 512 stations réparties dans 34 villes chinoises. L'objectif est d'en compter 1 000 d'ici fin 2025, pour accompagner la montée en puissance de la Naxtra. Cette certification est un signal fort. Elle valide non seulement la sécurité mais aussi la fiabilité d'une technologie sodium-ion encore en quête de reconnaissance face au lithium. Or les atouts sont nombreux : des coûts plus faibles, une meilleure tolérance au froid et une abondance de matières premières, là où le lithium dépend de chaînes d'approvisionnement plus fragiles.Pour CATL, leader mondial des batteries, cette annonce marque un tournant stratégique. L'entreprise montre qu'elle peut industrialiser à grande échelle une alternative crédible au lithium, tout en s'assurant que l'écosystème — ici, les stations d'échange — progresse au même rythme. À l'heure où les constructeurs cherchent à diversifier leurs approvisionnements, la Naxtra pourrait bien être la première à prouver que le sodium-ion n'est pas seulement une promesse de laboratoire, mais une solution industrielle prête à électriser le marché. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À Addis-Abeba, capitale de l'Éthiopie, ils sont nombreux à avoir tenté un pari risqué cette année : acheter une voiture électrique. Dans un pays où les coupures de courant sont fréquentes et où les véhicules électriques restent une rareté, l'idée pouvait sembler hasardeuse. Mais pour la plupart des possesseurs de voiture électrique, quatre mois après l'achat, ils assurent ne rien regretter. Fini les interminables files d'attente aux stations-service. L'Éthiopie est devenue le premier pays au monde à interdire l'importation de véhicules thermiques. Résultat, environ 115 000 voitures électriques circulent désormais sur ses routes.Le gouvernement pousse cette transition avec des exonérations fiscales et mise sur son gigantesque barrage de la Renaissance pour fournir une énergie verte et bon marché. Mais la réalité quotidienne reste contrastée. Lema Wakgari, exportateur de café, conduit une BYD chinoise. Il apprécie son confort mais pointe le manque criant de bornes de recharge : « Même à Addis, elles restent trop rares. Hors de la capitale, il n'y a aucun véhicule électrique. » La marque BYD domine le marché, suivie de quelques modèles occidentaux. Et l'argument économique est décisif : un chauffeur de taxi explique être passé de 20 000 birrs par mois en essence à moins de 3 000 birrs en électricité. Pourtant, le réseau national peine à suivre. Seuls 20 % des ménages ont accès à l'électricité quasiment en continu, et à peine un tiers de la population est raccordée. Les coupures perturbent la vie quotidienne et l'activité des usines. Mais face aux pénuries chroniques de carburant, l'électrique reste jugé plus pratique en ville.Derrière ce virage, il y a surtout une stratégie économique. L'Éthiopie dépense chaque année près de 4,5 milliards de dollars pour importer du carburant. Le barrage de la Renaissance, inauguré après 14 ans de travaux, double presque la production nationale avec ses 5 150 mégawatts. Objectif : rendre la recharge plus fiable et réduire la facture énergétique. Le gouvernement veut aussi développer une filière locale de véhicules électriques pour créer des emplois. Les prix, eux, restent élevés : environ 2,2 millions de birrs pour une BYD, dans un pays où le salaire moyen reste très bas. L'État ambitionne 2 300 stations de recharge, mais Addis n'en compte qu'une centaine. Et pour les poids lourds reliant Djibouti à la capitale, aucune alternative électrique pour l'instant. Malgré ces défis, l'Éthiopie avance à contre-courant. Preuve que la transition électrique peut progresser, même dans un pays où l'électricité elle-même reste un luxe.--Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les intelligences artificielles progressent à une vitesse fulgurante. Cet été, c'est Grok-4, signé par la société xAI, qui a fait parler de lui. Performances impressionnantes, capacités élargies… mais aussi un prix de développement vertigineux. Car derrière chaque prouesse d'IA, il y a une facture énergétique et financière qui donne le tournis.Selon les données recueillies par le média Epoch AI, l'entraînement de Grok-4 aurait coûté près de 490 millions de dollars. Une somme colossale, mais à l'image de ce que nécessite aujourd'hui la course à l'IA générative. On connaissait déjà les investissements massifs dans les data centers qui fleurissent un peu partout dans le monde ; il faut désormais ajouter le coût astronomique de l'entraînement des modèles. Et ce n'est pas qu'une question d'argent. Les ressources mobilisées sont, elles aussi, hors norme. L'entraînement de Grok-4 aurait englouti environ 310 millions de kWh. Pour donner un ordre de grandeur, c'est l'équivalent de plus d'un tiers de la consommation annuelle d'une petite ville de 10 000 habitants. À cela s'ajoute un autre chiffre qui interpelle : 750 millions de litres d'eau utilisés, soit l'équivalent de 300 piscines olympiques. Une ressource précieuse, mobilisée en quantité massive pour refroidir les infrastructures.L'impact carbone n'est pas en reste. L'opération aurait généré près de 140 000 tonnes de CO₂, un volume qui questionne alors que l'industrie technologique multiplie les promesses de neutralité carbone. Il faut toutefois préciser que ces chiffres restent des estimations. Epoch AI s'appuie sur des déclarations publiques de xAI, parfois floues, et sur des calculs basés sur le nombre d'heures GPU mobilisées pour l'entraînement. Mais, même avec une marge d'incertitude, les ordres de grandeur parlent d'eux-mêmes.Ces données posent une question de fond : jusqu'où ira la course à l'IA ? Si chaque génération devient plus performante, elle devient aussi plus coûteuse, financièrement comme écologiquement. Derrière l'enthousiasme, une réalité s'impose : l'intelligence artificielle n'est pas immatérielle. Elle repose sur des infrastructures gigantesques, très gourmandes en énergie et en ressources naturelles. Et c'est peut-être là son vrai défi pour l'avenir.--Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Transformer un problème en opportunité : voilà l'idée derrière une nouvelle piste explorée par des scientifiques américains. Leur objectif ? Recycler les déchets nucléaires pour produire du tritium, un isotope rare de l'hydrogène, indispensable au fonctionnement des futurs réacteurs à fusion. La fusion nucléaire, souvent présentée comme le Graal énergétique, repose sur la fusion de deux atomes légers – deutérium et tritium – pour libérer une quantité colossale d'énergie. Propre et sans émission de carbone, elle pourrait un jour révolutionner la production d'électricité. Mais un obstacle majeur subsiste : le tritium est extrêmement rare. Aujourd'hui, son prix atteint 33 millions de dollars le kilo, et les États-Unis ne disposent d'aucune capacité nationale pour en produire. Dans le même temps, le pays croule sous des milliers de tonnes de déchets radioactifs issus de ses centrales. Ces résidus, coûteux à stocker et dangereux à long terme, pourraient bien devenir une ressource stratégique. Des chercheurs du Laboratoire national de Los Alamos planchent sur un procédé utilisant un accélérateur de particules pour provoquer des réactions dans ces déchets et en extraire du tritium.Le rendement estimé est prometteur : un système alimenté par 1 gigawatt d'énergie pourrait générer jusqu'à 2 kilos de tritium par an. C'est plus de dix fois ce que produirait un réacteur à fusion de puissance équivalente, selon les calculs relayés par Interesting Engineering. Reste à déterminer la faisabilité économique et technique. Les équipes doivent affiner les simulations, mesurer les coûts et surtout garantir la sûreté du procédé. Car si l'idée séduit par son élégance – transformer un passif encombrant en carburant d'avenir –, elle devra démontrer qu'elle peut être appliquée à grande échelle sans créer de nouveaux risques.Comme le rappelle le physicien Terence Tarnowsky, « les transitions énergétiques sont coûteuses, et chaque fois qu'on peut les simplifier, il faut essayer ». Si cette piste aboutit, elle pourrait non seulement réduire le fardeau du stockage nucléaire, mais aussi accélérer l'arrivée de la fusion comme solution énergétique propre et durable. Une équation séduisante : moins de déchets, plus d'énergie propre, et peut-être, une étape décisive vers le futur énergétique que l'on attend tous. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est peut-être un tournant dans la quête d'une énergie solaire vraiment neutre en carbone. Des chercheurs de l'université de Bâle viennent de mettre au point une molécule capable de reproduire, en partie, le mécanisme de la photosynthèse. Leur création transforme la lumière du soleil en énergie chimique, sans émission de CO₂, une avancée publiée dans la revue Nature.Jusqu'ici, imiter la photosynthèse naturelle était un casse-tête scientifique. Les réactions photochimiques nécessaires impliquent des transferts multi-électroniques complexes, difficiles à obtenir avec des systèmes moléculaires traditionnels. L'équipe dirigée par le professeur Oliver Wenger affirme avoir franchi ce cap en concevant une molécule dotée d'une architecture inédite : cinq unités reliées, dont deux « donneurs », un capteur de lumière et deux « accepteurs ». Résultat : quand elle est éclairée, la molécule peut accumuler quatre charges électriques – deux positives et deux négatives – de manière réversible. Le processus se déroule en deux étapes. Un premier flash lumineux génère une charge positive et une charge négative. Un second éclair répète l'opération, doublant le résultat. La molécule se retrouve ainsi avec deux charges positives et deux négatives, prêtes à être utilisées dans d'autres réactions chimiques. L'un des grands atouts de cette découverte réside dans sa capacité à fonctionner avec une lumière faible, proche de l'intensité solaire réelle. Là où la plupart des expériences de photosynthèse artificielle exigent des lampes extrêmement puissantes, cette approche progressive permet d'utiliser la lumière telle qu'elle est disponible au quotidien. « Nous nous rapprochons déjà de l'intensité de la lumière solaire », souligne Mathis Brändlin, co-auteur de l'étude. Autre avantage : les charges restent stables assez longtemps pour être exploitées dans des réactions ultérieures.Pour Oliver Wenger, cette avancée représente « une pièce importante du puzzle » vers une véritable photosynthèse artificielle. L'objectif à long terme : produire des carburants propres et neutres en carbone à partir de la seule énergie solaire. Un horizon qui, si la recherche se confirme, pourrait changer la donne dans la lutte contre le réchauffement climatique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le Japon vient de franchir une étape symbolique dans la course aux énergies renouvelables. Le 5 août dernier, la ville de Fukuoka, au sud-ouest de l'archipel, a inauguré la toute première centrale osmotique du pays. C'est seulement la deuxième installation de ce type au monde, après celle ouverte au Danemark en 2023. Cette centrale devrait produire près de 880 000 kilowattheures par an, assez pour alimenter environ 220 foyers japonais, mais surtout pour faire tourner une usine de dessalement qui fournit en eau douce la ville et les communes voisines, selon le site Interesting Engineering.L'énergie osmotique, ou « énergie bleue », repose sur un principe simple : exploiter la différence de salinité entre l'eau douce d'un fleuve et l'eau salée de la mer. Une membrane semi-perméable sépare ces deux masses d'eau. L'eau douce migre naturellement vers l'eau salée, créant une surpression capable d'actionner une turbine et de produire de l'électricité. Contrairement au solaire ou à l'éolien, cette ressource fonctionne en continu, de jour comme de nuit, et ne dépend pas de la météo. « Une source d'énergie renouvelable de nouvelle génération, sans CO₂ et disponible 24 heures sur 24 », vante l'Agence des eaux de Fukuoka.Mais transformer ce potentiel en réalité industrielle reste un défi. Le rendement global de l'osmose est souvent limité par des pertes d'énergie liées au pompage ou au frottement dans les membranes. « Bien que l'eau salée libère de l'énergie en se mélangeant à l'eau douce, une grande partie est perdue avant d'arriver à la turbine », rappelle Sandra Kentish, professeure à l'Université de Melbourne, dans les colonnes du Guardian.Pour contourner ces obstacles, la centrale japonaise mise sur une astuce : utiliser la saumure issue du dessalement, beaucoup plus concentrée en sel que l'eau de mer classique. Ce gradient accentué augmente l'efficacité du système et améliore la quantité d'énergie produite. Pour l'heure, Fukuoka reste un projet pilote, mais il suscite déjà des espoirs. Des chercheurs australiens envisagent de tester la même approche sur leurs lacs salés, avec l'idée que cette « électricité bleue » pourrait, demain, compléter le bouquet des énergies propres. Une technologie encore balbutiante, mais qui illustre bien l'inventivité déployée pour réduire la dépendance mondiale aux énergies fossiles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une molécule à double visage : l'ozone. Trois atomes d'oxygène qui, selon leur emplacement, sauvent ou compliquent la vie sur Terre. En haute altitude, dans la stratosphère, il agit en super-héros, bouclier vital contre les rayons ultraviolets. Mais au ras du sol, il se transforme en polluant, irritant les poumons et saturant nos villes. Et voilà qu'une étude vient ajouter une nuance : son rôle climatique pourrait être plus lourd qu'imaginé.Souvenez-vous : en 2023, la communauté scientifique se félicitait de la lente guérison de la couche d'ozone, grâce au fameux Protocole de Montréal de 1989. L'interdiction des CFC, ces gaz utilisés dans les réfrigérateurs ou les bombes aérosols, avait permis au bouclier stratosphérique de cicatriser. Bonus inattendu, cela limitait aussi des gaz à effet de serre puissants. Mais les chercheurs révèlent aujourd'hui que la médaille a son revers. Selon des travaux publiés dans la revue Atmospheric Chemistry and Physics, l'ozone devrait piéger, entre 2015 et 2050, l'équivalent de 0,27 watt par mètre carré de chaleur supplémentaire. Cela ferait de lui le deuxième contributeur au réchauffement futur, juste derrière le dioxyde de carbone et loin devant le méthane. Autrement dit, même en réparant la couche d'ozone, nous ne sommes pas tirés d'affaire.Faut-il alors baisser les bras ? Absolument pas, insiste le professeur Bill Collins, de l'université de Reading : continuer à protéger la couche d'ozone reste vital pour prévenir les cancers de la peau. En revanche, il plaide pour adapter les politiques climatiques : réduire davantage nos émissions de CO₂ et de méthane pour compenser cet effet secondaire. Car une chose est sûre : même si nous limitons la pollution au sol, la stratosphère, elle, continuera à se regarnir pendant des décennies. Aujourd'hui, 90 % de l'ozone de la planète se concentre dans ces hautes couches, les 10 % restants stagnent plus bas, là où ils nous étouffent. En somme, l'ozone confirme son statut de molécule paradoxale : bouclier indispensable et acteur discret du réchauffement. https://acp.copernicus.org/articles/25/9031/2025/ Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si les vagues devenaient des centrales électriques ? C'est le pari d'Eco Wave Power, une start-up israélienne qui teste actuellement en Californie une technologie aussi simple qu'astucieuse. Imaginez une jetée couverte de flotteurs qui montent et descendent au rythme des vagues, comme des touches de piano. Reliés à des pistons hydrauliques, ils compriment un fluide biodégradable, stocké dans des accumulateurs ressemblant à de grosses bouteilles de plongée. La pression libérée actionne ensuite une turbine, et produit de l'électricité. Un projet pilote, encore modeste, mais qui pourrait changer d'échelle : recouvrir la jetée de 13 kilomètres du port de Los Angeles avec des centaines de flotteurs permettrait, selon la cofondatrice Inna Braverman, d'alimenter près de 60 000 foyers. De quoi séduire une Californie où la demande énergétique explose, portée notamment par l'essor de l'intelligence artificielle.L'idée n'est pas neuve : exploiter l'énergie des vagues, colossale et quasi continue, fait rêver depuis des décennies. Sur le papier, les seules vagues de la côte Ouest américaine pourraient couvrir un tiers de la production d'électricité du pays. Mais dans la pratique, l'histoire de l'énergie houlomotrice est jalonnée d'échecs. Installés en pleine mer, les dispositifs finissent souvent brisés par les tempêtes, ou deviennent impossibles à rentabiliser à cause des frais de maintenance. C'est là qu'Eco Wave Power joue sa carte maîtresse : un système fixé directement aux infrastructures portuaires. Quand la mer se déchaîne, les flotteurs se rétractent automatiquement, évitant les dégâts. Une simplicité qui séduit même des experts sceptiques. “Placer le dispositif au bord du rivage, accessible à pied pour la maintenance, a beaucoup de sens”, estime le professeur Krish Thiagarajan Sharman de l'Université du Massachusetts.Reste une limite : toutes les villes côtières ne disposent pas d'une jetée aussi longue que Los Angeles. Pour certains, la technologie restera donc cantonnée à des usages de niche, comme l'alimentation d'îles isolées. Mais Eco Wave Power voit plus grand : Israël alimente déjà 100 foyers grâce à ses flotteurs, le Portugal et Taïwan suivront bientôt. L'entreprise rêve de projets capables de rivaliser avec l'éolien, tout en affirmant un impact nul sur l'écosystème marin. La promesse est ambitieuse : transformer un éternel “serpent de mer” en une énergie d'avenir. Et cette fois, les vagues pourraient bien faire bouger les lignes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le marché automobile américain vit un grand écart. D'un côté, les voitures thermiques, essence ou diesel, qui battent des records de longévité. De l'autre, les véhicules électriques, plus modernes mais renouvelés à un rythme effréné. Une dualité qui interroge sur l'avenir de la mobilité, et sur ses impacts écologiques.Selon les dernières données de S&P Global, une voiture thermique reste en moyenne 13,6 ans entre les mains de son propriétaire. Cette fidélité s'explique en partie par la crise économique de 2008 : les Américains ont appris à garder leurs véhicules plus longtemps. La robustesse des moteurs, leur fiabilité éprouvée et des coûts d'achat toujours plus élevés renforcent cette tendance. Beaucoup de foyers équipés d'une voiture électrique conservent d'ailleurs une thermique “au cas où”, notamment pour les longs trajets. Résultat : le parc thermique vieillit, porté par une forme de prudence économique qui prolonge la durée de vie des véhicules.Côté électrique, le contraste est saisissant : la durée moyenne de possession n'est que de 3,6 ans. Non pas parce que ces voitures sont moins fiables, mais parce que le marché évolue à une vitesse folle. Chaque année, de nouveaux modèles, plus performants et innovants, incitent les consommateurs à changer. Les acheteurs, souvent plus aisés, sont sensibles à cette logique de nouveauté, qui rappelle le cycle des smartphones. Tesla et consorts alimentent cette course permanente aux dernières innovations. Mais ce renouvellement rapide soulève une question de fond : que vaut un véhicule “zéro émission” si son cycle de vie reste si court ?Cette différence traduit deux rapports distincts à l'automobile. La thermique est vécue comme un bien durable, la voiture électrique comme un produit technologique en perpétuelle mise à jour. Entre 2013 et 2022, 6,6 % des voitures électriques ont déjà quitté la circulation, contre 5,2 % pour les thermiques. Un écart modeste, mais révélateur d'un marché encore instable. Avec le temps, les véhicules électriques devraient gagner en maturité et rallonger leurs cycles de possession. En attendant, le marché automobile reste le théâtre d'une étrange cohabitation : tradition et fiabilité face à modernité et renouvellement accéléré. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Ils appellent à un effort mondial. Une équipe de chercheurs du Global Systems Institute de l'université d'Exeter propose une nouvelle méthode pour identifier ce qu'ils appellent des “points de bascule positifs” – ces seuils à partir desquels un petit changement peut enclencher une transformation profonde, et souvent irréversible, mais cette fois au bénéfice du climat. Le professeur Tim Lenton rappelle un constat préoccupant : “L'économie mondiale se décarbone au moins cinq fois trop lentement pour respecter l'Accord de Paris et contenir le réchauffement bien en dessous de 2 °C.” Or, au lieu de subir uniquement les points de bascule négatifs – comme la fonte du permafrost ou l'effondrement des calottes glaciaires –, il est possible d'activer des dynamiques inverses, capables d'accélérer la transition.Publiée dans la revue Sustainability Science, leur étude propose un cadre structuré pour repérer ces points de bascule bénéfiques, évaluer leur proximité et identifier les déclencheurs à activer. Pour ce faire, les chercheurs s'appuient sur l'histoire – des systèmes ayant déjà basculé par le passé – mais aussi sur l'analyse des comportements et des technologies existantes. Un exemple frappant : la voiture électrique. Plus les gens en achètent, plus les performances s'améliorent, plus les prix baissent, plus les infrastructures se développent. Un cercle vertueux qui attire de nouveaux utilisateurs et accélère la bascule. Le même phénomène pourrait bientôt concerner les pompes à chaleur, particulièrement au Royaume-Uni, selon le Dr Steve Smith.Autre levier majeur : la consommation de viande. Avec des politiques publiques adaptées, une offre végétarienne plus variée et une influence sociale croissante, un changement d'habitudes alimentaires pourrait enclencher un point de bascule aux effets massifs sur le climat… mais aussi sur la santé. Attention toutefois : certains secteurs comme le nucléaire ou la production de béton n'offrent pas, à court terme, ce type de dynamique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Elles illuminent parfois le ciel d'aurores spectaculaires… mais elles représentent aussi une menace invisible pour nos satellites. Les tempêtes solaires, ou géomagnétiques, sont déclenchées par d'immenses éjections de particules chargées en provenance du Soleil. Lorsqu'elles frappent la haute atmosphère terrestre, elles modifient sa densité, perturbant vitesse, altitude et durée de vie des engins en orbite.Mais avec le réchauffement climatique, un nouveau facteur s'invite dans l'équation. Contrairement à la basse atmosphère, qui se réchauffe sous l'effet du dioxyde de carbone, la haute atmosphère se refroidit. Cela entraîne une diminution progressive de sa densité. Alors, une question se pose : les tempêtes solaires pourraient-elles devenir plus destructrices pour les satellites dans les décennies à venir ?C'est ce qu'ont étudié des chercheurs du Centre national de recherche atmosphérique (NCAR) aux États-Unis, en collaboration avec l'université de Kyushu au Japon. Leur modèle s'est appuyé sur la super-tempête des 10 et 11 mai 2024, provoquée par d'énormes éjections de masse coronale. Les scientifiques ont simulé cette même tempête à différents moments : en 2016, puis en 2040, 2061 et enfin en 2084. Le tout grâce à un supercalculateur capable de reproduire l'atmosphère terrestre jusqu'à 700 kilomètres d'altitude.Résultat : d'ici la fin du siècle, la haute atmosphère pourrait être 20 à 50 % moins dense au pic d'une tempête solaire, en raison de l'augmentation du CO₂. Et ce n'est pas une bonne nouvelle. Car si l'air y devient plus rare, les variations provoquées par une tempête seront proportionnellement plus violentes. Là où une tempête double aujourd'hui la densité au maximum de son intensité, elle pourrait presque la tripler dans le futur. Concrètement, cela signifie davantage de contraintes pour les satellites, mais aussi pour les débris spatiaux qui menacent déjà la sécurité en orbite. Les auteurs appellent à de nouvelles recherches, afin de mieux anticiper ces évolutions de la météo spatiale et leurs effets sur nos infrastructures. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La roue de potier, la machine à vapeur… depuis des siècles, le même mécanisme revient : le volant d'inertie. Ce disque lourd, qui résiste aux variations de mouvement, revient aujourd'hui sur le devant de la scène – non plus pour animer des machines, mais pour stabiliser nos réseaux électriques. Pourquoi ? Parce que le solaire et l'éolien, aussi verts soient-ils, produisent une énergie irrégulière. Une ombre sur un panneau, une rafale de vent qui cesse, et le réseau vacille. Jusqu'ici, les centrales au charbon ou au gaz, avec leurs énormes générateurs en rotation, assuraient cette stabilité. Mais dans un système électrique dominé par les renouvelables, l'équilibre devient bien plus fragile.L'Espagne en a fait l'amère expérience en avril dernier : une mégapanne due à une incapacité à réguler la tension du réseau. Même scénario en 2019 au Royaume-Uni, où une chute de fréquence a plongé une partie du pays dans le noir. Outre-Manche, l'opérateur Neso a donc lancé un programme présenté comme unique au monde : intégrer des volants d'inertie au cœur du réseau. Ces disques d'acier stockent et restituent de l'énergie en un clin d'œil, lissant les fluctuations mieux que des batteries lithium-ion, plus coûteuses et dépendantes de matériaux rares.À Liverpool, sur l'ancien site d'une centrale à charbon, deux volants géants de 40 tonnes fournissent déjà 1 % de l'inertie nécessaire au réseau britannique. Et tout cela sans brûler le moindre combustible fossile. Une première qui en dit long sur le potentiel de cette technologie. Le Royaume-Uni vise 95 % d'électricité renouvelable d'ici 2030, 100 % en 2035. Mais comme le rappelle Guy Nicholson de Statkraft, « aujourd'hui, nous n'y parvenons même pas pendant une heure » : il faut encore garder des turbines à gaz en veille pour la stabilité. Si la Chine et les États-Unis ont déjà déployé les plus gros systèmes, l'Europe reste timide. Mais après la panne espagnole, beaucoup estiment que d'autres pays finiront par suivre le mouvement. Car le vieux volant d'inertie pourrait bien être l'allié discret de la transition énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Vous l'avez sûrement déjà ressenti : en passant à côté d'une voiture noire garée en plein soleil, une véritable bouffée de chaleur vous enveloppe. Eh bien, ce n'est pas une illusion. Une équipe de chercheurs de l'université de Lisbonne, menée par Márcia Matias, vient de le démontrer dans une étude publiée dans City and Environment Interactions.Pendant plus de cinq heures, deux voitures – l'une noire, l'autre blanche – ont été observées sous un soleil estival et une température ambiante de 36 °C. Résultat : la voiture noire faisait grimper la température de l'air environnant jusqu'à 3,8 degrés de plus que l'asphalte voisin. À l'inverse, la voiture blanche avait un impact bien moindre. L'explication est simple : les couleurs n'absorbent pas la lumière de la même façon. Le blanc réfléchit jusqu'à 85 % de l'énergie solaire, quand le noir n'en renvoie que 10 % au maximum. Or, la carrosserie métallique d'une voiture chauffe beaucoup plus vite que le bitume, transformant chaque véhicule sombre en véritable radiateur urbain.Imaginez maintenant des milliers de voitures garées dans une grande ville. Chacune peut devenir soit une source de chaleur supplémentaire, soit un petit bouclier thermique. Selon Márcia Matias, repeindre les véhicules en clair pourrait réduire significativement la chaleur ressentie lors des journées étouffantes. À Lisbonne, par exemple, une telle stratégie permettrait de doubler la réflectivité des rues, en passant de 20 % à près de 40 %. Des villes comme Miami, Baltimore ou Barcelone installent déjà des capteurs pour comprendre comment la chaleur se répartit dans leurs rues. Les écarts entre deux quartiers voisins peuvent atteindre trois degrés. Ces différences, loin d'être anecdotiques, influencent directement la qualité de vie et les stratégies d'adaptation au réchauffement. Jusqu'ici, les recherches s'étaient concentrées sur la couleur des toits et des trottoirs. Cette fois, ce sont les voitures qui entrent en jeu. Les chercheurs suggèrent de cibler en priorité les flottes publiques, les taxis et les utilitaires de livraison. Une piste simple, peu coûteuse et écologique pour aider nos villes à respirer… à condition, bien sûr, de changer de couleur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Symbole de la guerre moderne, le drone s'impose comme un outil incontournable sur les champs de bataille. En Ukraine, il a permis de compenser en partie l'asymétrie militaire face à la Russie. Mais Moscou innove à son tour : ses forces expérimentent désormais des drones équipés de panneaux solaires, une adaptation qui pourrait changer la donne.Une vidéo récente montre ces engins modifiés avec de petits panneaux solaires de camping, coûtant une cinquantaine d'euros. L'idée est simple mais redoutable : l'énergie solaire, même limitée, suffit à alimenter capteurs et transmissions vidéo, sans puiser dans la batterie principale. Résultat : ces drones peuvent rester en embuscade plus longtemps, surveiller discrètement une zone et préparer une attaque au moment opportun. Techniquement, les panneaux ajoutent seulement 200 à 300 grammes pour une puissance d'environ dix watts. Pas assez pour recharger complètement l'appareil, mais suffisant pour maintenir les systèmes de surveillance actifs. Cette approche de « bricolage militaire » illustre parfaitement la capacité d'une armée à détourner des technologies civiles bon marché pour un usage stratégique.Les implications sont considérables. Des drones capables de patienter des heures, voire des jours, deviennent l'équivalent aérien des mines terrestres : des menaces invisibles, difficiles à neutraliser, pouvant surgir à tout moment. Les armées devront désormais intégrer ce paramètre dans leurs stratégies défensives. Cette innovation soulève aussi des questions plus larges. Si de simples panneaux de camping permettent déjà de prolonger une mission, que se passera-t-il lorsque des technologies solaires plus performantes seront intégrées directement à la conception des drones ? On pourrait voir émerger une nouvelle génération d'engins quasi autonomes, réduisant la dépendance aux bases de contrôle et aux opérateurs humains. Mais avec cette autonomie croissante viennent aussi des enjeux éthiques. Jusqu'où laisserons-nous les machines surveiller, décider, voire frapper sans contrôle humain direct ? Une chose est sûre : l'expérimentation russe montre que la course à l'armement technologique, déjà bien lancée, vient de franchir une nouvelle étape. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Elles traînent dans nos tiroirs depuis les années 60 : les piles alcalines jetables. Pratiques, certes, mais désastreuses pour l'environnement. Et si leur règne touchait à sa fin ? Une entreprise française, au nom digne d'un roman fantastique – Dracula Technologies – veut changer la donne avec une innovation qui pourrait bouleverser notre rapport à l'énergie du quotidien.Le pari de la société drômoise repose sur les modules photovoltaïques organiques, appelés OPV. Ces petites surfaces souples captent la lumière ambiante pour la transformer en électricité. Contrairement aux panneaux solaires traditionnels, pas de métaux rares ni toxiques ici : les OPV sont fabriqués à partir de matériaux organiques, recyclables et non nocifs. Une technologie qui fonctionne même sous faible luminosité et qui affiche une durée de vie de plus de dix ans. Dix années de recherche ont été nécessaires pour aboutir à ce résultat. Aujourd'hui, Dracula Technologies dispose de la plus grande usine de production de modules OPV en Europe, la Green MicroPower Factory, capable de produire 150 millions de centimètres carrés par an. Une prouesse industrielle qui place la France à l'avant-garde de cette transition énergétique.Ces modules trouvent déjà des applications très concrètes : capteurs connectés, domotique, étiquettes électroniques… autant d'objets qui, jusque-là, dépendaient de piles à usage unique. Avec les OPV, plus besoin de maintenance régulière ni de remplacements fastidieux. Résultat : des économies, moins de déchets, et une empreinte carbone réduite. Pour son PDG, Brice Cruchon, le message est clair : « Nos modules sont recyclables et durables, ils offrent une alternative écologique et économique aux piles jetables. » Alors, est-ce la fin annoncée de la pile alcaline ? Peut-être pas du jour au lendemain, mais cette technologie française ouvre une perspective enthousiasmante : celle d'un monde où nos objets connectés fonctionneraient durablement, sans que chaque clic, chaque capteur, ne laisse derrière lui une montagne de déchets toxiques. Une petite révolution verte… qui démarre chez nous. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une bonne nouvelle pour les Parisiens : la qualité de l'air s'est nettement améliorée au cours de la dernière décennie. Selon une étude d'AirParif, les concentrations de polluants ont chuté de 40 % en dix ans. Résultat : en 2024, la capitale n'a franchi aucun seuil réglementaire de pollution. Une première saluée par Dan Lert, adjoint à la maire en charge du climat, de l'eau et de l'énergie, qui parle d'une « amélioration sans précédent ».Entre 2012 et 2022, les chiffres sont clairs : le dioxyde d'azote, principalement issu du trafic automobile, a reculé de 40 %, et les particules fines de 28 %. Même les émissions de CO₂ dues aux voitures ont diminué de 35 %. De quoi nourrir un certain optimisme… mais pas au point de baisser la garde. Car la pollution de l'air reste la première cause de mortalité et de maladies chroniques dans la capitale. L'Observatoire régional de santé Île-de-France estime que plus d'un décès sur dix à Paris est lié aux particules fines, et plus de 5 % au dioxyde d'azote.La mairie de Paris n'entend donc pas relâcher ses efforts. Elle a même saisi la justice en juin dernier pour contester le futur plan de protection de l'atmosphère d'Île-de-France, qui doit couvrir la période 2025-2030. En cause : un dispositif jugé trop faible face à l'urgence sanitaire. Dan Lert dénonce un plan « obsolète », notamment parce qu'il repose en grande partie sur la mise en place de zones à faibles émissions, les fameuses ZFE, dont la suppression a été votée à l'Assemblée nationale. Pour l'Hôtel de Ville, l'abandon de cette mesure-clé compromet l'atteinte des objectifs fixés pour 2030. Autrement dit, si Paris respire mieux aujourd'hui, la bataille contre la pollution est loin d'être gagnée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À Dubaï, la marche à pied pourrait bientôt devenir… une expérience climatisée. La métropole des Émirats arabes unis vient d'annoncer un projet spectaculaire : le « Dubaï Walk », un gigantesque réseau de voies piétonnes couvertes et réfrigérées. Objectif : permettre aux habitants comme aux touristes de circuler à pied, même en plein été, sous un soleil qui fait grimper le thermomètre bien au-delà des 40 degrés.Le projet donne le vertige. On parle de 6 500 kilomètres de parcours climatisés, dont 4 200 kilomètres de voies nouvelles et 2 300 kilomètres réhabilités. Ces artères piétonnes relieront les sites emblématiques de la ville, du Burj Khalifa au Musée du Futur, en passant par des zones d'affaires comme le World Trade Center. Et pour fluidifier encore les déplacements, pas moins de 110 ponts et passages souterrains viendront compléter l'ensemble. La pièce maîtresse, c'est sans doute le « Future Loop » : une passerelle futuriste de 2 kilomètres, entièrement climatisée, qui reliera les Emirates Towers au centre d'exposition. Large de 6 à 15 mètres, elle sera ouverte non seulement aux piétons mais aussi aux modes de transport doux. Une première étape vers ce que Dubaï imagine comme un réseau de rues climatisées du futur.Mais derrière le confort affiché, l'ambition est aussi écologique. La ville veut doubler la part des déplacements à pied, passant de 13 % aujourd'hui à 25 % d'ici 2040. Moins de voitures, donc moins d'émissions de carbone, même si l'idée de refroidir des kilomètres de trottoirs dans un désert soulève quelques interrogations sur la consommation énergétique. Ce projet s'inscrit dans une stratégie plus large, qui comprend déjà le « Loop », un parcours de 93 kilomètres dédié aux piétons et cyclistes. Une manière pour Dubaï de se positionner comme un laboratoire de la mobilité urbaine durable… et une vitrine mondiale de son audace architecturale. Les premiers tronçons devraient voir le jour entre 2025 et 2027, avec une livraison finale prévue en 2040. Un chantier pharaonique qui confirme, une fois de plus, l'appétit de Dubaï pour les projets hors normes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Aux États-Unis, l'énergie nucléaire pourrait bientôt gagner en efficacité grâce… à l'intelligence artificielle. Le laboratoire national d'Oak Ridge, dans le Tennessee, s'est associé à l'entreprise Atomic Canyon pour accélérer un processus souvent critiqué : l'octroi de licences pour les centrales nucléaires.Ce secteur est placé sous la stricte surveillance de la Commission de régulation nucléaire, la NRC. Chaque réacteur doit obtenir son feu vert à l'issue d'un examen long, minutieux, et surtout très lourd en paperasse. L'idée d'Oak Ridge et d'Atomic Canyon est claire : utiliser la puissance de calcul du superordinateur Frontier, le plus rapide du monde, pour automatiser une grande partie des tâches administratives. Objectif : réduire les délais, limiter les coûts, et répondre aux ambitions énergétiques des États-Unis, sans transiger sur la sécurité.Pour cela, Atomic Canyon a mis au point des modèles d'IA baptisés FERMI. Leur rôle : plonger dans des montagnes de documents techniques et réglementaires, et en extraire les informations pertinentes. Un travail qui, effectué par des humains, peut prendre des mois. L'entraînement de ces modèles a nécessité une base de données colossale de 53 millions de pages, digérées grâce au calcul exascale de Frontier. Résultat : un moteur de recherche intelligent, taillé sur mesure pour l'industrie nucléaire. Tom Evans, chercheur à Oak Ridge, souligne que cette collaboration n'a rien d'un gadget. Avec la demande croissante en énergie stable, il s'agit d'un levier pour intégrer plus rapidement de nouveaux réacteurs au réseau électrique.Mais attention, rappelle Trey Lauderdale, PDG d'Atomic Canyon : « L'IA n'est pas là pour piloter une centrale. Elle doit rendre les données compréhensibles et utilisables ». En d'autres termes, l'IA sera l'assistante, pas l'opératrice. Le nucléaire représente aujourd'hui 20 % de l'électricité américaine. Dans un contexte de retour en grâce de cette énergie bas-carbone, cette expérimentation pourrait devenir un modèle pour d'autres industries engluées dans leurs procédures. Si l'IA réussit à débureaucratiser le nucléaire, c'est tout un pan de l'économie réglementée qui pourrait en être transformé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.