Tout ce qu'il faut savoir dans le domaine de la Green Tech.

En deux décennies, la Chine a reboisé à une vitesse et à une échelle inédites. Résultat : le paysage a changé… et avec lui, le cycle de l'eau. C'est la conclusion d'une étude publiée dans la revue Earth's Future par une équipe de six chercheurs chinois et d'un scientifique néerlandais.Entre 2001 et 2020, ces gigantesques programmes de plantation, destinés à lutter contre la désertification et le changement climatique, ont eu un effet inattendu : une redistribution des ressources en eau. Dans l'est agricole et dans le nord-ouest aride — des régions qui couvrent près des trois quarts du territoire chinois — la quantité d'eau douce disponible a diminué. À l'inverse, le plateau tibétain enregistre désormais une abondance accrue. Pour comprendre ce phénomène, il faut évoquer un mécanisme clé : l'évapotranspiration. L'eau présente dans les sols s'évapore sous l'effet du soleil, puis les plantes rejettent de la vapeur d'eau dans l'atmosphère par leurs feuilles. Les forêts accentuent ce processus, car les arbres, grâce à leurs racines profondes, puisent de l'eau même en période sèche. Selon Arie Staal, professeur à l'université d'Utrecht et co-auteur de l'étude, « les changements de couverture végétale redistribuent l'eau ».La Chine a multiplié les initiatives. La « Grande Muraille verte », lancée en 1978 pour freiner l'avancée des déserts dans le nord, a transformé le paysage : la couverture forestière nationale est passée d'environ 10 % à plus de 25 %, soit une surface comparable à celle de l'Algérie. D'autres programmes, comme Grain for Green ou la protection des forêts naturelles, ont fait du pays l'un des principaux acteurs mondiaux de la reforestation. À eux seuls, ces efforts représentent environ un quart de l'augmentation mondiale de la surface foliaire depuis le début du siècle. Mais cette réussite écologique a un revers. L'étude montre que l'évapotranspiration a augmenté plus vite que les précipitations. Autrement dit, davantage d'eau retourne dans l'atmosphère qu'il n'en tombe sous forme de pluie localement. Dans un pays où le nord concentre seulement 20 % des ressources en eau pour près de la moitié de la population et 60 % des terres arables, cette évolution est loin d'être anodine. Les chercheurs appellent donc à une approche plus fine : chaque projet de reforestation doit être évalué au regard de ses effets sur l'eau, car reverdir ne signifie pas toujours préserver. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Début 2025, le groupe Adani a annoncé la construction, dans l'ouest du Gujarat, d'un immense système de stockage d'électricité renouvelable capable d'emmagasiner 3,5 gigawattheures d'énergie. Pour donner un ordre d'idée, un gigawattheure correspond à un million de kilowattheures : de quoi alimenter des centaines de milliers de foyers pendant plusieurs heures.L'installation sera déployée dans la région désertique de Khavda. Environ 700 conteneurs de batteries y seront installés pour constituer ce dispositif présenté comme l'un des plus importants au monde. Les travaux sont déjà en cours et, selon le calendrier du conglomérat, la première phase devrait être achevée en mars 2026. Mais cette capacité de 3,5 gigawattheures n'est qu'un point de départ. Le groupe basé à Ahmedabad prévoit d'ajouter 15 gigawattheures supplémentaires d'ici mars 2027, puis de porter l'ensemble à 50 gigawattheures sur cinq ans. Cette montée en puissance s'inscrit dans les objectifs nationaux : l'Inde vise 500 gigawatts de capacité électrique propre d'ici 2030 et affiche des ambitions de neutralité carbone à long terme.Pourquoi un tel investissement dans les batteries ? Parce que les énergies renouvelables, comme le solaire et l'éolien, sont par nature intermittentes. Le soleil ne brille pas la nuit, le vent ne souffle pas en permanence. Le stockage permet donc de conserver l'électricité produite en excès pour la restituer lorsque la demande augmente. C'est l'élément clé pour garantir la stabilité du réseau. Ces batteries géantes viendront soutenir le complexe d'Adani Green Energy, qui s'étend déjà sur 538 kilomètres carrés, près de cinq fois la superficie de Paris. Aujourd'hui, le site produit 7,1 gigawatts grâce au solaire et à l'éolien. L'objectif est d'atteindre 30 gigawatts d'ici 2029.À la tête de ce projet se trouve Gautam Adani, deuxième fortune d'Inde avec environ 68 milliards de dollars. Son groupe est présent dans de nombreux secteurs stratégiques, des ports aux aéroports en passant par l'énergie et le ciment. Le montant exact de l'investissement n'a pas été dévoilé, mais l'ampleur du chantier laisse présager des sommes considérables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On parle beaucoup d'électricité solaire, de panneaux photovoltaïques et de batteries lithium-ion. Pourtant, un chiffre passe souvent inaperçu : le chauffage représente à lui seul près de la moitié de la consommation énergétique mondiale. Et, aujourd'hui encore, les deux tiers de cette demande reposent sur des combustibles fossiles. Produire de la chaleur propre est donc un enjeu colossal. Mais la stocker durablement, sans pertes pendant des semaines ou des mois, reste un défi technologique majeur.À l'université de Californie à Santa Barbara, l'équipe de Grace Han vient de publier dans la revue Science, mi-février 2026, des résultats qui pourraient changer la donne. Les chercheurs ont conçu une molécule baptisée « pyrimidone », inspirée d'un phénomène biologique inattendu : les dommages que les rayons ultraviolets infligent à notre ADN. Le principe est élégant. La pyrimidone agit comme un ressort à l'échelle moléculaire. Sous l'effet des UV, elle change de forme, se contracte et adopte un état dit « de haute énergie ». L'énergie solaire est alors piégée dans ses liaisons chimiques. Elle reste stockée tant qu'aucun déclencheur — chaleur ou catalyseur — ne vient forcer la molécule à revenir à sa forme initiale. À ce moment-là, l'énergie est libérée sous forme de chaleur.Les performances annoncées sont impressionnantes : 1,6 mégajoule par kilogramme, soit presque le double d'une batterie lithium-ion classique, qui tourne autour de 0,9 MJ/kg. En laboratoire, la chaleur produite a suffi à faire bouillir de l'eau à température ambiante. Autre atout : la molécule peut conserver son énergie jusqu'à trois ans sans dégradation notable. Le doctorant Han Nguyen compare le mécanisme aux lunettes photochromiques qui s'assombrissent au soleil, sauf qu'ici, il ne s'agit pas de changer de teinte, mais de stocker et restituer de l'énergie à volonté. La structure de la pyrimidone ressemble à certains composants de l'ADN capables de subir des transformations réversibles sous UV, normalement réparées par une enzyme appelée photolyase. Les chercheurs ont détourné ce processus naturel pour en faire un système de stockage thermique, appelé MOST — pour Molecular Solar Thermal.La molécule étant soluble dans l'eau, on pourrait imaginer la faire circuler dans des capteurs solaires en journée, stocker l'énergie dans des réservoirs, puis la restituer la nuit. Reste que cette technologie existe depuis des décennies sans s'imposer. Les versions précédentes souffraient de faibles rendements ou de dégradations rapides. Cette fois, plusieurs verrous semblent levés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Google poursuit sa course à l'énergie. Le géant américain vient de signer un accord de long terme avec Ormat Technologies pour alimenter ses installations du Nevada en électricité géothermique. À la clé : jusqu'à 150 mégawatts supplémentaires, fournis via NV Energy, l'opérateur local détenu par Berkshire Hathaway. Le contrat repose sur un mécanisme baptisé Clean Transition Tariff, ou CTT, mis en place en 2024 par Google et NV Energy pour accélérer le financement de nouvelles capacités d'énergie propre. L'accord doit encore être validé par la Commission des services publics du Nevada, une décision attendue d'ici fin 2026.La géothermie, rappelons-le, consiste à exploiter la chaleur naturelle du sous-sol. De l'eau est injectée en profondeur, chauffée au contact des roches chaudes, puis transformée en vapeur pour actionner des turbines produisant de l'électricité. Ormat prévoit plusieurs projets dans l'État, avec des mises en service progressives entre 2028 et 2030. Le contrat courra sur quinze ans après l'activation du dernier site. Cette montée en puissance graduelle permet de sécuriser l'approvisionnement tout en développant plusieurs installations en parallèle. Google connaît déjà le terrain. Depuis 2023, l'entreprise travaille avec Fervo Energy sur un site pilote au Nevada. Deux puits forés à environ 2 400 mètres y permettent de faire circuler de l'eau chauffée à plus de 190 degrés Celsius grâce à la fracturation contrôlée de la roche. Ce premier projet produisait 3,5 mégawatts, mais un nouvel accord signé en 2024 vise désormais 115 mégawatts. Avec Ormat, la capacité géothermique de Google dans la région bondit de plus de 130 %.Cette frénésie énergétique s'explique par l'explosion des besoins liés à l'intelligence artificielle. Les centres de données consomment toujours plus, et les futurs campus dédiés à l'IA dépasseront bientôt le gigawatt de puissance installée. Google multiplie donc les paris : fusion nucléaire avec Commonwealth Fusion Systems en Virginie, partenariat avec TotalEnergies, rachat d'un spécialiste des datacenters… et même réflexion sur des serveurs orbitaux. Selon le Rhodium Group, la géothermie pourrait couvrir jusqu'à 64 % de la croissance attendue des besoins électriques des datacenters au début des années 2030, à condition d'accepter un surcoût de 20 % et de maintenir les crédits d'impôt. Meta s'y intéresse aussi, avec 150 mégawatts signés auprès de Sage Geosystems. Atout majeur : une production continue, disponible à plus de 90 %, et la possibilité d'utiliser la chaleur résiduelle pour refroidir les serveurs, un poste qui représente jusqu'à 40 % de la consommation d'un centre de données. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La nouvelle course vers la Lune s'accélère, et la Chine vient de franchir une étape décisive. Alors que les États-Unis préparent leur retour avec la mission Artemis II, Pékin poursuit son propre programme lunaire avec un objectif assumé : envoyer des astronautes chinois — les taïkonautes — sur la Lune d'ici 2030, puis y établir une présence durable.Le 11 février, depuis le centre spatial de Wenchang, au sud de la Chine, les ingénieurs ont testé en conditions réelles la capsule Mengzhou, appelée à devenir le véhicule principal des futures missions lunaires. Ce vaisseau était installé au sommet d'une version expérimentale de la fusée lourde Long March 10. L'essai s'est concentré sur un moment critique du vol : la phase dite du « Max-Q ». C'est l'instant où la pression aérodynamique sur la fusée est maximale, autrement dit le moment où les contraintes physiques sont les plus dangereuses. À ce moment précis, la capsule a été volontairement éjectée, afin de tester son système d'évacuation d'urgence. Ce dispositif est conçu pour éloigner l'équipage de la fusée en cas de défaillance grave. Après la séparation, Mengzhou a entamé une descente contrôlée sous parachutes, avant d'amerrir en mer, au large de l'île de Hainan. Une manœuvre réussie, indispensable pour certifier le vaisseau en vue de futures missions habitées.À terme, Mengzhou transportera les taïkonautes jusqu'à l'orbite lunaire. Ils y rejoindront un module d'atterrissage chargé de les déposer sur la surface de la Lune, avant de revenir s'arrimer à la capsule pour le voyage retour vers la Terre. Ce vaisseau doit également remplacer progressivement la capsule actuelle, Shenzhou, utilisée pour rejoindre la station spatiale chinoise Tiangong, avec une capacité pouvant atteindre sept astronautes en orbite terrestre.Mais ce test ne concernait pas seulement la capsule. Le premier étage de la fusée Long March 10 a lui aussi effectué une démonstration ambitieuse. Après son retour dans l'atmosphère, ce segment — appelé booster — a rallumé ses moteurs pour ralentir sa descente et tenter un amerrissage contrôlé à proximité d'une barge. Cette technique vise à récupérer et réutiliser les lanceurs, une capacité déjà maîtrisée par SpaceX. Selon la China Aerospace and Science Technology Corporation, l'essai a permis de valider des technologies clés : redémarrage des moteurs en altitude, contrôle précis de la trajectoire et résistance aux conditions extrêmes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Chaque année à Grenoble, un événement tente de répondre à l'une des grandes questions de notre époque : comment innover sans aggraver le climat ? Son nom, Tech&Fest. Pendant plusieurs jours, le centre Alpexpo devient un carrefour où se croisent startups, grands groupes, chercheurs et décideurs, venus présenter leurs technologies et confronter leurs idées. Conférences, démonstrations, ateliers : l'objectif est clair, accélérer l'innovation. Parmi les grands thèmes abordés, l'un attire particulièrement l'attention : la transition énergétique et environnementale, regroupée sous la bannière « tech&planet ».Au cœur de ce dispositif, un espace incarne concrètement cette ambition : le Village de la Décarbonation. Son nom peut sembler technique, mais l'idée est simple. La décarbonation consiste à réduire les émissions de dioxyde de carbone, principal gaz responsable du réchauffement climatique. Ce village rassemble donc des entreprises et des projets qui proposent des solutions pour consommer moins d'énergie, mieux gérer les ressources ou réduire l'empreinte environnementale des activités humaines.Pour l'édition 2026, le festival met l'accent sur un territoire bien particulier : la montagne, et plus précisément les Alpes. Ces régions sont en première ligne face au changement climatique. La hausse des températures y est plus rapide, les glaciers reculent, la neige se raréfie et les ressources en eau deviennent plus imprévisibles. Autrement dit, ces territoires subissent aujourd'hui ce que d'autres régions pourraient connaître demain. Cette réalité fait des Alpes un laboratoire grandeur nature. Les contraintes y sont extrêmes : altitude élevée, climat rigoureux, forte dépendance à l'eau et aux infrastructures fragiles. Dans ce contexte, les innovations ne peuvent pas rester théoriques. Elles doivent fonctionner immédiatement, que ce soit pour améliorer l'efficacité énergétique des bâtiments, optimiser les transports, sécuriser les ressources en eau ou renforcer la résilience des infrastructures.Mais l'ambition de Tech&Fest dépasse largement la montagne. Les solutions présentées ne sont pas seulement conçues pour les territoires alpins. Elles sont envisagées comme des modèles reproductibles ailleurs, en ville comme en zone rurale. En testant ces technologies dans des conditions difficiles, les développeurs peuvent vérifier leur robustesse et leur efficacité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La guerre en Ukraine a profondément rebattu les cartes énergétiques mondiales. Pourtant, selon Greenpeace, un secteur clé échappe encore aux sanctions européennes : le nucléaire civil. Dans un communiqué publié mercredi, l'ONG affirme que ni la France ni l'Union européenne n'ont mis fin à leurs relations commerciales avec Rosatom, le géant public russe de l'énergie nucléaire.Au cœur du problème : l'uranium enrichi, un combustible indispensable au fonctionnement des centrales nucléaires. Pour produire de l'électricité, l'uranium naturel extrait des mines doit d'abord subir deux étapes techniques. La première, la conversion, transforme le minerai en gaz. La seconde, l'enrichissement, consiste à augmenter la proportion d'uranium fissile, l'isotope capable de soutenir la réaction nucléaire. C'est ce combustible enrichi qui alimente les réacteurs. Selon Greenpeace, la France continue d'importer de l'uranium enrichi russe, sous différentes formes, notamment de l'uranium recyclé ré-enrichi. Ces importations représenteraient environ 18 % du total, d'après une analyse des données des Douanes françaises arrêtées à septembre 2025.Par ailleurs, la Russie conserve un rôle indirect mais central dans l'approvisionnement. En 2025, près de la moitié de l'uranium naturel importé par la France provenait du Kazakhstan et de l'Ouzbékistan. Mais, selon l'ONG, une part importante de ces cargaisons transite par le territoire russe, sous le contrôle de Rosatom, avant d'arriver dans les ports européens, notamment Dunkerque ou Rotterdam, puis d'être acheminée vers les installations du groupe français Orano, acteur majeur du cycle du combustible nucléaire.Pour Greenpeace, cette situation pose un problème politique autant qu'économique. Pauline Boyer, chargée de campagne au sein de l'organisation, estime que ces échanges contribuent indirectement à soutenir l'économie russe. Elle appelle les autorités françaises et européennes à sanctionner Rosatom, d'autant plus que l'entreprise joue un rôle stratégique dans le secteur nucléaire mondial et a notamment pris le contrôle de la centrale ukrainienne de Zaporijjia depuis le début du conflit.Pour l'heure, aucune interdiction européenne n'a été officiellement décidée concernant les importations de combustible nucléaire russe. Ce dossier reste sensible, car la France dépend entièrement de l'étranger pour son uranium. En 2024, le nucléaire a assuré plus de 86 % de la production d'électricité d'EDF, ce qui rend la sécurisation des approvisionnements absolument essentielle. La France dispose bien d'une usine d'enrichissement, située au Tricastin, dans la Drôme, mais elle reste tributaire des importations de matière première. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les Jeux olympiques d'hiver de 2026, prévus à Milan et Cortina d'Ampezzo, pourraient laisser une empreinte bien plus durable que les souvenirs sportifs. Selon un rapport publié par les organisations Scientists for Global Responsibility et New Weather Institute, cet événement mondial devrait générer environ 930 000 tonnes d'équivalent dioxyde de carbone, une unité utilisée pour mesurer l'impact climatique global des émissions de gaz à effet de serre.La principale source de pollution identifiée n'est ni la construction ni l'organisation elle-même, mais les déplacements des spectateurs. À eux seuls, ces voyages pourraient représenter environ 410 000 tonnes d'émissions. À titre de comparaison, cela correspond aux émissions annuelles de plusieurs dizaines de milliers de personnes. Les chercheurs estiment que cet impact climatique pourrait, dans les années suivantes, contribuer indirectement à la disparition d'environ 2,3 km² de couverture neigeuse et à la perte de plus de 14 millions de tonnes de glace glaciaire. Des conséquences particulièrement préoccupantes pour des sports qui dépendent précisément de la neige et des glaciers.Ce constat intervient dans un contexte déjà fragile pour les stations de montagne. En cinq ans, l'Italie a perdu 265 stations de ski, tandis que la France, qui accueillera les Jeux en 2030, en a vu disparaître plus de 180. La cause principale : le réchauffement climatique, qui réduit progressivement l'enneigement. Le rapport pointe également le rôle des sponsors. Trois partenaires majeurs — le groupe pétrolier Eni, le constructeur automobile Stellantis et la compagnie aérienne ITA Airways — pourraient générer à eux seuls environ 1,3 million de tonnes supplémentaires d'émissions. Ces émissions indirectes, souvent exclues des bilans officiels, correspondent notamment aux activités économiques encouragées par ces partenariats. Leur impact global pourrait entraîner la disparition supplémentaire de 3,2 km² de neige et la perte de plus de 20 millions de tonnes de glace glaciaire. Au total, l'ensemble de l'événement et de ses sponsors pourrait contribuer à la disparition de 5,5 km² de couverture neigeuse.Des progrès ont toutefois été réalisés ces dernières années. L'absence de nouvelles infrastructures majeures, l'utilisation d'énergies renouvelables et le recours à des matériaux à faible empreinte carbone ont permis d'éviter plusieurs centaines de milliers de tonnes d'émissions. Les auteurs du rapport appellent désormais à des mesures plus radicales, notamment la fin des partenariats avec les industries fortement émettrices. Selon eux, l'avenir même des Jeux olympiques d'hiver pourrait dépendre de la capacité du mouvement olympique à réduire son propre impact sur le climat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En 2013, la Chine a décidé d'en finir avec cette pollution atmosphérique devenue insoutenable, tant pour la santé publique que pour son image internationale. En quelques années, le pays a engagé une transformation massive : installation d'épurateurs dans les centrales à charbon, normes industrielles renforcées et nouvelles règles environnementales. Résultat : la pollution de l'air a été réduite de moitié. Mais cette victoire sanitaire a produit un effet inattendu. En réduisant la pollution, la Chine a aussi fait disparaître une grande partie du dioxyde de soufre présent dans l'atmosphère. Ce gaz, bien connu pour provoquer les pluies acides et contribuer aux brouillards toxiques, joue aussi un rôle climatique paradoxal.Pour comprendre ce phénomène, il faut évoquer les aérosols. Ce sont de minuscules particules en suspension dans l'air, souvent issues de la combustion du charbon. Lorsqu'elles se forment à partir du dioxyde de soufre, elles agissent comme un miroir microscopique : elles réfléchissent une partie des rayons du soleil vers l'espace. Ce mécanisme limite temporairement le réchauffement de la surface terrestre. Selon une étude publiée en février 2026 dans la revue scientifique Geophysical Research Letters, la réduction de ces aérosols en Chine aurait contribué à une hausse mesurable des températures mondiales. Les chercheurs estiment que cette baisse du dioxyde de soufre a entraîné une augmentation de la température globale comprise entre 0,06 et 0,07 degré Celsius entre 2007 et 2025. Ce chiffre peut sembler faible, mais il représente environ 12 % du réchauffement total observé sur cette période. Autrement dit, la disparition de ces particules a révélé une partie du réchauffement jusqu'alors masquée. Les scientifiques ont utilisé des modèles climatiques pour analyser l'évolution des émissions en Asie. Pendant que la Chine réduisait sa pollution atmosphérique, d'autres pays comme l'Inde ont continué d'augmenter leurs émissions, illustrant le caractère global et interconnecté du climat.Il ne s'agit évidemment pas de regretter la pollution. Les aérosols ne font que masquer temporairement les effets du réchauffement, sans en traiter la cause principale : les gaz à effet de serre. Cette étude rappelle surtout une réalité essentielle : le climat est un système complexe, où certaines améliorations environnementales peuvent révéler des déséquilibres déjà présents. Nettoyer l'air reste indispensable, mais cela rend aussi plus visible l'ampleur réelle du défi climatique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Vous pensiez que concevoir une batterie relevait d'un simple jeu de briques technologiques, quelques matériaux bien empilés et le tour est joué ? En réalité, le plus long commence après. Une fois le prototype prêt, il faut le malmener : charge, décharge, recharge… encore et encore, jusqu'à l'épuisement complet. Un marathon qui peut durer des mois, parfois des années. Et qui consomme énormément d'électricité. Certaines estimations évoquent 130 000 gigawattheures nécessaires d'ici 2040 pour ces seuls tests, soit près de la moitié de la production annuelle de la Californie.À Université du Michigan, l'équipe du chercheur Jiawei Zhang propose de court-circuiter ce rituel. Dans la revue Nature, ils détaillent une approche baptisée « Discovery Learning ». L'idée est simple sur le papier : observer les premiers cycles de vie d'une batterie pour prédire son avenir, sans attendre qu'elle rende l'âme. Le système repose sur trois briques. D'abord, sélectionner intelligemment quels prototypes méritent d'être testés physiquement. Ensuite, comparer leurs premiers comportements à une base de données de batteries déjà connues. Enfin, estimer leur durée de vie totale… puis réinjecter ces prédictions dans le modèle pour affiner les choix suivants. Autrement dit, l'algorithme apprend aussi de ses propres estimations. Les chercheurs annoncent des gains spectaculaires : 98 % de temps économisé, 95 % de coûts en moins.De quoi faire rêver une industrie où chaque semaine gagnée vaut de l'or. Mais prudence. Le professeur Chao Hu, de Université du Connecticut, rappelle que ces prédictions dépendent fortement des données d'entraînement. Si une nouvelle batterie sort trop des sentiers battus, le modèle pourrait se tromper. Et surtout, la vraie vie ne ressemble pas au laboratoire : chaleur, froid, charges imprévisibles… rien n'a encore été validé sur le terrain. Avec un marché estimé à 120 milliards de dollars aujourd'hui, et 500 milliards attendus en 2030, la tentation est forte. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On parle beaucoup d'intelligence artificielle comme d'un miracle numérique. Plus rapide, plus créative, plus efficace. Mais on oublie souvent une question toute simple : combien ça consomme, au juste, une conversation avec une IA ? Car derrière Gemini, Mistral, ChatGPT ou Claude, il y a des centres de données géants, des serveurs qui tournent jour et nuit, et une facture énergétique loin d'être virtuelle.Pour mettre des chiffres sur cette réalité, la Fondation Sahar et l'association Trackarbon lancent TrackCarbon, une application disponible dès aujourd'hui sur macOS. Son idée est simple : mesurer, en temps réel, l'empreinte énergétique et carbone de nos échanges avec les IA génératives. Une fois installée, l'application observe la longueur de vos requêtes, celle des réponses, puis estime l'électricité consommée et le CO₂ émis à partir de données scientifiques. Pas d'espionnage pour autant : tout reste stocké en local, sur l'ordinateur. Rien ne quitte la machine.L'interface affiche trois indicateurs très parlants : le nombre de requêtes envoyées, l'énergie utilisée, et l'empreinte carbone correspondante. Et pour rendre ces données concrètes, TrackCarbon traduit tout ça en équivalences du quotidien : nombre de recharges de smartphone, kilomètres parcourus en voiture. De quoi réaliser que chaque prompt a, lui aussi, un coût.Les calculs s'appuient sur des travaux académiques et évoluent en continu, avec des contributions de chercheurs et de la communauté. L'outil est d'ailleurs entièrement open source : le code est publié sur GitHub, consultable et modifiable par tous. Pas question de culpabiliser, assure Gauthier Schweitzer, président de la fondation. L'objectif est d'éclairer, pas de juger. À terme, l'application devrait aussi proposer des analyses par modèle, des outils pour les entreprises, et même recommander l'IA la moins gourmande selon la tâche. Windows et Linux sont déjà prévus. Reste à savoir si cette boussole carbone changera vraiment nos habitudes numériques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le réveil est brutal pour les grandes promesses vertes de la Silicon Valley. Fin janvier, une enquête du The Guardian met les pieds dans le plat : derrière les discours sur la neutralité carbone, les géants du numérique se tournent massivement… vers le gaz naturel. Sur le papier, tout semblait pourtant réglé. Partenariats nucléaires spectaculaires, investissements dans les renouvelables, déclarations d'intention. Meta Platforms multiplie les annonces, Bill Gates promet des réacteurs nouvelle génération. Mais la réalité est plus terre à terre : le réseau électrique actuel n'arrive plus à suivre.Le problème est simple, presque mathématique. Les modèles d'intelligence artificielle générative consomment une énergie colossale, en continu. Les serveurs ne dorment jamais. Or le solaire et l'éolien produisent par à-coups, et le nucléaire demande des années, parfois des décennies, pour sortir de terre. Trop lent pour une industrie qui avance à la vitesse du logiciel. Conséquence : les exploitants de data centers frappent à la porte des centrales thermiques. Aux États-Unis, les opérateurs de gazoducs signalent une explosion des demandes de raccordement direct pour alimenter ces fermes de serveurs, parfois en contournant un réseau public déjà saturé. Même Amazon a récemment alerté : la course à l'IA coûte une fortune en infrastructures, et l'énergie propre n'arrive pas assez vite.La transition énergétique se heurte ainsi à la physique. On ne construit pas une centrale comme on déploie une mise à jour. Les courbes exponentielles de l'IA cognent contre les limites très concrètes du béton, des câbles et des turbines. Derrière ce virage, une forme d'aveu. Les objectifs de neutralité carbone pour 2030 restent affichés, mais la priorité est ailleurs : maintenir les puces NVIDIA à plein régime. Google a même racheté un spécialiste des data centers pour sécuriser son approvisionnement énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Imaginez un instant : au lieu de construire d'immenses hangars bourrés de serveurs dans le désert, on enverrait les centres de données… dans l'espace. Ce qui ressemblait encore hier à un délire de science-fiction est désormais couché noir sur blanc dans des documents officiels. Depuis plusieurs mois, Elon Musk martèle la même idée : placer des data centers en orbite pour profiter d'une énergie solaire quasi illimitée et libérer de la place au sol, alors que la soif de calcul liée à l'intelligence artificielle explose. Aujourd'hui, SpaceX passe à l'action.Dans un dossier transmis à la Federal Communications Commission, l'entreprise détaille un projet de satellites opérant entre 500 et 2 000 kilomètres d'altitude. Les précisions techniques restent rares, mais l'objectif est clair : occuper des orbites encore peu utilisées. Les appareils placés sur des trajectoires héliosynchrones, baignés de soleil plus de 99 % du temps, assureraient une puissance de calcul continue. D'autres, sur des orbites moins inclinées, absorberaient les pics de demande pour répartir la charge. Pour bâtir cette infrastructure, SpaceX compte capitaliser sur son expérience avec Starlink. Et le discours va plus loin que la simple logistique informatique. L'entreprise présente cette constellation comme une étape vers une « civilisation de type II » sur l'échelle de Kardashev, capable d'exploiter pleinement l'énergie du Soleil et de faire tourner des services d'IA pour des milliards d'utilisateurs, tout en préparant l'humanité à devenir multiplanétaire.Reste une inquiétude : l'orbite terrestre se remplit déjà à grande vitesse. De plus en plus d'experts alertent sur la congestion et les risques de collisions. Musk, lui, se veut rassurant : selon lui, les satellites seraient si espacés qu'ils se croiseraient à peine. « L'espace est immense, au-delà de ce qu'on imagine », écrit-il sur X. Le calendrier dépend désormais du feu vert de la FCC. En toile de fond, une possible fusion avec xAI se profile. De quoi donner naissance à un conglomérat spatial et numérique hors norme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un nouveau round judiciaire qui s'ouvre entre Shein et l'État français. Début février, la bataille reprend devant la justice. Après une première décision favorable à la plateforme chinoise, le gouvernement a décidé de contre-attaquer. Direction la cour d'appel de Paris, avec un objectif clair : obtenir la suspension du site. Même si la première manche a été perdue, Paris ne lâche pas l'affaire.Invité sur TF1 le jour même de l'audience, le ministre des PME et du Commerce, Serge Papin, a détaillé la stratégie de l'État. Son argument central : un « trouble à l'ordre public ». Selon lui, la plateforme met des produits sur le marché sans en assumer réellement la responsabilité. Il parle de non-conformités « systématiques » et estime que Shein échappe trop facilement aux obligations qui pèsent sur les commerçants classiques. En clair : vendre, oui. Répondre de la conformité des produits, beaucoup moins.Mais le gouvernement a déjà prévu un plan B. Si Shein remportait à nouveau cette bataille judiciaire, l'exécutif passerait par la loi. Une proposition doit être déposée pour inscrire noir sur blanc la responsabilité juridique de la plateforme sur l'ensemble des articles vendus. Avec ce nouveau cadre, la Répression des fraudes pourrait constater elle-même les manquements et suspendre l'activité, sans passer par un juge. Autrement dit, changer les règles du jeu.Et la pression ne s'arrête pas là. Côté fiscalité aussi, l'étau se resserre. Dès le 1er mars, une taxe de deux euros par colis s'appliquera en France, selon la catégorie d'articles. Puis, à partir du 1er juillet, un droit de douane forfaitaire de trois euros sera instauré au niveau européen. Serge Papin l'a annoncé sans détour : « 2026 sera l'année de résistance à Shein ». Derrière cette formule, un message politique limpide : réguler la fast fashion importée, rééquilibrer la concurrence… et montrer que, face aux géants du e-commerce, l'État compte bien garder la main. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La fusion nucléaire, sur le papier, ressemble à un rêve d'ingénieur : reproduire sur Terre la réaction qui alimente les étoiles pour produire une énergie propre, quasi inépuisable. Dans la réalité, c'est un casse-tête scientifique que les chercheurs tentent de résoudre depuis des décennies. Pour forcer deux isotopes d'hydrogène à fusionner, les équipes travaillent dans des machines appelées tokamaks, de vastes chambres magnétiques capables de confiner un plasma chauffé à des températures supérieures à celles du cœur du Soleil. Problème : ce plasma est aussi capricieux qu'explosif. À la moindre instabilité, il peut heurter les parois internes, endommager l'installation… et stopper net la réaction.« Maintenir la stabilité de la couche limite du plasma est un défi majeur pour l'avenir de la fusion », rappellent les chercheurs du Princeton Plasma Physics Laboratory, le PPPL. Jusqu'ici, les scientifiques géraient surtout les dégâts après coup. Autrement dit, on corrigeait une fois l'instabilité apparue.Mais trois chercheurs du laboratoire, récemment récompensés par le prix d'excellence de la fondation Kaul, proposent une stratégie plus offensive. Leur idée : anticiper les turbulences et ajuster les paramètres du tokamak en temps réel, avant que la situation ne dégénère. Pour cela, ils ont abandonné l'approche classique en deux dimensions. Les champs magnétiques des tokamaks sont traditionnellement modélisés en 2D. Eux misent sur une optimisation en trois dimensions, en combinant physique, intelligence artificielle et contrôle instantané. « Nous explorons une optimisation 3D en mêlant la physique, l'IA et le pilotage en temps réel », explique Sang Kyeun Kim, l'un des membres de l'équipe.Concrètement, des algorithmes de machine learning simulent des dizaines de scénarios possibles et déterminent comment ajuster les champs magnétiques pour garder le plasma stable tout en maintenant un haut niveau d'énergie. Pendant l'expérience, l'IA corrige en continu le tir, presque comme un pilote automatique. La prochaine étape : automatiser entièrement ce contrôle magnétique. Car sans ces outils intelligents, les chercheurs le reconnaissent, il faudrait sans doute encore des décennies pour dompter la fusion. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le béton est partout. Dans nos immeubles, nos routes, nos ponts. C'est le matériau roi du bâtiment… et aussi l'un des plus polluants. À lui seul, il représente près de 8 % des émissions mondiales de CO₂. Un chiffre massif, rappelé par Nima Rahbar, directeur du département de génie civil, environnemental et architectural du Worcester Polytechnic Institute, aux États-Unis. Autrement dit : construire le monde d'aujourd'hui réchauffe celui de demain. Face à ce constat, la filière cherche des alternatives. En décembre, des chercheurs britanniques proposaient déjà d'intégrer des déchets de coquillages pour alléger l'empreinte carbone du béton. Cette fois, une équipe américaine affirme avoir franchi un cap supplémentaire. Elle présente un matériau de construction à la fois solide, peu coûteux… et carrément à bilan carbone négatif.Son nom : enzymatic structural material, ou ESM. L'étude, publiée dans la revue Matter, décrit un procédé original. Les scientifiques utilisent une enzyme capable de transformer le dioxyde de carbone en carbonate de calcium, autrement dit en particules minérales solides. Ces particules sont ensuite agglomérées et durcies dans des conditions douces, à basse température, pour former des éléments de construction en quelques heures. C'est là que se joue la différence. Contrairement au béton classique, qui exige des fours très énergivores et de longs temps de séchage, l'ESM se fabrique rapidement et sans forte chaleur. Résultat : beaucoup moins d'énergie consommée, donc moins d'émissions.Mieux encore, le matériau ne se contente pas de polluer moins : il capte du carbone. Selon Nima Rahbar, produire un mètre cube d'ESM permettrait de stocker plus de 6 kilos de CO₂, quand le béton traditionnel en émet environ 330 kilos pour le même volume. « Nous ne réduisons pas seulement les émissions, nous capturons réellement le carbone », souligne le chercheur. Autre promesse : une meilleure réparabilité, donc moins de déchets et des coûts réduits sur le long terme. Reste maintenant l'épreuve du terrain. Des tests doivent confirmer sa fiabilité avant une utilisation à grande échelle. Si tout se passe bien, l'ESM pourrait bientôt se retrouver dans nos terrasses, nos toitures ou nos panneaux muraux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si la prochaine révolution de l'intelligence artificielle ne venait pas d'un nouvel algorithme… mais d'une puce électronique repensée de fond en comble ? Au MIT, des ingénieurs viennent de présenter une architecture qui pourrait changer la donne. Leur idée : empiler directement les composants d'une puce les uns sur les autres, plutôt que de les étaler côte à côte. Un détail en apparence, mais qui bouleverse tout.Jusqu'ici, la partie chargée des calculs et celle qui stocke les données étaient physiquement séparées. Résultat : les informations passaient leur temps à voyager d'un point à l'autre du circuit, consommant du temps… et surtout beaucoup d'énergie. En rapprochant ces deux fonctions, les chercheurs réduisent drastiquement ces allers-retours. Les échanges deviennent plus rapides et nettement moins gourmands en électricité. Un enjeu crucial à l'heure où l'IA explose. Pour y parvenir, l'équipe a mis au point un composant hybride : un transistor à mémoire. Autrement dit, un seul élément capable à la fois de calculer et de conserver des données. À l'échelle nanométrique, ce dispositif présente très peu de défauts électriques, ce qui améliore à la fois la vitesse d'exécution et l'efficacité énergétique, selon les chercheurs.Ce type d'innovation arrive au bon moment. Les applications d'apprentissage profond et de vision artificielle se multiplient, et les centres de données engloutissent toujours plus d'électricité. L'Agence internationale de l'énergie estime même que leur demande pourrait presque doubler d'ici 2030. Or, une grande partie de cette consommation ne sert pas à calculer, mais simplement à déplacer des données à l'intérieur des puces. « Nous devons absolument réduire l'énergie utilisée par l'IA, ce modèle n'est pas soutenable », rappelle Yanjie Shao, auteur principal de l'étude. Techniquement, les chercheurs ont utilisé de l'oxyde d'indium, un matériau qui peut être déposé à basse température sans abîmer les autres couches. Ils y ont ajouté une fine mémoire ferroélectrique. Le transistor change d'état en dix nanosecondes et fonctionne à une tension plus faible que les technologies actuelles. Pour l'instant, le système n'a été testé que sur prototype. Mais l'intégration dans de vraies puces semble désormais à portée de main. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On parle souvent des microplastiques pour leurs effets visibles : plages polluées, poissons contaminés, déchets flottants. Mais une nouvelle étude suggère une menace plus discrète… et peut-être plus grave encore. Ces fragments minuscules pourraient aussi perturber le climat. Des chercheurs venus de Chine, de Hong Kong, du Pakistan et des Émirats arabes unis ont publié leurs travaux dans le Journal of Hazardous Materials: Plastics. Leur conclusion est claire : les microplastiques, ces particules de moins de cinq millimètres, altèrent la capacité des océans à absorber le dioxyde de carbone. Or cette absorption est essentielle : c'est l'un des mécanismes clés qui permet à la planète de réguler sa température.Le contexte est inquiétant. Selon l'ONU, la production mondiale de plastique dépasse aujourd'hui 400 millions de tonnes par an. La moitié concerne des objets à usage unique, et moins de 10 % sont recyclés. Sans changement majeur, cette production pourrait tripler d'ici 2060. Résultat : des microplastiques partout. Dans les grands fonds marins, l'eau douce, l'air, les sols, jusque sur la glace arctique. Pour comprendre leur impact réel, l'équipe a analysé 89 études scientifiques. Et le tableau se précise. Les microplastiques perturbent la vie marine et affaiblissent ce que les spécialistes appellent la « pompe biologique à carbone » : ce processus naturel par lequel le phytoplancton capte le CO₂ via la photosynthèse, puis l'envoie vers les profondeurs océaniques. Problème : ces particules réduisent la photosynthèse du phytoplancton et modifient le métabolisme du zooplancton.Autre effet pervers : en se dégradant, certains plastiques libèrent eux-mêmes des gaz à effet de serre. Et autour de ces fragments se développe une « plastisphère », un écosystème microbien encore mal connu, qui pourrait accentuer ces déséquilibres. À long terme, les chercheurs redoutent un enchaînement : océans plus chauds, plus acides, perte de biodiversité… et, derrière, des menaces directes pour la pêche, la sécurité alimentaire et les communautés côtières. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans le ciel gris du Sichuan, certains ont levé la tête, un peu perplexes. Ce 11 janvier, au-dessus de la ville de Yibin, ce n'était ni un drone ni un ballon météo. Mais une éolienne. Oui, une éolienne volante. La société chinoise Beijing SAWES Energy Technology vient de tester, grandeur nature, une machine qui bouscule les codes du secteur. Oubliez les mâts géants plantés au sol. Ici, la production d'électricité prend de la hauteur. Littéralement.Sa plateforme, baptisée S2000, est construite en matériaux légers et remplie d'hélium. Elle flotte comme un dirigeable et capte les vents en altitude pour les convertir en énergie. Lors de ce vol d'essai, l'engin est monté jusqu'à 2 000 mètres au-dessus du sol. Résultat : 385 kilowattheures produits, directement injectés dans le réseau local, selon le Global Times, média proche du pouvoir chinois. Après un premier modèle, le S1500, présenté il y a quelques mois, l'entreprise franchit donc un cap supplémentaire. Plus haut, plus puissant.Visuellement, la machine ressemble à un grand ballon conique de 60 mètres de long sur 40 de large. Elle est reliée au sol par un câble qui assure à la fois sa stabilité… et le transport de l'électricité. À l'intérieur, douze turbines tournent pour maximiser la production. Son concepteur assure qu'il s'agit de la première éolienne capable d'opérer au-dessus de zones urbaines. Un argument clé. Le PDG, Weng Hanke, imagine deux usages principaux : alimenter des sites isolés, comme des postes-frontières, ou compléter les parcs éoliens traditionnels dans une logique énergétique « en trois dimensions ». Car là-haut, le vent est plus fort, plus régulier. À comparer avec les éoliennes terrestres, limitées à environ 155 mètres, le gain est évident. La forme même de la S2000 joue un rôle : l'air est canalisé et compressé avant d'atteindre les turbines, ce qui améliore encore le rendement. À terme, la plateforme pourrait produire jusqu'à 3 mégawatts. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pour la première fois, une année civile entière a dépassé la barre des +1,5 °C par rapport à l'ère préindustrielle. C'était l'objectif à ne pas franchir fixé par l'Accord de Paris. C'est le constat posé par Copernicus, le programme européen de référence sur le climat. Les rejets mondiaux de gaz à effet de serre ont encore progressé de 1,3 % par rapport à 2023, avec une consommation d'énergies fossiles toujours en hausse.Une étude, révélée par The Guardian, pointe des responsabilités très concentrées. Selon cette analyse, 32 entreprises de combustibles fossiles à elles seules seraient à l'origine de la moitié des émissions mondiales de CO₂ liées à la crise climatique en 2024. L'année précédente, elles étaient 36. Autrement dit : moins d'acteurs, mais toujours autant de pollution. Pour Tzeporah Berman, co-autrice du rapport et membre de l'initiative Fossil Fuel Non-Proliferation Treaty, la conclusion est sévère : un petit groupe d'entreprises domine les émissions mondiales et freine activement les politiques climatiques. La base de données Carbon Majors, qui suit 178 grands producteurs de pétrole, gaz, charbon et ciment depuis 1854, montre que les émissions ont augmenté dans toutes les régions du monde en 2024. Les entreprises asiatiques, à elles seules, représentent près d'un tiers du total.Et beaucoup de ces géants sont publics. Dix-sept des vingt plus gros émetteurs sont contrôlés par des États. Des pays comme l'Arabie saoudite, la Russie, la Chine ou l'Inde. Ce sont aussi ces mêmes États qui ont bloqué, lors de la COP30, une feuille de route vers la sortie des fossiles. À eux seuls, ils ont généré 38 % des émissions liées aux combustibles fossiles et au ciment. Les conséquences, elles, sont déjà mesurables : 213 vagues de chaleur plus intenses entre 2000 et 2023, près de la moitié du réchauffement actuel et un tiers de la hausse du niveau des mers imputables à ces émissions. Le coût économique ? Jusqu'à 3 600 milliards de dollars de pertes liées à la chaleur extrême entre 1991 et 2020. Pour l'ancienne négociatrice climat de l'ONU Christiana Figueres, ces grands émetteurs sont clairement « du mauvais côté de l'histoire ». Les investissements dans les énergies propres progressent, mais les mastodontes du carbone, eux, s'accrochent encore au passé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À Puyrolland, petit village de 200 habitants près de La Rochelle, un parc éolien validé par arrêté préfectoral en octobre 2019… n'a toujours pas vu le jour. Sur le papier, le projet semblait pourtant bien engagé. Baptisé « parc des Chênaies Hautes », il devait s'implanter sur trois communes des Vals de Saintonge, un territoire déjà très convoité par la filière : en 2023, 15 % des éoliennes de Nouvelle Aquitaine y étaient concentrées. À la manœuvre, la filiale française du groupe allemand Windstrom, qui revendique plus de 470 mâts installés en Europe. Mais à Puyrolland, rien ne sort de terre. Et l'affaire a pris un virage judiciaire. L'entreprise assigne aujourd'hui la commune et une cinquantaine de propriétaires devant le tribunal civil de Saintes. Une audience procédurale se tient cette semaine, sans encore aborder le fond.Ce que reproche Windstrom ? Le refus de la mairie d'accorder les autorisations de voirie nécessaires pour acheminer sept éoliennes géantes, culminant à 180 mètres en bout de pale. Le groupe réclame des servitudes de passage, et à défaut, 44 millions d'euros pour compenser le retard du chantier, soit environ 6,5 millions par an. Pour les élus, c'est une stratégie d'intimidation. « Leur objectif est de faire peur aux administrés », accuse l'un des avocats de la commune. La bataille se joue aussi devant la justice administrative. En décembre, la cour d'appel de Bordeaux a rejeté le recours du promoteur. Celui-ci s'est pourvu en cassation devant le Conseil d'État.Le maire, Thierry Giraud, reconnaît avoir d'abord été favorable. En 2016, il signe même une promesse de bail, en échange d'aides promises pour l'église ou des chèques énergie. Mais, selon lui, rien n'a suivi. « On ne voulait pas que le sacrifice soit vain », explique-t-il. Les habitants dénoncent un « passage en force ». Aujourd'hui, ce conflit dépasse la seule question des éoliennes. Il pose celle du rapport de force entre petits territoires ruraux et grands développeurs énergétiques. « On ne peut pas s'essuyer les pieds sur les communes comme sur un paillasson », lâche le maire. En face, Windstrom défend la stabilité des projets. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Au Mobile World Congress 2025 de Barcelone, Lenovo a décidé de voir grand. Très grand, même. S'il fallait résumer l'ambition du constructeur chinois en une formule, ce serait presque une devise olympique : plus haut, plus fort… et surtout plus flexible. Parmi les curiosités dévoilées sur le salon, un prototype attire tous les regards : le ThinkPad « Flip ». À première vue, on découvre un ordinateur portable équipé d'un immense écran OLED vertical de 18,1 pouces. Un format inhabituel, taillé pour la bureautique, la lecture ou le traitement de longs documents, un peu comme si l'on travaillait sur une feuille A4 géante.Mais le plus surprenant, c'est la mécanique. L'écran peut se plier vers l'arrière et se transformer en deux dalles de 13 pouces. Une fois refermé, l'ensemble prend la forme d'une tablette 13 pouces. Pour un simple concept, la fiche technique est loin d'être symbolique : processeur Intel Core Ultra 7, 32 Go de mémoire LPDDR5X, ports Thunderbolt 4, lecteur d'empreinte digitale. Lenovo évoque cinq usages : mode ordinateur traditionnel, affichage vertical pour relire des documents, double écran pour le travail à deux, tablette pour la création, et même mode lecture sans distraction. Ce n'est pas un coup d'essai : la marque avait déjà tenté l'expérience avec le ThinkPad X1 Fold.Et Lenovo ne s'est pas arrêté là. Autre idée futuriste présentée sur le stand : le Yoga Solar PC Concept. Ici, c'est l'autonomie qui est repensée. Le dos de l'écran est recouvert de panneaux solaires affichant un rendement de 24 %. D'après le constructeur, vingt minutes en plein soleil suffiraient pour récupérer une heure de lecture vidéo. Même sans lumière directe, le système continuerait à produire un peu d'énergie pour prolonger la batterie. Pour l'instant, ces machines restent au stade expérimental. Mais elles donnent un aperçu clair des pistes explorées : écrans modulables, recharge autonome, nouveaux usages nomades. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un petit séisme énergétique, passé presque inaperçu dans le vacarme de l'actualité. Et pourtant, le signal est fort. Selon le think tank Ember, pour la toute première fois, l'éolien et le solaire ont produit davantage d'électricité en Europe que l'ensemble des énergies fossiles en 2025. Oui, vous avez bien entendu : le vent et le soleil ont dépassé le gaz, le charbon et le pétrole réunis.Plus largement, les énergies renouvelables ont assuré plus de la moitié de la production électrique des 27 pays de l'Union européenne l'an dernier. Un basculement historique. Dans le détail, l'éolien et le solaire représentent à eux seuls 30 % du mix électrique, contre 29 % pour toutes les sources fossiles. Une inversion des courbes qui aurait semblé impensable il y a encore dix ans. Le solaire, surtout, avance à marche forcée. Il fournit désormais 13 % de l'électricité européenne, avec une progression spectaculaire de 20 % sur la seule année 2025. Certains pays tirent clairement le peloton : la Hongrie, Chypre, la Grèce, l'Espagne ou encore les Pays-Bas multiplient les installations et affichent des records de production.Ce boom peut surprendre. Car l'objectif politique affiché par Bruxelles l'an dernier n'était pas d'abord écologique, mais économique : réduire la facture énergétique des Européens. Et c'est justement là que se trouve la clé. Selon la Commission, la flambée des prix venait surtout d'une dépendance excessive aux combustibles fossiles importés, chers et volatils. Autrement dit, passer aux renouvelables n'était pas seulement un choix climatique, mais aussi un choix budgétaire. Le charbon, déjà en déclin, ne constituait plus le principal problème. Le vrai point noir, c'est désormais le gaz : coûteux, fortement émetteur de CO₂, et géopolitiquement sensible. Résultat, en voulant faire des économies, l'Europe a accéléré sa transition. Par pragmatisme plus que par idéalisme. Mais au final, le constat est le même : en 2025, le vent et le soleil ont pris l'avantage. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Ce n'est pas le genre de lecture qui rassure en buvant son café du matin. Jeudi, le CERT-FR, la cellule d'alerte informatique française, a publié une note qui sonne comme un avertissement clair : nos infrastructures d'énergie renouvelable et de gestion de l'eau sont devenues des cibles privilégiées pour les hacktivistes. Des militants numériques qui frappent moins pour l'argent que pour le symbole… et pour le bruit médiatique.Derrière ce constat, l'ANSSI, l'agence nationale de cybersécurité, parle d'une hausse nette des attaques visant ces installations. Et ce ne sont plus de simples tentatives théoriques. Récemment, des intrus ont réussi à prendre la main à distance sur des équipements industriels. L'épisode le plus marquant ? L'arrêt complet d'un parc éolien pendant plusieurs heures. Résultat : production stoppée, pertes financières, et un sérieux coup de stress pour l'exploitant. Éoliennes, centrales hydroélectriques, panneaux solaires, stations de pompage… tout ce qui est connecté est désormais dans le viseur. Et le plus inquiétant, c'est que les attaquants n'ont pas besoin d'outils sophistiqués. Selon le rapport, leur niveau technique est souvent basique. Leur force, c'est surtout leur capacité à transformer chaque intrusion en opération de communication, à faire le buzz pour déstabiliser leurs cibles.Le vrai talon d'Achille se trouve ailleurs : dans la sécurité minimale, parfois inexistante. Beaucoup d'installations compromises appartiennent à de très petites entreprises, voire à des particuliers, peu formés aux risques cyber. Certains équipements restent accessibles directement sur Internet, sans authentification. Parfois même avec les mots de passe d'usine jamais changés. Des protocoles industriels circulent sans chiffrement. En clair : la porte est ouverte. Face à ce constat, l'ANSSI rappelle des règles simples, presque du bon sens numérique. Filtrer les connexions par adresse IP, installer un VPN, remplacer tous les identifiants par défaut, utiliser des protocoles sécurisés comme TLS ou SSH, et appliquer les mises à jour. Des outils que la plupart des box Internet proposent déjà. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pour la première fois depuis la signature de l'Accord de Paris en 2015, la ligne rouge a été franchie. Le seuil de +1,5 °C de réchauffement climatique, que 196 pays s'étaient engagés à ne pas dépasser, l'a été trois années de suite. C'est le constat dressé par Copernicus, l'organisme européen de surveillance du climat, dans son rapport publié le 14 janvier 2026. Après 2023 et 2024, l'année 2025 confirme cette tendance : jamais, depuis le début des mesures, une période de trois ans n'avait dépassé ce seuil symbolique.Dans le détail, 2024 demeure l'année la plus chaude jamais enregistrée, suivie de près par 2023, puis par 2025. La température moyenne mondiale a atteint 14,97 °C l'an dernier, soit près de 0,6 °C au-dessus de la moyenne observée entre 1991 et 2020. L'écart avec 2024 est faible, à peine 0,13 °C. L'Antarctique a connu sa température la plus élevée jamais mesurée, tandis que l'Arctique enregistrait la deuxième plus chaude. Même constat côté océans : hors régions polaires, la surface des mers affichait en moyenne 20,73 °C, un niveau parmi les plus élevés jamais observés.L'année 2025 n'a pas battu tous les records, mais elle a multiplié les signaux inquiétants. Janvier a été le plus chaud jamais mesuré. Plus de 90 % de la surface du globe a connu des températures supérieures à la moyenne récente, et près de la moitié des régions ont subi des anomalies très marquées. En février, l'étendue de la banquise mondiale a atteint son plus bas niveau depuis le début des observations satellites, dans les années 1970. L'Atlantique, lui aussi, a connu une chaleur record.Que signifie réellement ce seuil de +1,5 °C ? Il ne s'agit pas de la température moyenne de la planète, mais de l'augmentation par rapport à l'ère préindustrielle, entre 1850 et 1900. À cette époque, la température mondiale oscillait autour de 13,5 °C. Aujourd'hui, elle frôle les 15 °C. Pour certains scientifiques, trois années consécutives suffisent à acter l'échec de l'objectif de Paris ; d'autres estiment qu'il faudra attendre une décennie pour parler de dépassement durable. Copernicus rappelle que cette séquence exceptionnelle s'explique par la combinaison de facteurs bien connus : l'accumulation continue de gaz à effet de serre, la saturation progressive des puits naturels de carbone, et des océans anormalement chauds, notamment sous l'effet d'El Niño. Les variations naturelles jouent un rôle, mais la tendance de fond reste claire : la température mondiale grimpe, année après année, sous l'effet des activités humaines. Rien n'est pourtant irréversible. Selon les conclusions de la COP de 2024, une réduction de 43 % des émissions mondiales d'ici 2030 pourrait encore infléchir la trajectoire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La semaine dernière, Bruxelles et Pékin ont enfin esquissé une sortie de crise sur l'un des dossiers commerciaux les plus explosifs du moment : les surtaxes imposées aux véhicules électriques chinois entrant sur le marché européen. Après des mois de bras de fer, l'Union européenne et la Chine se sont entendues sur un mécanisme alternatif, destiné à remplacer les droits de douane punitifs. Un compromis fragile, qui comporte déjà une faille… mais une faille que l'Europe semble décidée à colmater rapidement.Le principe de l'accord est simple sur le papier : pour éviter des taxes élevées, les constructeurs chinois devront respecter un prix minimum de vente pour leurs voitures électriques, fixé en concertation avec les autorités européennes. En échange, ils pourront continuer à accéder au marché sans pénalités excessives, tout en s'engageant à investir localement. Problème : ce dispositif ne concerne que les modèles 100 % électriques. Les hybrides, pourtant omniprésents dans les catalogues chinois, échappent totalement au cadre. Une subtilité qui n'a pas échappé aux industriels. Comme l'a relevé le média spécialisé Automobile Propre, plusieurs marques chinoises ont déjà ajusté leur stratégie, étoffant rapidement leur offre hybride pour contourner les contraintes du nouvel accord et accélérer leur implantation en Europe. Résultat : Bruxelles se retrouve face à une brèche réglementaire trop tentante pour être ignorée.La Commission européenne envisage désormais d'intégrer les véhicules hybrides dans le périmètre du prix minimum. Objectif : rétablir une forme d'équité et éviter que l'accord ne soit vidé de sa substance. En procédant ainsi, l'exécutif européen ferait d'une pierre deux coups : fermer une échappatoire évidente et inciter davantage de constructeurs chinois à entrer dans un cadre négocié, assorti d'obligations d'investissements industriels sur le sol européen. L'enjeu est loin d'être théorique. Aujourd'hui, les marques chinoises représentent déjà plus de 5 % des ventes automobiles en Europe. Les projections les plus prudentes les placent au-delà de 10 % avant 2030. Dans ce contexte, chaque détail réglementaire compte.Reste que la négociation s'annonce délicate. Le climat géopolitique est tendu, et l'Europe avance sur une ligne de crête. Entre la pression commerciale venue de Pékin et les incertitudes liées à l'attitude de l'administration américaine — toujours marquée par l'héritage protectionniste de Donald Trump — Bruxelles doit arbitrer sans donner l'impression de subir. Une chose est sûre : sur le dossier automobile, la partie est loin d'être terminée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le nucléaire reste la colonne vertébrale de la production électrique française. Une énergie massive, pilotable, peu émettrice de CO₂. Mais avec un revers bien connu : des déchets radioactifs dont la dangerosité s'étale sur des durées vertigineuses. Parmi les radiations qu'ils émettent, il y a les rayons gamma, extrêmement pénétrants, aujourd'hui surtout exploités en médecine, notamment pour l'imagerie et certains traitements. Et si ces rayons pouvaient aussi produire de l'électricité ?C'est précisément la piste explorée par des chercheurs de Ohio State University, qui viennent de publier leurs travaux dans la revue Optical Materials: X. Leur idée : concevoir une batterie capable de transformer les rayonnements gamma en énergie électrique. Attention, on est encore loin de recharger une voiture électrique ou un smartphone. La puissance générée se compte en microwatts. Mais pour alimenter des capteurs autonomes, le concept est déjà opérationnel. Le dispositif repose sur un principe en deux temps. D'abord, les rayons gamma traversent des cristaux dits « scintillateurs », capables de convertir le rayonnement ionisant en lumière visible. Ensuite, cette lumière est captée par une cellule photovoltaïque classique, qui la transforme en courant électrique. Le prototype mis au point par l'équipe américaine est minuscule : à peine 4 centimètres cubes. Placé à proximité d'une source de césium-137, il a produit 288 nanowatts. Avec du cobalt-60, plus énergique, la puissance grimpe à 1,5 microwatt.Ces chiffres peuvent sembler anecdotiques, mais ils ouvrent une voie nouvelle. Cette batterie ne contient aucun matériau radioactif : elle se contente d'exploiter le rayonnement ambiant. Elle peut donc être manipulée sans risque et fonctionner pendant des années sans maintenance, tant que la source gamma est présente. Dans l'esprit des chercheurs, l'application est claire : alimenter des capteurs installés près de sites de stockage de déchets nucléaires, là où l'accès humain est limité et où remplacer des batteries classiques est coûteux et contraignant. Les prochaines étapes sont déjà identifiées. Augmenter la taille du dispositif pour gagner en puissance, mais surtout optimiser la forme, la composition et l'agencement des cristaux scintillateurs afin d'améliorer le rendement. À plus long terme, les scientifiques imaginent aussi des usages dans des environnements extrêmes : exploration spatiale, fonds marins, ou systèmes nucléaires isolés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La COP 30 l'a rappelé avec une certaine brutalité : la bonne volonté ne suffira pas à tenir les Accords de Paris. Pour sortir réellement des énergies fossiles, il faudra des solutions technologiques solides, déployables à grande échelle. Bonne nouvelle : sur ce terrain, la recherche avance vite, parfois très vite.Prenons le solaire. Les panneaux photovoltaïques classiques, majoritairement en silicium, butent sur une limite physique : ils ne captent pas l'ensemble du spectre lumineux du Soleil. Résultat, leur rendement plafonne autour de 25 %. Pour dépasser ce seuil, les chercheurs misent désormais sur des cellules hybrides, dites « tandem », associant silicium et pérovskite. La pérovskite absorbe très efficacement la lumière bleue, tandis que le silicium se charge des longueurs d'onde plus élevées. Chacun fait ce qu'il sait faire de mieux. Selon une étude publiée dans la revue Nature, ces cellules atteignent déjà près de 34 % de rendement en laboratoire. Les premières versions commerciales sont attendues dès cette année, ouvrant la voie à un solaire plus performant, mais aussi plus léger et potentiellement portable.Reste une question centrale : que faire de l'électricité quand le soleil ne brille pas ? Le stockage demeure le talon d'Achille des renouvelables. Les batteries lithium-ion dominent le marché, mais elles sont peu adaptées au stockage de longue durée. De nouvelles pistes émergent. Les batteries fer-air, développées notamment par la société américaine Form Energy, promettent jusqu'à 100 heures de stockage continu. Leur production a démarré en 2025 et doit monter en puissance cette année. Autre alternative sérieuse : le sodium-ion. Moins cher, plus abondant et plus sûr que le lithium, ce type de batterie entre en production de masse chez le géant chinois CATL dès cette année.Enfin, il y a le Graal énergétique : la fusion nucléaire. Les progrès sont réels, mais un verrou majeur subsiste : le tritium. Aujourd'hui, seuls quelques dizaines de kilos sont disponibles dans le monde, alors qu'un réacteur de fusion d'un gigawatt en consommerait jusqu'à 60 kilos par an. Pour résoudre cette équation, les laboratoires nucléaires canadiens et l'entreprise Kyoto Fusioneering lancent le projet Unity-2 en 2026. Objectif : créer une boucle fermée de production et de recyclage du tritium. Une étape indispensable pour espérer, un jour, faire de la fusion une source d'énergie propre, continue et réellement exploitable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Alors que les États-Unis s'apprêtent à renouer concrètement avec l'orbite lunaire, la NASA affine patiemment les contours de son programme Artemis. L'objectif ne se limite plus à planter un drapeau sur la Lune : il s'agit désormais d'y rester. Et rester implique une question centrale, presque triviale sur Terre mais cruciale à 380 000 kilomètres d'ici : comment produire de l'énergie de manière fiable et durable ? Parmi les options étudiées, le nucléaire s'impose de plus en plus comme une solution crédible.L'idée ne date pas d'hier. Depuis plusieurs années, l'agence spatiale américaine travaille sur des systèmes de fission nucléaire capables d'alimenter une ou plusieurs installations lunaires. Mais le calendrier s'est brutalement accéléré en décembre dernier, lorsque Donald Trump a signé un décret relançant officiellement l'ambition lunaire américaine : un retour d'astronautes sur le sol sélène dès 2028, puis l'installation d'un réacteur nucléaire à l'horizon 2030. Un cap politique clair, désormais assorti d'engagements concrets.Le 13 janvier, la NASA a ainsi signé un protocole d'accord avec le Department of Energy. Objectif : coordonner les efforts et tenir ce délai particulièrement ambitieux. Pour Jared Isaacman, administrateur de l'agence, le choix est presque évident : « Pour bâtir des infrastructures durables sur la Lune et préparer le chemin vers Mars, l'énergie nucléaire n'est pas une option parmi d'autres, c'est une nécessité. » Contrairement au solaire, dépendant de cycles jour-nuit extrêmes et de longues éclipses, un réacteur à fission peut fournir une électricité stable, continue, pendant des années, sans ravitaillement.Cette course énergétique lunaire ne se joue pas en solitaire. La Chine affiche des ambitions comparables et prévoit elle aussi une base lunaire alimentée par un réacteur nucléaire. Pékin a déjà annoncé plusieurs missions préparatoires, dont une étape clé programmée dès cette année, signe que la compétition technologique et stratégique s'intensifie. Côté américain, l'échéance se rapproche. Dans les prochaines semaines, les astronautes Jeremy Hansen, Victor Glover, Reid Wiseman et Christina Koch embarqueront à bord du vaisseau Orion pour une mission de dix jours autour de la Lune. Un vol sans alunissage, mais hautement symbolique : il servira de répétition générale avant le retour officiel de l'humanité sur la surface lunaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Faut-il redouter la recharge rapide quand on roule en électrique ? La question revient sans cesse, à mesure que les bornes ultrapuissantes se multiplient sur les routes. Pour y voir clair, Geotab, spécialiste de la gestion de flottes connectées, a publié une étude d'ampleur fondée sur les données de 22 700 véhicules électriques. Verdict : les batteries tiennent plutôt bien le choc, même si les recharges express ne sont pas totalement neutres.Premier enseignement : la perte moyenne de capacité atteint aujourd'hui 2,3 % par an. C'est un peu plus qu'en 2024, où Geotab mesurait 1,8 %. Cette hausse s'explique par des usages plus intensifs : davantage de kilomètres parcourus, plus de bornes rapides utilisées, et des véhicules désormais pleinement intégrés à la vie quotidienne. Concrètement, une batterie de 60 kWh qui descend à 80 % de santé équivaut encore à 48 kWh disponibles. L'autonomie baisse progressivement, mais reste largement suffisante pour les trajets courants. Rien d'alarmant, donc. Pour Charlotte Argue, responsable de la mobilité durable chez Geotab, « les batteries conservent des performances solides bien au-delà des horizons de remplacement souvent anticipés par les flottes ». L'analyse couvre 21 marques et modèles suivis sur plusieurs années grâce à la télématique embarquée.Le point sensible reste la recharge rapide. Les véhicules qui s'y appuient majoritairement, à plus de 100 kW, peuvent voir la dégradation grimper jusqu'à 3 % par an. À l'inverse, ceux qui privilégient la recharge lente à domicile tournent autour de 1,5 %. Faut-il alors bannir les bornes rapides ? Pas vraiment. Pour les professionnels et les gros rouleurs, le gain de temps et la meilleure disponibilité des véhicules compensent largement l'usure légèrement supérieure, au point de réduire le coût total par kilomètre sur la durée de vie.D'autres facteurs jouent, mais restent secondaires : le climat chaud ajoute environ 0,4 % de dégradation annuelle, l'usage intensif 0,8 %. La puissance de recharge demeure donc le levier principal. Bonne nouvelle : quelques ajustements suffisent. L'étude démonte au passage plusieurs idées reçues. Charger de presque vide à presque plein n'est pas un problème en soi. Ce qui fatigue vraiment la batterie, c'est de la laisser longtemps, et souvent, au-delà de 80 % ou en-dessous de 20 %. En clair, inutile de s'angoisser : rechargez doucement quand c'est possible, rapidement quand c'est nécessaire. Comme le résume Charlotte Argue, « tout est question d'équilibre entre contraintes opérationnelles et santé de la batterie ». Les données embarquées font le reste, pour ajuster ses habitudes sans se compliquer la vie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'intelligence artificielle générative repose aujourd'hui sur l'apprentissage profond, une technique qui imite, de loin, le fonctionnement du cerveau humain à l'aide de réseaux neuronaux artificiels. Mais là où notre cerveau se montre d'une sobriété remarquable, ces réseaux numériques se révèlent particulièrement gourmands en énergie, surtout lors de la phase d'entraînement, quand les modèles apprennent à reconnaître des images, du texte ou des sons. Un talon d'Achille bien connu, à l'heure où l'empreinte énergétique de l'IA inquiète de plus en plus.C'est précisément sur ce point que se sont penchés des chercheurs de l'Université de Bonn. Leur travail, publié dans la revue scientifique Physical Review Letters, explore une piste alternative : les réseaux de neurones à impulsions artificiels, appelés SNN pour Spiking Neural Networks. Une approche inspirée beaucoup plus directement du vivant. Dans le cerveau biologique, les neurones ne transmettent pas de signaux continus. Ils communiquent par de brèves impulsions électriques, envoyées uniquement lorsque cela est nécessaire. À l'inverse, les réseaux neuronaux classiques utilisés en IA fonctionnent en flux permanent, ce qui explique en grande partie leur appétit énergétique. Les SNN, eux, ne déclenchent une activité que lorsqu'un seuil est franchi. Résultat : une consommation potentiellement bien plus faible.Jusqu'à présent, un obstacle majeur freinait leur adoption. Dans les réseaux classiques, l'apprentissage repose sur l'ajustement progressif de l'intensité des connexions entre neurones : on passe par exemple de 0,9 à 0,8. Or, dans un réseau à impulsions, pas de demi-mesure : soit le neurone émet une impulsion, soit il reste silencieux. Impossible, pensait-on, d'y appliquer les méthodes d'entraînement traditionnelles. C'est là que l'équipe de Bonn a fait une découverte clé. Si l'intensité d'une impulsion ne peut pas varier, son timing, lui, le peut. Plus la connexion entre deux neurones est forte, plus l'impulsion est émise rapidement. En jouant sur cette temporisation, les chercheurs ont montré qu'il est possible d'ajuster l'influence d'un neurone sur un autre, et donc d'entraîner le réseau. « Nous pouvons utiliser les mêmes méthodes d'apprentissage conventionnelles, très efficaces, sur les réseaux à impulsions que nous avons étudiés », explique Christian Klos, l'un des auteurs.Les premiers résultats sont prometteurs : le réseau a déjà appris à reconnaître des chiffres manuscrits. Prochaine étape annoncée : la reconnaissance vocale. Si ces travaux se confirment à grande échelle, ils pourraient ouvrir la voie à des intelligences artificielles bien plus sobres, capables d'apprendre en consommant nettement moins d'énergie. Un changement discret, mais potentiellement décisif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'intelligence artificielle a un appétit vorace, et Meta a décidé d'y répondre avec une énergie qui ne connaît ni intermittence ni demi-mesure : le nucléaire. Pour alimenter ses data centers et ses supercalculateurs, le groupe de Meta vient de conclure trois accords majeurs aux États-Unis, mêlant prolongation de centrales existantes et financement de réacteurs de nouvelle génération. Objectif : sécuriser, sur plusieurs décennies, l'électricité nécessaire à ses ambitions dans l'IA.Premier pilier de cette stratégie, un partenariat avec TerraPower, la société fondée par Bill Gates. Meta va soutenir le développement de huit réacteurs Natrium, capables de monter jusqu'à 2,8 gigawatts de puissance, assortis de 1,2 gigawatt de stockage intégré. Les deux premières unités pourraient fournir 690 mégawatts dès 2032, les six suivantes devant entrer en service d'ici 2035. Ces réacteurs se distinguent par une conception pensée pour la flexibilité : plus sûrs, plus réactifs face aux variations de demande, et plus faciles à intégrer au réseau existant.Deuxième axe, l'alliance avec Oklo, spécialiste des petits réacteurs modulaires. L'entreprise prévoit de bâtir un véritable campus nucléaire dans le comté de Pike, dans l'Ohio. À terme, jusqu'à 1,2 gigawatt pourraient être injectés dans le réseau PJM dès 2030. Mais l'accord le plus spectaculaire concerne trois centrales nucléaires vieillissantes exploitées par Vistra : Perry et Davis-Besse, dans l'Ohio, et Beaver Valley, en Pennsylvanie. Menacées de fermeture, elles bénéficieront d'un contrat d'achat d'électricité sur vingt ans, garantissant 2,1 gigawatts stables, assortis d'extensions de capacité totalisant 433 mégawatts. Une puissance supplémentaire qui profitera à l'ensemble du réseau régional.Toute cette énergie converge vers une cible bien précise : Prometheus, le méga-centre de calcul IA de Meta à New Albany, appelé à fonctionner en continu. Contrairement aux renouvelables, le nucléaire offre un courant constant, indispensable pour entraîner des modèles d'IA à grande échelle. Meta insiste sur un point : l'entreprise finance intégralement ces accords, sans faire peser la charge sur les consommateurs locaux. Mieux, les nouvelles capacités ajoutées pourraient contribuer à stabiliser les prix de l'électricité et créer des milliers d'emplois. Avec cet investissement hors norme, complété par un précédent accord avec Constellation Energy pour prolonger la centrale de Clinton dans l'Illinois, Meta s'impose désormais comme l'un des moteurs privés du renouveau nucléaire américain. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Assainir un terrain pollué sans le retourner à coups de pelleteuse ni faire défiler des centaines de camions : c'est la promesse affichée par MP Geotex, présente cette semaine au CES Las Vegas. La PME française y dévoile MP Cocoon, une technologie de dépollution in situ qui entend changer la logique classique du secteur, y compris face aux PFAS, ces fameux « polluants éternels » devenus un casse-tête sanitaire et réglementaire.Traditionnellement, dépolluer un sol revient à l'extraire, le transporter, puis le traiter ailleurs. Une méthode lourde, coûteuse et très émettrice de carbone. MP Geotex prend le problème à l'envers. Son dispositif encapsule les terres contaminées directement sur place et déclenche une série de traitements ciblés pour neutraliser les polluants, sans déplacer la moindre pelletée. Le cœur du système repose sur un géosynthétique issu de cinq années de recherche : il isole le sol, empêche toute migration des contaminants et crée ce que l'entreprise appelle une « cellule intelligente ».À l'intérieur, plusieurs leviers agissent simultanément. Les polluants biodégradables sont traités par des mécanismes biologiques et fongiques. Les substances les plus persistantes, comme les métaux lourds ou les PFAS, sont capturées grâce à des biocharbons et des médias techniques capables de les fixer durablement. Un réseau d'oxygénation maintient l'activité biologique dans la durée, garantissant un traitement en profondeur. Pour Patrice Cheval, dirigeant du groupe Sapiens, maison mère de MP Geotex, l'enjeu est clair : « Il est désormais possible de dépolluer efficacement sans déplacer des milliers de tonnes de terre. L'innovation environnementale doit être pragmatique et immédiatement utile aux territoires. »L'intérêt économique est évident. En supprimant les opérations d'excavation et de transport, les coûts fondent, tout comme les délais. Un terrain traité avec MP Cocoon peut redevenir exploitable bien plus rapidement, un argument de poids pour les aménageurs et les collectivités. Sur le plan environnemental, le gain est tout aussi net : moins de camions, moins d'énergie consommée, et une empreinte carbone fortement réduite. Avec cinq millions d'euros de chiffre d'affaires en 2024, MP Geotex voit plus loin que l'Hexagone. En venant à Las Vegas, l'entreprise affiche clairement ses ambitions internationales. Elle espère convaincre les grands acteurs de l'ingénierie environnementale et imposer MP Cocoon comme une référence mondiale, à l'heure où la réglementation sur les PFAS se durcit partout dans le monde. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tout commence à la fin de l'année 2013. Dans une relative discrétion, la Chine lance alors l'un des plus vastes chantiers maritimes de l'histoire contemporaine : le remblaiement massif de récifs coralliens dans les archipels de îles Spratleys et des îles Paracels. En moins de vingt mois, entre décembre 2013 et juin 2015, Pékin transforme sept récifs en terres émergées. Le bilan est spectaculaire : plus de 12 kilomètres carrés de surfaces artificielles créées, soit dix-sept fois plus que l'ensemble des revendications territoriales cumulées de ses voisins sur quarante ans, selon les autorités américaines.Depuis, la dynamique ne s'est jamais vraiment interrompue. Les nouvelles îles sont progressivement durcies : pistes d'atterrissage, ports en eau profonde, hangars, radars et infrastructures militaires s'y succèdent. Les images satellites accessibles via Google Earth offrent un témoignage saisissant : on y voit littéralement la mer reculer, remplacée par du béton et de l'asphalte. La technique, elle, est simple mais redoutablement efficace : dragage du fond marin, pompage des sédiments, confinement par digues, compactage industriel, puis aménagements lourds. Une démonstration de puissance logistique assumée.Officiellement, Pékin plaide un usage civil : secours en mer, recherche scientifique, pêche, sécurité de la navigation, observation météorologique. Et, en filigrane, une capacité de défense « si nécessaire ». Un discours qui peine à convaincre. Les Philippines, le Vietnam, Taïwan ou encore le Japon y voient une stratégie d'appropriation unilatérale d'eaux disputées. Tokyo parle même d'une projection militaire permanente capable de contrôler l'ensemble de la mer de Chine méridionale. Les analyses du Center for Strategic and International Studies vont dans le même sens : sans ces îles artificielles, la présence chinoise durable dans la région serait beaucoup plus fragile.Mais derrière les enjeux militaires, un autre bilan s'impose : l'impact environnemental. Entre 12 et 18 kilomètres carrés de récifs coralliens, parmi les plus riches de la zone, ont été détruits. Les panaches de sédiments étouffent la vie marine bien au-delà des chantiers. Même certaines études chinoises reconnaissent un effondrement local des écosystèmes. Pékin, de son côté, relativise et renvoie la responsabilité vers le changement climatique global. Résultat : une mer artificiellement remodelée, devenue à la fois front stratégique et cimetière écologique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À mesure que la pression climatique s'intensifie, l'aviation se retrouve face à une équation redoutable : continuer à relier les territoires sans aggraver son empreinte carbone. Hydrogène, électrification totale, nouvelles architectures… les pistes se multiplient pour tenter de réinventer le transport aérien. Contrairement à une idée reçue, le développement du rail et des transports publics ne suffit pas à couvrir tous les besoins. Dans de nombreuses régions enclavées, peu denses ou montagneuses, l'avion reste parfois la seule option viable. Encore faut-il qu'il devienne plus propre, plus silencieux et économiquement accessible, sans exiger d'infrastructures lourdes.C'est précisément sur ce créneau que se positionne Eenuee, une start-up fondée en 2019 en région stéphanoise. Son ambition : électrifier l'aviation régionale avec un appareil certifiable, efficace et discret. Il y a quelques jours, l'entreprise a annoncé un partenariat stratégique avec Duqueine Group, spécialiste reconnu des matériaux composites. Objectif : accélérer le développement du Gen-e, un avion régional 100 % électrique, dont le premier vol est attendu à l'horizon 2029.Le cahier des charges est clair. L'appareil doit embarquer 19 passagers, afficher une autonomie d'environ 500 kilomètres en mode tout électrique et desservir des liaisons aujourd'hui délaissées par les compagnies traditionnelles faute de rentabilité. Autre atout : il pourra opérer depuis des infrastructures existantes, sans nécessiter la construction de nouveaux aéroports ou d'équipements coûteux. Pour des territoires comme l'Auvergne-Rhône-Alpes, où la topographie complique les déplacements, cette promesse de désenclavement à faible impact carbone est loin d'être anecdotique.Mais l'innovation ne s'arrête pas à la propulsion. Eenuee et Duqueine parient sur une architecture dite de « fuselage porteur ». Plus complexe à concevoir qu'un fuselage tubulaire classique, cette structure permet d'améliorer les performances aérodynamiques et l'efficacité énergétique globale. À cela s'ajoute un concept encore plus audacieux : une version capable de décoller et d'atterrir sur l'eau. Grâce à des hydrofoils — des ailes immergées générant de la portance — l'appareil réduit drastiquement les frottements au décollage, à la manière des bateaux de course.Cette polyvalence ouvre des perspectives commerciales inédites. L'avion pourrait opérer indifféremment depuis une piste ou un plan d'eau, sans démontage, ce qui le rend particulièrement attractif pour des régions comme l'Asie du Sud-Est, la Scandinavie ou le Canada. Contrairement aux hydravions classiques, coûteux à entretenir et limités à l'eau, le Gen-e promet des coûts d'exploitation réduits et une grande flexibilité. Une tentative sérieuse de prouver que l'aviation régionale peut encore avoir un avenir… à condition de le repenser en profondeur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Xiaomi poursuit son ascension éclair dans l'automobile électrique. Le groupe chinois a publié ses chiffres pour l'exercice 2025 et le cap symbolique est franchi : plus de 400 000 véhicules électriques ont été livrés en un an. Rien que sur le mois de décembre 2025, 50 000 unités ont quitté les chaînes, venant s'ajouter aux 361 625 véhicules écoulés entre janvier et novembre. Une performance qui confirme que Xiaomi n'est plus un simple outsider, mais un acteur industriel désormais installé.Derrière ce total flatteur se cache toutefois un déséquilibre marqué entre les modèles. La berline SU7, premier véhicule de la marque lancé en mars 2024, montre des signes d'essoufflement. En novembre 2025, elle s'est écoulée à 12 520 exemplaires. À l'inverse, le SUV YU7, arrivé sur le marché en juin 2025 pour aller chasser sur les terres du Tesla Model Y, affiche une dynamique spectaculaire : 33 729 livraisons sur le même mois. En six mois à peine, le YU7 a dépassé les 150 000 véhicules livrés, illustrant un basculement clair de la demande vers les SUV. À volumes comparables, la berline accuse désormais un retard de près de 63 % face à son grand frère utilitaire.Pour 2026, Xiaomi prépare un tournant stratégique. Le constructeur annonce l'arrivée de deux nouveaux modèles hybrides reposant sur une architecture EREV, pour « Extended Range Electric Vehicles ». Au programme : un grand SUV sept places et un SUV compact cinq places. Le principe diffère du tout électrique : un moteur thermique embarqué ne sert pas à entraîner les roues, mais agit comme générateur afin de recharger la batterie en roulant. Cette solution permet d'étendre fortement l'autonomie, au prix d'une mécanique plus complexe que celle des plateformes 100 % électriques SU7 et YU7. La berline SU7 n'est pas abandonnée pour autant. Un restylage est prévu en 2026, accompagné d'une déclinaison dite « executive », dont les caractéristiques techniques restent encore confidentielles.Côté distribution, Xiaomi reste pour l'instant concentré sur son marché domestique. Au 31 décembre 2025, le groupe comptait 477 points de vente dans 138 villes chinoises, ainsi que 264 centres de service après-vente. L'international est toutefois dans le viseur. Une arrivée en Europe est annoncée pour 2027, avec des essais déjà en cours en Allemagne afin de valider les normes de sécurité et d'homologation. Une étape indispensable avant de transformer ce succès chinois en ambition mondiale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une annonce qui pourrait marquer un tournant dans l'histoire de l'énergie solaire à grande échelle. Dans le désert d'Abou Dhabi, un projet inédit ambitionne de produire de l'électricité solaire en continu, jour et nuit, toute l'année. Baptisée Khazna Solar PV, cette méga-centrale est développée conjointement par Masdar, Engie et Emirates Water and Electricity Company. Sa mise en service est prévue pour 2027.Le pari est audacieux : fournir 1,5 gigawatt d'électricité décarbonée 24 heures sur 24, sans intermittence. À ce jour, aucun site solaire au monde n'a atteint un tel niveau de production continue à cette échelle. Pour y parvenir, Khazna Solar PV repose sur une combinaison massive de production et de stockage. Le site accueillera environ trois millions de panneaux photovoltaïques, capables de générer jusqu'à 5,2 GW en pointe, couplés à un système de batteries de 19 gigawattheures. Il s'agira, lors de sa mise en service, du plus vaste dispositif de stockage par batteries jamais déployé pour une centrale solaire.Cette capacité de stockage est la clé du projet. L'énergie produite le jour sera emmagasinée, puis restituée la nuit ou lors des périodes de moindre ensoleillement. Une architecture pensée pour lever l'un des principaux freins historiques du solaire : son caractère intermittent. Selon les promoteurs du projet, l'installation pourra alimenter environ 160 000 foyers aux Émirats arabes unis et éviter chaque année l'émission de plus de 2,4 millions de tonnes de CO₂, l'équivalent du retrait de près de 470 000 véhicules thermiques de la circulation.Khazna Solar PV s'appuie également sur une forte couche numérique. Les panneaux seront équipés de systèmes de suivi solaire, ajustant automatiquement leur orientation. Des capteurs connectés et des outils d'analyse de données surveilleront en temps réel les performances, la météo et l'état des équipements. Des robots assureront le nettoyage des panneaux, un enjeu crucial dans un environnement désertique. Au-delà du projet lui-même, les partenaires veulent démontrer qu'un modèle solaire pilotable, fiable et reproductible est désormais possible. À l'heure où la demande mondiale d'électricité explose, notamment sous l'effet des centres de données et de l'intelligence artificielle, Khazna Solar PV pourrait bien servir de vitrine à une nouvelle génération d'infrastructures solaires capables de rivaliser avec les sources d'énergie pilotables traditionnelles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Depuis quelques années, une idée jusque-là cantonnée à la science-fiction gagne du terrain dans certains cercles scientifiques et industriels : tenter de freiner le réchauffement climatique non pas en réduisant les émissions de gaz à effet de serre, mais en agissant directement sur le climat lui-même. Cette approche porte un nom : la géo-ingénierie. Et l'une de ses pistes les plus controversées consiste à injecter des particules dans l'atmosphère pour réfléchir une partie du rayonnement solaire.Le principe n'est pas totalement théorique. Lors de grandes éruptions volcaniques, le dioxyde de soufre projeté dans la stratosphère forme un voile d'aérosols qui refroidit temporairement la planète. Certains chercheurs envisagent donc de reproduire artificiellement ce phénomène. Problème : le dioxyde de soufre est loin d'être anodin. Il peut fragiliser la couche d'ozone, modifier les régimes de précipitations et provoquer des pluies acides. Autant de risques qui font hésiter une partie de la communauté scientifique.C'est dans ce contexte qu'une équipe de chercheurs s'est demandé s'il existait de meilleures alternatives. Dans une étude publiée dans Geophysical Research Letters, ils ont testé, à l'aide d'un modèle climatique en trois dimensions, plusieurs types de particules susceptibles d'être injectées dans l'atmosphère. Parmi elles : la calcite, l'aluminium, le carbure de silicium… et même la poussière de diamant. Sur le papier, le diamant coche beaucoup de cases. Il réfléchit efficacement la lumière et la chaleur, se disperse sans s'agglomérer, reste suffisamment longtemps dans l'atmosphère et, surtout, il est chimiquement inerte, ce qui limiterait les risques de réactions indésirables comme les pluies acides. Selon les simulations, injecter chaque année cinq millions de tonnes de poussière de diamant pendant quarante-cinq ans permettrait de faire baisser la température moyenne mondiale d'environ 1,6 °C.Mais le rêve s'arrête net au moment de sortir la calculatrice. Une telle opération coûterait près de 200 000 milliards de dollars. À titre de comparaison, la transition vers une économie bas carbone est estimée à moins de 10 000 milliards de dollars à l'échelle mondiale. La conclusion est sans appel : si la géo-ingénierie fascine par son audace, elle apparaît aujourd'hui comme une solution démesurément coûteuse et risquée. De quoi rappeler que, face au dérèglement climatique, réduire les émissions reste, de loin, l'option la plus réaliste. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Comme le rappelle le secrétaire général de Nations unies, la transition énergétique n'avance pas seulement à coups de discours écologiques : elle est d'abord guidée par l'argent. Et, pour une fois, les logiques financières et climatiques semblent s'aligner. En 2024, les énergies renouvelables ont franchi un cap décisif : elles sont devenues, tout simplement, plus rentables que les énergies fossiles.Les chiffres traduisent ce basculement. En un an, entre 2023 et 2024, la capacité mondiale de production d'énergies renouvelables a progressé de 20 %. Les investissements dans les énergies dites propres ont dépassé les 2 000 milliards de dollars, un record historique. Surtout, le différentiel de coûts s'est creusé : produire de l'électricité solaire coûte désormais 41 % moins cher que de recourir aux énergies fossiles. L'éolien fait encore mieux, avec un coût inférieur de 53 %. Résultat : 90 % des nouvelles capacités renouvelables installées dans le monde sont aujourd'hui plus compétitives que le charbon, le pétrole ou le gaz.Cette dynamique a déjà des effets visibles. Les énergies renouvelables assurent désormais environ un tiers de la production mondiale d'électricité. Un seuil symbolique, qui marque l'entrée dans ce que l'ONU qualifie de « nouvelle ère énergétique ». Loin d'être un pari risqué ou une contrainte réglementaire, le renouvelable est devenu un choix rationnel pour les investisseurs, soucieux de rendement et de stabilité à long terme.Selon les Nations unies, ce mouvement est désormais difficile à enrayer. « L'âge des énergies fossiles s'effondre un peu plus chaque jour », résume l'organisation. Sans nier les résistances politiques ni les tensions géopolitiques autour de l'énergie, l'ONU estime que la transition est engagée sur une trajectoire irréversible. Non pas parce que le monde serait soudainement devenu vertueux, mais parce que l'économie a changé de camp. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Il n'existerait pas d'hydrogène à l'état naturel sur Terre : pendant longtemps, cette idée a fait figure de vérité scientifique. Et pourtant, les faits racontent une autre histoire. Dès le début du XXᵉ siècle, des émanations d'hydrogène ont été observées en France. À partir des années 1970, les chercheurs commencent à identifier, un peu partout sur la planète, des poches d'hydrogène naturel – désormais baptisé hydrogène blanc – depuis les fonds océaniques jusqu'à la croûte continentale. Longtemps restées marginales, ces découvertes prennent aujourd'hui une tout autre dimension.Car dans un monde engagé dans une course contre la montre pour décarboner ses économies, l'hydrogène naturel apparaît comme une ressource providentielle. L'hydrogène industriel actuel, dit « gris », est produit à partir de ressources fossiles et génère près de dix kilos de CO₂ pour chaque kilo d'hydrogène. Un hydrogène bas carbone pourrait, lui, transformer l'industrie, les transports, voire la production d'électricité. Résultat : la ruée est lancée. Des forages exploratoires sont en cours en Australie et aux États-Unis. En France, plusieurs permis ont été délivrés, notamment dans les Pyrénées-Atlantiques et les Landes. Plus spectaculaire encore : l'annonce récente d'un gisement estimé à 46 millions de tonnes d'hydrogène naturel dans le sous-sol de la Moselle. À titre de comparaison, la consommation mondiale d'hydrogène atteignait environ 90 millions de tonnes en 2022.C'est dans ce contexte que des chercheurs de l'University of Oxford, de l'University of Durham et de l'University of Toronto publient des travaux majeurs. Leur étude identifie les conditions géologiques nécessaires à la formation et à l'accumulation de l'hydrogène blanc. Et leur conclusion est vertigineuse : les environnements favorables seraient répandus à l'échelle mondiale, avec un potentiel capable de couvrir nos besoins énergétiques pendant… 170 000 ans. Les chercheurs expliquent désormais comment l'hydrogène se forme, migre à travers les roches et se retrouve piégé, mais aussi ce qui peut le faire disparaître, comme certains microbes qui s'en nourrissent. Ces avancées offrent une véritable feuille de route aux industriels de l'exploration. Tout n'est pas encore connu : l'efficacité exacte des réactions chimiques ou l'influence de l'histoire géologique restent à préciser. Mais l'essentiel est là. « Trouver de l'hydrogène, c'est comme réussir un soufflé », résume le géochimiste Chris Ballentine : il faut les bons ingrédients, au bon moment. Une recette que la science commence enfin à maîtriser, ouvrant la voie à une nouvelle ère énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pour faire tourner l'intelligence artificielle, il ne suffit pas d'aligner des serveurs. Il faut surtout les refroidir. Et c'est là que le bât blesse. Selon un rapport de l'International Energy Agency, les centres de données ont consommé 415 térawattheures d'électricité dans le monde en 2024, soit quasiment l'équivalent de la consommation annuelle de la France. D'ici 2030, cette demande pourrait plus que doubler, pour atteindre 945 TWh, portée en grande partie par l'explosion des usages liés à l'IA. Une trajectoire énergivore, qui interroge la soutenabilité à long terme du modèle actuel.Face à ce mur énergétique, des chercheurs explorent des pistes radicalement nouvelles. À l'University of Houston, une équipe du département d'ingénierie biomoléculaire vient de mettre au point un matériau inédit pour les puces électroniques. Il s'agit d'un isolant bidimensionnel ultrafin, dit « Low-K », c'est-à-dire à faible constante diélectrique. Concrètement, ce matériau ne conduit pas l'électricité, mais laisse circuler les forces électrostatiques nécessaires au fonctionnement des circuits.Pourquoi est-ce crucial ? Parce que dans les puces actuelles, une grande partie de la chaleur provient justement des interférences électriques entre composants. En réduisant ces interactions parasites, cet isolant permet aux processeurs de fonctionner à haute vitesse tout en produisant beaucoup moins de chaleur. Résultat : des serveurs plus efficaces, qui nécessitent moins de refroidissement, donc moins d'électricité, sans sacrifier les performances. Pour fabriquer ces films Low-K, les chercheurs ont utilisé une technique appelée « polymérisation interfaciale synthétique », popularisée notamment par le chimiste Omar M. Yaghi, prix Nobel de chimie 2025. Le principe : assembler des briques moléculaires légères, comme le carbone, un peu à la manière d'un jeu de Lego à l'échelle atomique. On obtient ainsi des feuillets cristallins ultrarésistants, capables de supporter des températures élevées tout en maintenant une excellente stabilité électrique.Ces nouveaux isolants offrent un double avantage. D'un côté, ils améliorent la dissipation thermique dans les centres de données dédiés à l'IA. De l'autre, ils pourraient à terme bénéficier à toute l'électronique grand public, des smartphones aux ordinateurs. Si la technologie passe le cap de l'industrialisation, elle pourrait devenir l'un des leviers clés pour freiner l'explosion énergétique de l'intelligence artificielle — et rappeler que l'innovation matérielle reste aussi stratégique que les algorithmes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À mesure que l'intelligence artificielle s'impose dans tous les services numériques, la facture énergétique de Google enfle à une vitesse vertigineuse. Recherche assistée par IA, modèles génératifs, services cloud : chaque requête mobilise des milliers de processeurs et alourdit un peu plus la consommation électrique du géant californien. Pour sécuriser cet appétit énergétique hors normes, Google change de stratégie : produire lui-même l'électricité dont ses centres de données ont besoin.C'est dans ce contexte qu'Alphabet, la maison mère de Google, négocie le rachat d'Intersect, une entreprise américaine spécialisée dans la colocalisation d'infrastructures énergétiques et numériques. L'opération pourrait atteindre 4,75 milliards de dollars, dettes comprises. Un investissement massif, mais stratégique. Car Intersect ne se contente pas de bâtir des data centers classiques : son modèle consiste à installer directement les serveurs à proximité immédiate de centrales électriques dédiées. Résultat : des capacités de calcul qui sortent de terre sans peser sur les réseaux publics déjà saturés.Intersect revendique aujourd'hui près de 15 milliards de dollars d'actifs en exploitation ou en construction aux États-Unis. Google, déjà actionnaire minoritaire, souhaite désormais prendre le contrôle total de l'entreprise. Son fondateur, Sheldon Kimber, resterait aux commandes, mais la société deviendrait un pilier de la stratégie énergétique d'Alphabet. Un premier projet emblématique est déjà en cours dans le comté de Haskell, au Texas : une centrale électrique et un centre de données y sont construits côte à côte pour alimenter directement les services d'IA du groupe. L'enjeu est colossal. Selon plusieurs autorités de régulation, chaque interaction avec des outils comme Gemini entraîne une consommation bien supérieure à celle d'une recherche classique. Sundar Pichai, PDG d'Alphabet, estime que ce modèle permettra à Google de gagner en agilité en développant simultanément production électrique et capacités de calcul. Le groupe ne mise pas uniquement sur le gaz : géothermie de nouvelle génération, batteries géantes pour le stockage longue durée et gaz couplé à la capture de carbone font partie de la feuille de route.Ironie du sort, Google utilise aussi ses propres algorithmes d'IA pour accélérer le raccordement des nouvelles centrales au réseau : l'intelligence artificielle aide ainsi à bâtir les infrastructures énergétiques qui l'alimenteront demain. Si le rachat obtient le feu vert des régulateurs, il devrait être finalisé au premier semestre 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.