Choses à Savoir TECH VERTE

Follow Choses à Savoir TECH VERTE
Share on
Copy link to clipboard

Tout ce qu'il faut savoir dans le domaine de la Green Tech.

Choses à Savoir


    • Mar 25, 2026 LATEST EPISODE
    • weekdays NEW EPISODES
    • 2m AVG DURATION
    • 1,649 EPISODES


    More podcasts from Choses à Savoir

    Search for episodes from Choses à Savoir TECH VERTE with a specific topic:

    Latest episodes from Choses à Savoir TECH VERTE

    Une entreprise recycle gravats, semelles et pastiques en mobilier ?

    Play Episode Listen Later Mar 25, 2026 2:42


    Chaque 18 mars, la Journée mondiale du recyclage rappelle l'importance de repenser notre rapport aux déchets. Créée en 1994 aux États-Unis, elle s'est internationalisée en 2018 sous l'impulsion du Bureau of International Recycling. En France, elle en est aujourd'hui à sa cinquième édition. L'occasion de mettre en lumière des initiatives qui transforment nos rebuts… en ressources.Parmi elles, le travail du studio Bentu Design illustre une approche à la fois technique et esthétique du recyclage. À première vue, leurs créations semblent simples : des chaises, des tabourets. Mais leur fabrication raconte une autre histoire. Ces objets sont conçus à partir de déchets de chantiers urbains : béton, briques, gravats ou mortiers. Une fois récupérés, ces matériaux sont triés, broyés puis intégrés dans un mélange cimentaire utilisé pour l'impression 3D. Cette technique consiste à fabriquer un objet couche par couche à partir d'un matériau injecté, ici enrichi jusqu'à 85 % de déchets solides recyclés. Ce procédé présente plusieurs avantages. Il limite les transports — les matériaux sont issus du même environnement urbain — et réduit les émissions de CO₂ de 65 à 80 % par rapport à une production industrielle classique. Le taux d'utilisation de la matière atteint, lui, 92 %, ce qui réduit considérablement les pertes.Mais Bentu Design ne s'arrête pas aux déchets minéraux. Le studio explore aussi le potentiel du plastique urbain recyclé. Plutôt que de le considérer comme un problème, il le transforme en mobilier du quotidien. Les matériaux sont triés par type et par couleur, puis assemblés pour créer des pièces uniques, où chaque nuance raconte l'origine des fragments utilisés. Autre exemple : le tabouret Wu, fabriqué à partir de semelles de chaussures usagées. Un objet de 17 kilos, composé à 90 % de cette matière, soit l'équivalent d'une soixantaine de semelles. Un choix loin d'être anodin, quand on sait que plus de 20 milliards de paires de chaussures sont produites chaque année dans le monde, la plupart finissant incinérées ou en décharge.Au-delà de l'aspect environnemental, ces objets sont pensés pour être pratiques, modulables et durables, utilisables aussi bien en intérieur qu'en extérieur. À travers ces créations, Bentu Design propose une autre lecture du déchet : non plus comme une fin, mais comme le point de départ d'un nouveau cycle. Une manière concrète de montrer que recycler, ce n'est pas seulement traiter nos déchets… c'est aussi réinventer leur usage. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    La Corée créé un robot électronique entièrement compostable ?

    Play Episode Listen Later Mar 24, 2026 2:27


    Chaque année, nous produisons toujours plus de déchets électroniques. En moyenne, près de huit kilos par personne. À l'échelle mondiale, cela représentait déjà 62 millions de tonnes en 2022. Et le rythme s'accélère : ces déchets augmentent cinq fois plus vite que les capacités de recyclage. Résultat, une grande partie finit enfouie ou incinérée.Le problème est bien connu : nos appareils électroniques sont extrêmement difficiles à recycler. Ils combinent des matériaux très différents, métaux, plastiques, semi-conducteurs, étroitement imbriqués. Et c'est encore plus vrai pour les robots souples, ces machines flexibles utilisées en agriculture ou en médecine. Leur structure repose sur des polymères complexes, mélangés à des composants électroniques classiques, ce qui rend leur traitement en fin de vie particulièrement compliqué.Mais une équipe de chercheurs sud-coréens, issue de l'université nationale de Séoul et de l'université Sogang, propose une piste radicalement différente : concevoir des robots entièrement biodégradables. Leur prototype, présenté dans la revue Nature Sustainability, repose sur un matériau clé : le poly(sébacate de glycérol), ou PGS. Il s'agit d'un élastomère, un matériau souple proche du caoutchouc, mais surtout biodégradable. Contrairement aux plastiques traditionnels, il peut se décomposer naturellement dans certaines conditions. Les chercheurs ne se sont pas arrêtés là. Ils ont également intégré des composants électroniques eux aussi conçus pour disparaître : des éléments à base de magnésium, de molybdène et de silicium, capables de se dégrader sans laisser de résidus toxiques.Malgré cette conception « éphémère », les performances sont au rendez-vous. Le robot peut embarquer des capteurs, température, humidité, des systèmes chauffants ou encore des dispositifs capables d'administrer des médicaments. Et surtout, il reste fonctionnel même après un million de cycles d'utilisation, ce qui témoigne d'une robustesse réelle. Une fois sa mission terminée, il suffit de le placer dans un environnement de compostage industriel, un procédé contrôlé qui accélère la décomposition des matières organiques, pour qu'il se désagrège complètement en quelques mois, sans impact environnemental notable. L'idée est simple, mais puissante : concevoir des machines capables de remplir leur rôle… puis de disparaître.Dans un monde confronté à une explosion des déchets électroniques, cette approche pourrait ouvrir une nouvelle voie : celle d'une technologie pensée non seulement pour être performante, mais aussi pour retourner à la nature une fois devenue inutile. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Turkménistan : bombe climatique à retardement ?

    Play Episode Listen Later Mar 23, 2026 2:17


    Le méthane est souvent moins médiatisé que le dioxyde de carbone, mais son rôle dans le réchauffement climatique est crucial. C'est même le deuxième gaz à effet de serre le plus important, responsable d'environ un quart du réchauffement d'origine humaine. Sa particularité ? Une durée de vie plus courte dans l'atmosphère, mais un pouvoir réchauffant extrêmement élevé : sur vingt ans, il retient jusqu'à 86 fois plus de chaleur que le CO₂ à masse égale.Pour mieux comprendre d'où viennent ces émissions, des chercheurs de l'université de Californie à Los Angeles ont mené une enquête inédite à l'aide de satellites d'observation. Ces instruments permettent de détecter depuis l'espace des « panaches » de méthane — autrement dit des fuites invisibles à l'œil nu, mais mesurables grâce à leur signature chimique.Leur analyse, portant sur l'année 2025, identifie les 25 sites industriels les plus polluants au monde dans le secteur du pétrole et du gaz. Et le résultat est frappant : 15 de ces 25 “super-émetteurs” se trouvent au Turkménistan, un pays rarement évoqué dans les débats climatiques. Les deux sites les plus émetteurs, situés dans la ville d'Esenguly, rejettent chacun plus de 10 tonnes de méthane par heure. Derrière, on retrouve plusieurs installations au Venezuela et en Iran. Un seul site américain figure dans le classement : à Stanton, au Texas, avec environ 5,5 tonnes par heure.À l'échelle climatique, ces chiffres sont vertigineux. Une fuite moyenne de ce classement — autour de 5 tonnes par heure — peut avoir, sur une année, le même impact qu'une centrale à charbon ou qu'un million de SUV. Le plus frappant, c'est que ces émissions ne sont pas inévitables. Selon les chercheurs, elles proviennent essentiellement d'infrastructures vieillissantes ou mal entretenues. En clair, des équipements défectueux qui laissent échapper du gaz… qui pourrait pourtant être capté et revendu.Autrement dit, une partie du problème pourrait être résolue avec des réparations relativement simples. Cette étude met en lumière un enjeu clé : réduire les fuites de méthane est l'un des moyens les plus rapides d'agir sur le climat à court terme. Car contrairement au CO₂, ses effets diminuent rapidement si les émissions baissent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Océans et mers sont plus pollués qu'on ne l'imagine ?

    Play Episode Listen Later Mar 22, 2026 2:32


    Une équipe de chercheurs américains, dirigée notamment par l'océanographe Lihini Aluwihare, vient de publier l'une des analyses chimiques les plus vastes jamais menées sur les océans. Plus de 2 300 échantillons d'eau de mer, prélevés entre 2017 et 2022 aux quatre coins du globe, ont été passés au crible. Et le constat est sans appel : l'empreinte chimique humaine est désormais omniprésente dans les mers.Pour parvenir à ce résultat, les scientifiques ont utilisé une méthode dite « non ciblée ». Contrairement aux analyses classiques, qui recherchent des substances précises, cette approche permet de détecter simultanément des milliers de composés, même inconnus au départ. Grâce à une technique appelée spectrométrie de masse, qui identifie les molécules en fonction de leur masse, les chercheurs ont mis en évidence 248 substances d'origine humaine. Parmi elles, des additifs plastiques, des lubrifiants industriels, des résidus de médicaments ou encore des pesticides. Autant de composés qui, pour beaucoup, étaient jusqu'ici peu surveillés. Le plus frappant, c'est leur diffusion. Les cinq substances les plus fréquentes ont été retrouvées dans plus de 30 % des échantillons, y compris en pleine haute mer. Près des côtes, les analyses révèlent davantage de traces de médicaments, comme des anxiolytiques, ou de répulsifs anti-insectes comme le DEET. Dans les estuaires, zones de transition entre fleuves et océans, les composés de synthèse peuvent représenter jusqu'à 76 % des substances détectées. Même les régions les plus isolées, comme certains récifs coralliens éloignés, ne sont pas épargnées.Pour les chercheurs, le plus préoccupant n'est pas seulement la quantité, mais l'ampleur de la dispersion. En haute mer, ces substances ne représentent parfois que 0,5 à 4 % des composés présents. Des chiffres faibles en apparence, mais qui témoignent d'une contamination globale. Et il reste des angles morts. Certaines molécules, comme les PFAS, ces « polluants éternels » très persistants, échappent encore aux méthodes actuelles. D'autres ne figurent pas dans les bases de données utilisées pour les identifier.Reste une question essentielle : quel impact sur les écosystèmes ? Les scientifiques reconnaissent qu'ils ne disposent pas encore de toutes les réponses. Mais une chose est sûre : ces composés, appelés xénobiotiques, s'accumulent et pourraient influencer le fonctionnement des océans, notamment le cycle du carbone. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Le retour d'El Niño va avoir d'énormes effets sur l'énergie solaire ?

    Play Episode Listen Later Mar 19, 2026 3:05


    Parmi toutes les énergies renouvelables, le solaire photovoltaïque apparaît aujourd'hui comme l'un des piliers de la transition énergétique. Selon l'ONU, début 2026, produire de l'électricité grâce au Soleil est désormais environ 41 % moins coûteux que les énergies fossiles. Un basculement économique majeur qui explique l'essor rapide de cette technologie dans de nombreux pays.Le potentiel est colossal. Chaque seconde, la Terre reçoit une quantité d'énergie solaire équivalente à près de 8 000 fois la consommation énergétique annuelle de l'humanité. Sur le papier, la ressource semble donc presque inépuisable. Pourtant, dans la pratique, la production solaire reste sensible aux caprices du climat. Des températures extrêmes peuvent réduire le rendement des panneaux, et des événements violents comme la grêle peuvent endommager des installations entières. Mais un autre facteur, moins connu, influence aussi la production d'électricité solaire : le cycle climatique El Niño – La Niña, souvent appelé ENSO par les climatologues. Une nouvelle étude publiée dans la revue Communications Earth & Environment montre que ce phénomène naturel peut modifier significativement l'ensoleillement à l'échelle mondiale.ENSO est l'une des principales sources de variabilité naturelle du climat. Il alterne entre deux phases : La Niña, associée à des eaux plus froides dans le Pacifique équatorial, et El Niño, caractérisée par un réchauffement de cette zone. Alors que La Niña touche actuellement à sa fin, les scientifiques anticipent un retour d'El Niño entre l'été et l'automne 2026. Or, selon les chercheurs, ces épisodes ont tendance à réduire l'irradiation solaire, c'est-à-dire la quantité de rayonnement qui atteint la surface de la Terre. L'analyse de données climatiques couvrant près de quarante ans montre que les épisodes El Niño provoquent des baisses persistantes de production solaire dans plusieurs grandes régions productrices : la Californie, le sud du désert d'Atacama, le bassin du Chaco en Amérique du Sud, le Moyen-Orient ou encore l'est de la Chine.Le phénomène s'explique notamment par l'augmentation de l'humidité dans l'atmosphère. El Niño modifie la circulation des masses d'air et favorise la formation de nuages, ce qui réduit la quantité de lumière atteignant les panneaux photovoltaïques. Les effets pourraient être particulièrement marqués lors des rares épisodes dits de « super El Niño ». Depuis les années 1980, seulement trois ont été observés. Selon l'étude, ces épisodes pourraient entraîner une baisse significative de la production solaire mondiale, obligeant temporairement certains pays à recourir davantage aux énergies fossiles et augmentant les émissions de CO₂ de plusieurs dizaines de millions de tonnes. En France, l'impact direct semble plus limité en été. En revanche, durant l'automne et l'hiver, El Niño est souvent associé à un ciel plus nuageux et à des conditions plus humides, ce qui pourrait aussi influencer, modestement, la production solaire nationale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Cette startup va renvoyer le Soleil sur Terre la nuit ?

    Play Episode Listen Later Mar 18, 2026 2:56


    Produire de l'électricité grâce au Soleil… même en pleine nuit. L'idée peut sembler paradoxale, et pourtant une start-up américaine veut tenter l'expérience. Son nom : Reflect Orbital. Son projet : envoyer dans l'espace des milliers de miroirs capables de rediriger la lumière solaire vers la Terre après le coucher du soleil.Le concept est simple sur le papier. Plutôt que de produire de l'énergie directement dans l'espace — comme certains projets de centrales solaires orbitales qui envisagent ensuite de transmettre l'électricité vers la Terre — Reflect Orbital propose de faire l'inverse : renvoyer la lumière du Soleil vers la surface terrestre, afin d'éclairer des zones plongées dans la nuit. Pour y parvenir, l'entreprise californienne envisage de déployer jusqu'à 50 000 miroirs en orbite terrestre. Ces satellites fonctionneraient comme des réflecteurs géants capables de rediriger la lumière vers des zones ciblées au sol.Selon le New York Times, la société se prépare déjà à lancer un premier prototype : un miroir d'environ 18 mètres de large. Mais avant cela, elle doit obtenir l'autorisation de la Federal Communications Commission, l'autorité américaine chargée notamment de réguler les communications et les satellites. Si le projet est validé, Reflect Orbital prévoit d'envoyer environ 1 000 satellites d'ici 2028. Chacun serait capable d'éclairer une zone d'environ 5 kilomètres de diamètre.Les premiers tests seraient modestes. L'objectif est d'atteindre cette année une intensité lumineuse de 0,1 lux pendant cinq minutes, soit à peu près l'équivalent de la lumière d'une pleine lune. Mais l'entreprise voit plus grand. Elle vise 100 lux en 2028, 5 000 lux en 2030, puis 36 000 lux d'ici 2035 lorsque la constellation complète sera opérationnelle. À titre de comparaison, 36 000 lux correspondent à un niveau de luminosité proche d'un plein soleil en journée.La lumière deviendrait alors un service commercial : éclairer des fermes solaires pour produire de l'électricité la nuit, soutenir des opérations de secours, illuminer des villes ou encore stimuler la production agricole. Mais ce projet suscite aussi des critiques. Des scientifiques et des environnementalistes s'inquiètent de ses effets potentiels. Une lumière artificielle venue du ciel pourrait perturber les observations astronomiques, distraire les pilotes d'avion ou encore modifier les rythmes biologiques des animaux et des plantes. L'astronome Michael Brown, de l'université Monash, se montre également sceptique sur les calculs de l'entreprise. Selon lui, plus de 3 000 satellites seraient nécessaires pour produire seulement 20 % de l'ensoleillement de midi sur un seul site. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Une puce alimentée par la lumière ?

    Play Episode Listen Later Mar 17, 2026 3:02


    L'essor de l'intelligence artificielle pose un défi de plus en plus visible : son appétit énergétique. Les modèles d'IA nécessitent d'énormes quantités de calculs informatiques, et ces calculs demandent à la fois de l'électricité pour alimenter les serveurs… et encore plus d'énergie pour refroidir les centres de données où ces machines fonctionnent en continu.Pour tenter de réduire cette consommation, des chercheurs de l'université de Sydney explorent une piste radicalement différente : remplacer l'électricité par la lumière pour effectuer certains calculs. Dans une étude publiée dans la revue Nature Communications, ils présentent un prototype de puce photonique, spécialement conçue pour l'intelligence artificielle. Le principe repose sur une idée simple mais ambitieuse. Dans les processeurs traditionnels, les calculs sont réalisés grâce au déplacement d'électrons dans des circuits électriques. La puce développée par les chercheurs, elle, utilise des photons, les particules de lumière, pour traiter l'information.Cette approche présente plusieurs avantages. D'abord la vitesse : la lumière se déplace extrêmement rapidement, ce qui permet d'effectuer certains calculs en quelques picosecondes, c'est-à-dire en un millième de milliardième de seconde. Ensuite l'efficacité énergétique : contrairement aux électrons, les photons ne rencontrent quasiment pas de résistance lorsqu'ils circulent. Résultat, beaucoup moins d'énergie est dissipée sous forme de chaleur, ce qui réduit fortement les besoins en refroidissement.Pour construire cette puce, les chercheurs ont gravé de minuscules structures optiques appelées nanostructures photoniques. Chacune mesure seulement quelques dizaines de micromètres, soit une fraction de millimètre. Lorsque la lumière traverse ces structures, sa trajectoire et ses propriétés sont modifiées de manière très précise. En combinant des milliers de ces nanostructures, les scientifiques ont créé un système capable de reproduire le fonctionnement d'un réseau neuronal, c'est-à-dire l'architecture mathématique utilisée par de nombreux modèles d'intelligence artificielle. La densité de calcul obtenue est impressionnante : environ 400 millions de paramètres par millimètre carré. Pour tester leur prototype, les chercheurs l'ont entraîné à analyser plus de 10 000 images médicales, notamment des IRM. Les résultats sont prometteurs : selon les expériences, la précision de classification se situe entre 90 et 99 %.Si cette technologie devait un jour être industrialisée, elle pourrait transformer l'infrastructure de l'IA. En intégrant directement des réseaux neuronaux dans des circuits optiques, il serait possible de réduire considérablement la consommation énergétique des centres de données. Dans un contexte où la demande en puissance de calcul explose, certains experts évoquent même le risque d'une pénurie d'énergie liée à l'IA. Les puces photoniques pourraient donc représenter l'une des clés pour continuer à développer ces technologies… sans faire exploser la facture énergétique mondiale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un data center avec 4 jours d'autonomie sans énergie fossile ?

    Play Episode Listen Later Mar 16, 2026 2:47


    L'essor de l'intelligence artificielle pose un défi énergétique majeur. Selon l'Agence internationale de l'énergie, les centres de données devraient consommer entre 2 et 3 % de l'électricité mondiale dès 2026, soit environ 500 térawattheures par an. Pour donner un ordre de grandeur, c'est l'équivalent de la consommation électrique d'un pays comme la France. Et avec la généralisation de l'IA générative, cette demande pourrait doubler d'ici 2030. Face à cette explosion des besoins, les géants du numérique cherchent des solutions capables d'assurer une alimentation électrique stable, tout en réduisant les émissions de CO₂. L'une des pistes les plus prometteuses consiste à associer énergies renouvelables et stockage massif d'électricité grâce à de gigantesques batteries.C'est précisément la stratégie adoptée par Google, qui prépare un projet spectaculaire aux États-Unis, sur un site de 200 hectares à Pine Island. L'installation sera alimentée par un portefeuille d'électricité renouvelable, essentiellement éolien et solaire, capable de fournir 1 600 mégawatts de puissance. Mais la pièce maîtresse du projet réside dans son système de stockage. Google prévoit d'y installer une batterie géante de 300 mégawatts, capable de fournir de l'énergie pendant près de 100 heures consécutives, soit environ quatre jours d'autonomie. Une performance inédite pour ce type d'infrastructure.L'objectif est clair : garantir une alimentation continue du centre de données sans dépendre des centrales fossiles ou des générateurs diesel, encore utilisés par près de 80 % des centres de données dans le monde pour assurer les secours en cas de panne. La technologie retenue est développée par la start-up américaine Form Energy. Elle repose sur un système dit « fer-air », basé sur un principe chimique simple : l'oxydation et la réduction du fer. En stockant l'électricité sous forme de réaction chimique, ces batteries peuvent accumuler de grandes quantités d'énergie et la restituer pendant de longues périodes, tout en supportant des milliers de cycles.Par sa capacité énergétique, ce dispositif pourrait devenir la plus grande batterie du monde. À titre de comparaison, il serait capable d'alimenter plus de 100 000 foyers américains pendant une journée. Pour Google, ce projet constitue un véritable laboratoire. L'entreprise veut démontrer qu'il est possible d'alimenter ses centres de données 24 heures sur 24 et 7 jours sur 7 avec de l'énergie décarbonée, sans recourir à des compensations carbone. Un enjeu stratégique pour le groupe, dont les émissions de CO₂ ont augmenté d'environ 50 % depuis 2019, notamment en raison du développement massif de l'intelligence artificielle. L'équation énergétique du numérique devient donc l'un des grands défis technologiques de la décennie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Bientôt des satellites réutilisables qui reviennent sur Terre ?

    Play Episode Listen Later Mar 15, 2026 2:34


    Dans l'industrie spatiale, un nouveau pari technologique pourrait bien changer les règles du jeu. La start-up américaine Lux Aeterna, fondée en 2024, veut rendre les satellites… réutilisables. À sa tête, on trouve Brian Taylor, un ingénieur chevronné passé par SpaceX et Amazon, où il a participé au développement des mégaconstellations Starlink et Project Kuiper.Aujourd'hui, la plupart des satellites ont une durée de vie relativement courte. En orbite basse, ils fonctionnent généralement entre cinq et dix ans, avant d'être désorbités, c'est-à-dire volontairement détruits dans l'atmosphère, ou envoyés vers une orbite cimetière, une zone éloignée où l'on place les satellites hors service. Ce modèle implique de fabriquer régulièrement de nouveaux engins, ce qui représente un coût très élevé.L'ambition de Lux Aeterna est de rompre avec cette logique. L'entreprise veut créer des satellites capables de revenir sur Terre, d'être remis à niveau, puis relancés. L'idée ressemble à ce que SpaceX a déjà réussi avec les fusées réutilisables, mais appliquée cette fois aux satellites eux-mêmes. Le principal obstacle est thermique. Lorsqu'un objet rentre dans l'atmosphère, il subit des températures extrêmes, parfois plusieurs milliers de degrés, à cause du frottement avec l'air. Pour survivre à cette phase critique, Lux Aeterna prévoit d'intégrer un bouclier thermique directement dans la structure du satellite.Ce système permettrait au satellite de revenir intact sur Terre, avec sa charge utile, c'est-à-dire les instruments embarqués, comme des caméras, des capteurs scientifiques ou des systèmes de communication. L'intérêt est évident : au lieu de construire un nouveau satellite pour chaque évolution technologique, les opérateurs pourraient mettre à jour les équipements puis relancer l'appareil. Le premier prototype de la start-up s'appelle Delphi. Il mesure environ 1,1 mètre de large pour une masse d'environ 200 kilogrammes. Son lancement est prévu pour le premier trimestre 2027, à bord d'une fusée Falcon 9 de SpaceX. Après sa mission, l'engin doit effectuer un retour contrôlé et être récupéré en Australie.Lux Aeterna travaille déjà sur une génération suivante de satellites plus grands, qui pourraient à terme être lancés par Starship, la future fusée géante de SpaceX. Mais le défi reste immense. La technologie doit non seulement fonctionner, mais aussi être économiquement rentable. Les économies réalisées grâce à la réutilisation devront compenser les coûts liés au retour, à la récupération et à la remise en état des satellites. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    La géothermie "profonde" va-t-elle tout changer ?

    Play Episode Listen Later Mar 12, 2026 2:47


    Parmi les sources d'énergie renouvelable encore peu exploitées, la géothermie occupe une place particulière. Son principe est simple : utiliser la chaleur naturellement présente dans le sous-sol pour produire de l'énergie. Cette chaleur provient notamment des nappes d'eau souterraines et de la désintégration naturelle d'éléments radioactifs présents dans les roches, comme l'uranium, le thorium ou encore le potassium.Contrairement au vent ou au soleil, cette ressource présente un avantage majeur : elle est disponible en permanence. La chaleur de la Terre ne dépend ni de la météo ni de l'alternance jour-nuit. Les installations géothermiques peuvent donc produire de l'énergie 24 heures sur 24, avec des émissions de CO₂ très faibles pendant leur exploitation.À faible profondeur — généralement moins de 200 mètres — la géothermie est déjà utilisée dans de nombreux systèmes de chauffage ou de production d'énergie. Elle est considérée comme une technologie fiable et stable, capable d'assurer un approvisionnement continu. Mais de nouvelles perspectives apparaissent avec l'exploitation de la chaleur plus profonde. Les progrès réalisés dans les techniques de forage, souvent héritées de l'industrie pétrolière et gazière, permettent désormais d'atteindre des couches du sous-sol situées beaucoup plus bas.Dans une étude publiée dans la revue Cell Reports, des chercheurs de l'université Stanford s'intéressent notamment à une technologie appelée EGS, pour Enhanced Geothermal System, ou « système géothermique amélioré ». L'idée consiste à exploiter la chaleur présente entre 600 et 3 000 mètres sous terre, où les températures peuvent atteindre 90 à 300 degrés Celsius. Contrairement à la géothermie traditionnelle, qui dépend de réservoirs naturels d'eau chaude, ces systèmes permettent de créer artificiellement les conditions nécessaires pour récupérer la chaleur du sous-sol. Cela ouvre la possibilité d'exploiter cette énergie dans beaucoup plus de régions du monde.Les chercheurs soulignent aussi un autre avantage : la géothermie profonde pourrait réduire les besoins en infrastructures liées aux énergies intermittentes. Selon leurs calculs, si les systèmes EGS fournissaient 10 % de l'électricité, il serait possible de diminuer les nouvelles capacités nécessaires de 15 % pour l'éolien terrestre, 12 % pour le solaire et 28 % pour le stockage par batteries. La surface mobilisée pour produire de l'électricité bas carbone passerait alors d'environ 0,57 % à 0,48 % du territoire, une différence qui pourrait devenir importante à mesure que la demande énergétique augmente, notamment avec la multiplication des centres de données. Selon cette étude, le développement de la géothermie profonde, combiné aux autres énergies renouvelables, pourrait même permettre à terme de remplacer certaines sources d'électricité continues, comme le charbon ou le nucléaire, au cours de la prochaine décennie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    L'or permettrait un vrai gain pour les panneaux solaire ?

    Play Episode Listen Later Mar 11, 2026 2:43


    On l'ignore souvent, mais les panneaux solaires n'exploitent qu'une fraction de l'énergie lumineuse qui atteint la Terre. Les cellules photovoltaïques actuelles convertissent surtout la lumière visible, celle que l'œil humain perçoit, ainsi qu'une petite partie du proche infrarouge. Une grande portion du rayonnement solaire reste donc inutilisée, alors même que notre planète reçoit chaque seconde environ 174 000 térawatts d'énergie solaire. Des chercheurs de l'Institut coréen des sciences et de la technologie, le KAIST, pensent avoir trouvé une piste pour améliorer cette efficacité. Leur solution repose sur un concept issu de la nanotechnologie : les suprasphères plasmoniques.Ces structures microscopiques sont constituées de milliers de nanoparticules d'or qui s'assemblent spontanément pour former de minuscules sphères. À cette échelle, l'or possède des propriétés optiques particulières : il peut interagir avec la lumière de manière collective, un phénomène que les physiciens appellent résonance plasmonique. Concrètement, cela permet de capter et de piéger les photons — les particules de lumière — avec une efficacité bien supérieure à celle des matériaux classiques. Les chercheurs ont déposé ces suprasphères goutte à goutte sur une surface plane, où elles forment un film dense et texturé. Ce revêtement est capable d'absorber non seulement la lumière visible, mais aussi les rayonnements ultraviolets et une large gamme d'infrarouges, proches et lointains.La différence avec les films de nanoparticules déjà étudiés est importante. Les suprasphères combinent plusieurs types de résonances lumineuses, ce qui permet de capturer davantage de longueurs d'onde. Résultat : selon les simulations et les expériences menées par l'équipe coréenne, ce matériau pourrait absorber jusqu'à 90 % du spectre solaire, un niveau inédit. La puissance générée serait environ 2,4 fois supérieure à celle obtenue avec des revêtements de nanoparticules traditionnels. Pour tester leur approche, les chercheurs ont appliqué ce film sur la surface en céramique d'un générateur thermoélectrique, un dispositif capable de transformer la chaleur en électricité. Les mesures ont montré une absorption deux fois plus élevée que celle d'un film classique.Au-delà de la performance, cette technologie présente aussi un avantage pratique : elle peut être produite par dépôt en solution, une méthode relativement simple et peu coûteuse. À terme, ces suprasphères pourraient améliorer l'efficacité des systèmes solaires thermiques et photothermiques, qui utilisent la chaleur du soleil. Elles pourraient aussi renforcer les systèmes hybrides photovoltaïques-thermiques, capables de produire à la fois électricité et chaleur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Des data centers bientôt sous des éoliennes en mer ?

    Play Episode Listen Later Mar 10, 2026 2:22


    La révolution de l'intelligence artificielle pose un problème très concret : où installer les serveurs capables de faire tourner ces modèles toujours plus gourmands en énergie ? Aux États-Unis, les centres de données ont consommé environ 183 térawattheures d'électricité en 2024, soit près de 4 % de toute la consommation du pays. Et selon plusieurs projections, cette demande pourrait plus que doubler d'ici 2030.Depuis quelques années, l'industrie explore donc des solutions inédites. Microsoft avait déjà expérimenté l'immersion de centres de données sous la mer avec son Projet Natick, au large de l'Écosse. L'idée : profiter de l'eau froide pour refroidir naturellement les serveurs. Mais une start-up californienne, Aikido Technologies, propose aujourd'hui d'aller encore plus loin.Son concept, présenté début mars 2026 et relayé par IEEE Spectrum, consiste à combiner éoliennes flottantes et centres de calcul pour l'IA dans la même infrastructure. Concrètement, les serveurs seraient installés directement dans les ballasts, ces grands réservoirs qui stabilisent les plateformes en mer. La structure imaginée repose sur une turbine éolienne posée sur une plateforme flottante. Trois bras descendent vers l'eau et se terminent par des ballasts situés à environ 20 mètres de profondeur. Dans la partie supérieure de ces réservoirs remplis d'eau douce, Aikido prévoit d'aménager des salles informatiques capables de fournir 3 à 4 mégawatts de puissance chacune. L'ensemble pourrait atteindre 10 à 12 mégawatts de calcul dédiés à l'intelligence artificielle.La turbine elle-même produirait 15 à 18 mégawatts d'électricité, complétés par des batteries intégrées. L'un des avantages majeurs serait la suppression des pertes liées au transport de l'électricité, puisque l'énergie serait produite et consommée au même endroit. Le refroidissement reposerait sur un mécanisme passif : la chaleur dégagée par les serveurs traverserait les parois métalliques des ballasts pour se dissiper dans l'eau de mer. Selon l'entreprise, l'impact thermique resterait limité à quelques mètres autour de la structure.Un prototype de 100 kilowatts est prévu au large de la Norvège d'ici la fin de l'année, avec l'ambition à terme de créer des fermes offshore dépassant un gigawatt de puissance de calcul. Mais le projet reste risqué. L'éolien flottant traverse actuellement une période difficile, avec des coûts élevés et des projets retardés. D'autres défis subsistent aussi : la corrosion due au sel, les débris marins ou encore les contraintes environnementales liées au rejet de chaleur dans l'océan. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi l'hydrogène se fait si discret en voiture ?

    Play Episode Listen Later Mar 9, 2026 2:38


    Entre la voiture électrique, désormais bien installée, et les moteurs thermiques que l'on tente progressivement de remplacer, il existe une autre technologie encore discrète : la voiture à hydrogène. En France, ce marché reste très confidentiel. Aujourd'hui, seuls deux modèles sont réellement disponibles à la vente : la berline Toyota Mirai, proposée autour de 71 500 euros, et le SUV Hyundai Nexo, affiché à plus de 80 000 euros.Ces véhicules fonctionnent grâce à une pile à combustible. Le principe est assez simple : l'hydrogène stocké dans le réservoir réagit avec l'oxygène de l'air pour produire de l'électricité. Cette électricité alimente ensuite un moteur électrique qui entraîne les roues. L'avantage majeur est environnemental : à l'échappement, la seule émission est… de la vapeur d'eau. Sur le papier, l'hydrogène combine deux atouts que les voitures électriques et thermiques ont du mal à réunir. D'abord l'autonomie : la Toyota Mirai annonce environ 650 kilomètres, tandis que le Hyundai Nexo peut atteindre 666 kilomètres. Ensuite, le temps de recharge : faire le plein d'hydrogène prend seulement quelques minutes, comme pour une voiture essence.Il existe aussi une variante intermédiaire : les utilitaires hybrides hydrogène-électrique. Ces véhicules embarquent à la fois une batterie et une pile à combustible. On les retrouve par exemple sur certains modèles professionnels comme le Renault Kangoo ZE Hydrogen, le Renault Master Hydrogen ou encore les Peugeot e-Expert et Citroën ë-Jumpy Hydrogen. Leur autonomie tourne autour de 400 kilomètres selon le cycle WLTP, la norme européenne qui mesure l'autonomie des véhicules. Si ces voitures restent aussi coûteuses, c'est principalement une question d'échelle industrielle. Les piles à combustible sont encore fabriquées en petites quantités, ce qui maintient les prix élevés. Le phénomène est comparable aux débuts de la voiture électrique : lorsque la production des batteries lithium-ion s'est industrialisée, leurs coûts ont fortement baissé.Autre obstacle majeur : les infrastructures. En France, on compte seulement quelques dizaines de stations hydrogène. En dehors des grands axes, trouver une station peut donc s'avérer compliqué. Côté carburant, le prix reste relativement stable. Le kilo d'hydrogène coûte entre 10 et 15 euros, ce qui place le coût d'un plein dans une fourchette comparable à celle d'une voiture essence ou diesel. L'avenir de cette technologie dépendra largement des investissements des constructeurs et du développement de nouvelles méthodes de production, notamment l'électrolyse de l'eau, qui permet de produire de l'hydrogène à partir d'électricité renouvelable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Smartphones : lequel pollue le plus au cours sa vie ?

    Play Episode Listen Later Mar 8, 2026 2:47


    À l'occasion de la sortie officielle du Galaxy S26 en France, la société Greenly, spécialisée dans la mesure de l'empreinte carbone des entreprises, publie une comparaison des principaux smartphones du marché. Apple, Samsung, Xiaomi et Google passent au crible, et les résultats révèlent une réalité souvent méconnue : l'essentiel de l'impact environnemental d'un smartphone ne vient pas de son utilisation… mais de sa fabrication.Selon l'analyse, entre 80 et 85 % des émissions de gaz à effet de serre liées à un téléphone sont générées avant même qu'il soit allumé. Cette phase comprend l'extraction des matières premières, la production des composants, l'assemblage, le transport et même la gestion en fin de vie. Sur ce critère, Samsung apparaît comme le constructeur le plus performant parmi les modèles étudiés. Le Galaxy S25 affiche une empreinte de 42,7 kg de CO₂ équivalent, une unité qui permet de regrouper tous les gaz à effet de serre sous une seule mesure comparable. Derrière lui, on trouve le Xiaomi 14 avec 47,2 kg, puis l'iPhone 17 Pro avec 51,2 kg pour la version 256 Go. Le Pixel 10 de Google se distingue nettement, avec 73,8 kg de CO₂ équivalent, soit presque le double du modèle de Samsung.Un détail intéressant concerne Apple : le constructeur est le seul à publier son empreinte carbone selon la capacité de stockage. Logique, car plus la mémoire interne augmente, plus les composants électroniques nécessaires sont nombreux, et plus les émissions associées à leur fabrication sont élevées. Apple a toutefois tenté de réduire cet impact sur certains modèles récents. L'iPhone Air lancé en 2025 affiche ainsi 55 kg de CO₂ équivalent sur l'ensemble de son cycle de vie, soit environ 15 % de moins que l'iPhone 17 Pro. Le smartphone utilise un cadre en aluminium entièrement recyclé et sa fabrication repose désormais à 45 % sur de l'électricité renouvelable, contre 20 % seulement deux ans plus tôt.Côté utilisateur, l'impact est bien plus faible. La recharge électrique représente 15 à 20 % des émissions totales. Sur trois ans d'utilisation, un Galaxy S25 génère environ 3 kg de CO₂, contre près de 8 kg pour le Pixel 10. Mais ces chiffres varient selon le pays. En France, où l'électricité est largement décarbonée grâce au nucléaire, l'empreinte liée à la recharge est beaucoup plus faible qu'aux États-Unis. Reste enfin la question des volumes. Apple et Samsung vendent chacun plus de 200 millions d'appareils par an. Même si Google vend beaucoup moins de smartphones, l'usage de ses Pixel représenterait tout de même, selon Greenly, l'équivalent des émissions annuelles de 24 000 voitures. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    300 ans de vie pour une batterie de saumure de tofu ?

    Play Episode Listen Later Mar 5, 2026 2:48


    Les batteries sont devenues indispensables à notre quotidien. Smartphones, voitures électriques, stockage d'énergie… Mais elles posent aussi un problème majeur : la plupart reposent sur des produits chimiques potentiellement toxiques et parfois inflammables, comme ceux utilisés dans les batteries lithium-ion actuelles. Des chercheurs de l'université municipale de Hong Kong et de l'université des sciences et technologies du Sud, en Chine, proposent une piste radicalement différente. Dans une étude publiée dans la revue Nature Communications, ils présentent une batterie aqueuse, c'est-à-dire fonctionnant avec un électrolyte à base d'eau, conçue pour être plus sûre et potentiellement plus respectueuse de l'environnement.L'élément central d'une batterie est l'électrolyte, le liquide qui permet aux ions — des particules chargées électriquement — de circuler entre les électrodes et de produire de l'électricité. Dans les batteries classiques, cet électrolyte est souvent acide ou alcalin. Ici, les chercheurs ont choisi une approche inattendue : utiliser des minéraux présents dans la saumure de tofu. Cet électrolyte contient notamment des sels de magnésium et de calcium, avec un pH neutre de 7, comparable à celui de l'eau pure. Les électrodes, elles aussi, s'éloignent des matériaux traditionnels. L'anode — l'une des deux bornes de la batterie — est fabriquée à partir d'un polymère organique particulier, appelé COP. La cathode utilise un matériau dérivé du « bleu de Prusse », un pigment bien connu en peinture.Selon les chercheurs, cette batterie pourrait supporter plus de 120 000 cycles de charge, c'est-à-dire des recharges complètes. À titre de comparaison, les batteries lithium-ion actuelles atteignent généralement entre 500 et 2 000 cycles. À raison d'une recharge par jour, la durée de vie théorique dépasserait donc… trois siècles.Autre avantage : cette technologie ne présenterait pas de risque d'incendie, contrairement aux batteries lithium-ion qui peuvent parfois surchauffer. Les chercheurs affirment également que les composants seraient non toxiques et potentiellement moins polluants. Mais cette innovation a aussi ses limites. Sa densité énergétique — la quantité d'énergie stockée pour un poids donné — reste encore faible. Avec environ 48 watt-heures par kilogramme, elle représente seulement un quart de celle des batteries actuelles. Autrement dit, pour stocker la même énergie, il faudrait une batterie quatre fois plus volumineuse.Pour cette raison, cette technologie n'est pas destinée aux smartphones ou aux ordinateurs portables. En revanche, elle pourrait trouver sa place dans le stockage stationnaire, par exemple pour conserver l'électricité produite par les panneaux solaires ou les éoliennes sur les réseaux électriques.La prochaine étape sera donc industrielle : vérifier si ces batteries peuvent être produites à grande échelle, et à un coût compétitif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    1 smartphone sur 5 est reconditionné en France ?

    Play Episode Listen Later Mar 4, 2026 2:32


    Le smartphone reconditionné continue de gagner du terrain en France. Selon le Baromètre 2025 publié par l'entreprise Recommerce avec l'institut d'études Kantar, près d'un téléphone sur cinq utilisé aujourd'hui dans l'Hexagone n'est pas neuf. Plus précisément, 22 % des smartphones en circulation sont des appareils d'occasion remis à neuf, contre seulement 7 % en 2018. Une progression rapide qui témoigne d'un changement durable dans les habitudes de consommation. Au total, 45 % des Français déclarent avoir déjà utilisé un smartphone reconditionné. Et la tendance pourrait encore s'accélérer : plus d'un Français sur deux, 53 %, envisage d'en acheter un dans les prochaines années. Chez les jeunes de 16 à 34 ans, cette proportion grimpe même à 60 %.La première motivation reste économique. Pour 72 % des acheteurs, le prix constitue le principal argument. Les appareils reconditionnés sont en effet généralement vendus bien moins cher que les modèles neufs. L'argument environnemental arrive en seconde position : 36 % des consommateurs disent être sensibles à l'impact écologique, puisqu'un smartphone remis à neuf évite la fabrication d'un nouvel appareil et prolonge la durée de vie des composants. Autre évolution notable : les acheteurs se tournent davantage vers des professionnels. Près de 30 % passent désormais par leur opérateur téléphonique, devant les sites spécialisés en électronique (23 %) et les plateformes dédiées au reconditionné (20 %). Cette préférence traduit une attente forte en matière de garantie et de service après-vente.Car certaines réticences subsistent. Par exemple, 28 % des Français déclarent éviter le reconditionné parce qu'ils pensent — à tort — qu'il n'est pas garanti. En réalité, la loi impose des garanties comparables à celles d'un appareil neuf. Autre inquiétude : 39 % des consommateurs disent manquer d'informations sur la durée de vie réelle des téléphones reconditionnés. Le marché séduit particulièrement les familles. Selon l'étude, 60 % des parents affirment avoir déjà acheté un smartphone reconditionné pour leur enfant.Pour Augustin Becquet, directeur général de Recommerce, le secteur entre désormais dans une phase de consolidation. Après une forte croissance, l'enjeu est désormais de structurer l'offre et de renforcer la confiance des consommateurs, notamment en mettant en avant la qualité des processus de reconditionnement et les garanties associées. Reste aussi une autre bataille : la reprise des anciens téléphones. Près de 40 % des Français envisagent de revendre leur appareil, mais 37 % préfèrent encore le garder inutilisé dans un tiroir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Une start-up créée de l'eau à partir de l'air ?

    Play Episode Listen Later Mar 3, 2026 2:25


    Produire de l'eau potable… à partir de l'air. L'idée peut sembler futuriste, elle vient pourtant d'être récompensée. La start-up française Agua de Sol a reçu le prix de l'innovation de l'Union des industries et entreprises de l'Eau pour une solution capable de transformer l'humidité atmosphérique en eau potable grâce à l'énergie solaire.L'enjeu est immense. En 2025, selon la Banque mondiale et les Nations unies, plus de 2 milliards de personnes n'ont toujours pas accès à une eau potable sûre. Un quart de l'humanité vit dans des zones soumises à un stress hydrique extrêmement élevé. Et d'ici 2050, un milliard de personnes supplémentaires pourraient basculer dans cette situation.Si le Moyen-Orient et l'Afrique du Nord sont en première ligne, l'Europe n'est pas épargnée. Le WWF estime que 20 % du territoire européen et 30 % de sa population sont déjà concernés. Face à l'épuisement des nappes phréatiques et à la pression sur les rivières, Agua de Sol propose de puiser dans un autre réservoir : l'atmosphère. Car l'air contient environ six fois plus d'eau que l'ensemble des rivières du globe. Plus de 60 % de la planète est concernée par une humidité exploitable. Et avec le réchauffement climatique, chaque degré Celsius supplémentaire permet à l'air de contenir environ 7 % d'humidité en plus.La technologie développée repose sur un principe simple : l'air est aspiré dans un panneau alimenté par énergie solaire. Un système interne provoque la condensation de la vapeur d'eau, comme la buée sur une vitre froide. L'eau récupérée est ensuite filtrée et minéralisée pour atteindre les standards de potabilité. Selon les besoins, elle peut aussi être utilisée pour l'irrigation ou comme eau stérile industrielle.Le tout fonctionne sans raccordement au réseau, sans forage, sans transport. Une approche dite « low-tech » : robuste, sobre en énergie, décentralisée, produisant l'eau directement sur le lieu de consommation. Côté coût, Agua de Sol annonce un prix compris entre 10 et 12 centimes d'euro par litre, soit environ trois fois moins que l'eau en bouteille. Dans un monde où plus de 2 milliards de personnes dépendent encore de l'eau conditionnée faute d'alternative fiable, la promesse mérite attention. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Une pollution cachée par les lancements de fusée ?

    Play Episode Listen Later Mar 2, 2026 2:11


    En février 2025, le ciel européen s'est transformé en théâtre spatial. Le second étage d'une fusée Falcon 9, après avoir mis en orbite des satellites Starlink quelques jours plus tôt, est entré de manière incontrôlée dans l'atmosphère. Vers 100 kilomètres d'altitude, l'engin s'est fragmenté, donnant naissance à une spectaculaire boule de feu visible dans plusieurs pays. Certains débris ont même été retrouvés au sol, en Pologne. L'incident aurait pu être dramatique. Il a pourtant offert aux scientifiques une occasion rare : observer avec précision ce que laisse derrière elle la désintégration d'un objet spatial dans la haute atmosphère. Grâce à un système lidar, un dispositif utilisant des impulsions laser pour analyser la composition de l'air, installé en Allemagne, et à des modèles de circulation atmosphérique, les chercheurs ont détecté un panache inhabituel de lithium à environ 96 kilomètres d'altitude. La concentration mesurée était dix fois supérieure aux niveaux habituels.En retraçant le déplacement des masses d'air sur plusieurs heures, ils ont pu relier ce nuage métallique à la trajectoire exacte de la rentrée du Falcon 9. Les hypothèses d'une origine naturelle, comme la poussière cosmique ou certains phénomènes ionosphériques, ont été écartées. Les conclusions, publiées dans la revue Nature, sont sans ambiguïté : la combustion des fusées et des satellites injecte bien des particules métalliques dans les couches supérieures de l'atmosphère, où elles peuvent être transportées sur de longues distances.Cette découverte intervient alors que les lancements se multiplient, notamment pour déployer les mégaconstellations de satellites. À l'horizon 2040, jusqu'à 60 000 satellites pourraient être en orbite. Chaque rentrée atmosphérique libérerait des milliers de tonnes de particules, notamment d'aluminium. Ces aérosols pourraient influencer localement la température, perturber la circulation des vents ou interagir avec la chimie de l'ozone. À cela s'ajoutent les émissions directes des lancements, comme le carbone noir ou certains résidus de carburants solides. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    De nouvelles batteries font chuter les prix chez Renault ?

    Play Episode Listen Later Mar 1, 2026 2:14


    Ampere traverse une période de transition, avec sa réintégration progressive au sein du groupe Renault. Mais pour le constructeur français, pas question de lever le pied sur l'électrique. Au contraire. La dernière annonce en date le montre : la recherche continue, et elle vise un point névralgique de la voiture électrique, la batterie.Renault vient en effet d'officialiser un partenariat entre Ampere, sa filiale dédiée aux véhicules électriques, et l'entreprise espagnole Basquevolt. Objectif : accélérer le développement des batteries dites « lithium métal », une technologie considérée comme l'une des pistes les plus prometteuses pour dépasser les limites actuelles.Aujourd'hui, la plupart des voitures électriques utilisent des batteries lithium-ion à électrolyte liquide. L'électrolyte, c'est le milieu dans lequel circulent les ions lithium entre les deux électrodes de la batterie lors de la charge et de la décharge. Dans la technologie développée par Basquevolt, cet électrolyte liquide est remplacé par un électrolyte polymère solide, associé à une anode avancée en lithium métal.Ce changement n'est pas anodin. Selon les partenaires, il permettrait un « saut technologique majeur » en matière de densité énergétique — autrement dit, plus d'énergie stockée pour un même volume ou un même poids. À la clé : des batteries plus compactes, plus légères, dotées d'une meilleure stabilité thermique — un enjeu crucial pour la sécurité — et capables de se recharger plus rapidement. On parle ici de la grande famille des batteries solides, sur lesquelles plusieurs constructeurs, notamment asiatiques, travaillent activement. Basquevolt affiche d'ailleurs une ambition claire : devenir un leader européen dans ce domaine stratégique.Mais au-delà des performances, l'enjeu est aussi industriel. Le recours à un électrolyte polymère permettrait, selon le communiqué, de simplifier le processus de fabrication. Résultat annoncé : environ 30 % d'investissement en moins par gigawattheure dans une gigafactory classique, et 30 % d'énergie économisée par kilowattheure produit. Pour Renault, l'équation est simple : gagner en autonomie, en sécurité et en compétitivité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Haut-de-France : l'eau du robinet bourrée de pesticides ?

    Play Episode Listen Later Feb 26, 2026 2:25


    L'eau du robinet est-elle toujours irréprochable ? C'est la question posée par l'ONG Générations Futures, qui alerte ce 28 janvier sur la présence d'un fongicide dans l'eau potable de 83 000 habitants des Hauts-de-France. Selon l'association, les concentrations relevées depuis plus d'un an dépasseraient les seuils réglementaires dans 17 unités de distribution — les réseaux locaux qui alimentent 46 communes du Pas-de-Calais, du Nord et, initialement, de la Somme.De leur côté, l'Agence régionale de santé et les préfectures précisent qu'un captage incriminé n'est plus utilisé et qu'aucune commune de la Somme ne présente aujourd'hui de dépassement. Elles reconnaissent toutefois la détection de traces de fluopyram dans 23 communes du Pas-de-Calais et trois du Nord. Les habitants, assurent-elles, peuvent continuer à consommer l'eau du robinet. Le fluopyram est un fongicide employé pour lutter contre les champignons parasites dans les cultures de fruits, légumes, céréales ou pommes de terre. Les mesures officielles indiquent, dans certaines communes, des concentrations supérieures à 0,1 microgramme par litre. Ce seuil correspond à la « limite de qualité » fixée pour les pesticides dans l'eau potable. Dans deux communes, les niveaux seraient même plus de dix fois supérieurs à cette référence.Il faut toutefois distinguer limite réglementaire et seuil sanitaire. À ce jour, aucun taux maximal spécifique au fluopyram n'a été fixé pour des raisons de santé publique, et la substance n'est pas classée comme cancérogène avérée. En l'absence de valeur toxicologique précise, la Direction générale de la Santé recommande néanmoins de restreindre la consommation dès que le seuil de 0,1 µg/L est franchi. Début 2025, le Haut Conseil de la santé publique a relevé cette valeur à 0,142 µg/L, en raison d'incertitudes analytiques. Selon Générations Futures, dix unités de distribution dépasseraient ce nouveau seuil, concernant plus de 10 000 personnes.L'ONG souligne également que le fluopyram appartient à la famille des PFAS, ces composés dits « polluants éternels » qui se dégradent très lentement, notamment en TFA, un résidu persistant. Elle demande une réévaluation des autorisations de mise sur le marché. Les autorités, elles, maintiennent que l'eau reste potable, tout en poursuivant les analyses. Une nouvelle illustration, en tout cas, des tensions persistantes entre agriculture intensive et protection durable des ressources en eau. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    En plantant trop d'arbres, la Chine a modifié le cycle de l'eau ?

    Play Episode Listen Later Feb 25, 2026 2:23


    En deux décennies, la Chine a reboisé à une vitesse et à une échelle inédites. Résultat : le paysage a changé… et avec lui, le cycle de l'eau. C'est la conclusion d'une étude publiée dans la revue Earth's Future par une équipe de six chercheurs chinois et d'un scientifique néerlandais.Entre 2001 et 2020, ces gigantesques programmes de plantation, destinés à lutter contre la désertification et le changement climatique, ont eu un effet inattendu : une redistribution des ressources en eau. Dans l'est agricole et dans le nord-ouest aride — des régions qui couvrent près des trois quarts du territoire chinois — la quantité d'eau douce disponible a diminué. À l'inverse, le plateau tibétain enregistre désormais une abondance accrue. Pour comprendre ce phénomène, il faut évoquer un mécanisme clé : l'évapotranspiration. L'eau présente dans les sols s'évapore sous l'effet du soleil, puis les plantes rejettent de la vapeur d'eau dans l'atmosphère par leurs feuilles. Les forêts accentuent ce processus, car les arbres, grâce à leurs racines profondes, puisent de l'eau même en période sèche. Selon Arie Staal, professeur à l'université d'Utrecht et co-auteur de l'étude, « les changements de couverture végétale redistribuent l'eau ».La Chine a multiplié les initiatives. La « Grande Muraille verte », lancée en 1978 pour freiner l'avancée des déserts dans le nord, a transformé le paysage : la couverture forestière nationale est passée d'environ 10 % à plus de 25 %, soit une surface comparable à celle de l'Algérie. D'autres programmes, comme Grain for Green ou la protection des forêts naturelles, ont fait du pays l'un des principaux acteurs mondiaux de la reforestation. À eux seuls, ces efforts représentent environ un quart de l'augmentation mondiale de la surface foliaire depuis le début du siècle. Mais cette réussite écologique a un revers. L'étude montre que l'évapotranspiration a augmenté plus vite que les précipitations. Autrement dit, davantage d'eau retourne dans l'atmosphère qu'il n'en tombe sous forme de pluie localement. Dans un pays où le nord concentre seulement 20 % des ressources en eau pour près de la moitié de la population et 60 % des terres arables, cette évolution est loin d'être anodine. Les chercheurs appellent donc à une approche plus fine : chaque projet de reforestation doit être évalué au regard de ses effets sur l'eau, car reverdir ne signifie pas toujours préserver. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    538 km² de batteries dans un désert en Inde ?

    Play Episode Listen Later Feb 24, 2026 2:16


    Début 2025, le groupe Adani a annoncé la construction, dans l'ouest du Gujarat, d'un immense système de stockage d'électricité renouvelable capable d'emmagasiner 3,5 gigawattheures d'énergie. Pour donner un ordre d'idée, un gigawattheure correspond à un million de kilowattheures : de quoi alimenter des centaines de milliers de foyers pendant plusieurs heures.L'installation sera déployée dans la région désertique de Khavda. Environ 700 conteneurs de batteries y seront installés pour constituer ce dispositif présenté comme l'un des plus importants au monde. Les travaux sont déjà en cours et, selon le calendrier du conglomérat, la première phase devrait être achevée en mars 2026. Mais cette capacité de 3,5 gigawattheures n'est qu'un point de départ. Le groupe basé à Ahmedabad prévoit d'ajouter 15 gigawattheures supplémentaires d'ici mars 2027, puis de porter l'ensemble à 50 gigawattheures sur cinq ans. Cette montée en puissance s'inscrit dans les objectifs nationaux : l'Inde vise 500 gigawatts de capacité électrique propre d'ici 2030 et affiche des ambitions de neutralité carbone à long terme.Pourquoi un tel investissement dans les batteries ? Parce que les énergies renouvelables, comme le solaire et l'éolien, sont par nature intermittentes. Le soleil ne brille pas la nuit, le vent ne souffle pas en permanence. Le stockage permet donc de conserver l'électricité produite en excès pour la restituer lorsque la demande augmente. C'est l'élément clé pour garantir la stabilité du réseau. Ces batteries géantes viendront soutenir le complexe d'Adani Green Energy, qui s'étend déjà sur 538 kilomètres carrés, près de cinq fois la superficie de Paris. Aujourd'hui, le site produit 7,1 gigawatts grâce au solaire et à l'éolien. L'objectif est d'atteindre 30 gigawatts d'ici 2029.À la tête de ce projet se trouve Gautam Adani, deuxième fortune d'Inde avec environ 68 milliards de dollars. Son groupe est présent dans de nombreux secteurs stratégiques, des ports aux aéroports en passant par l'énergie et le ciment. Le montant exact de l'investissement n'a pas été dévoilé, mais l'ampleur du chantier laisse présager des sommes considérables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Les américains découvrent un « nouveau » panneau solaire ?

    Play Episode Listen Later Feb 23, 2026 2:50


    On parle beaucoup d'électricité solaire, de panneaux photovoltaïques et de batteries lithium-ion. Pourtant, un chiffre passe souvent inaperçu : le chauffage représente à lui seul près de la moitié de la consommation énergétique mondiale. Et, aujourd'hui encore, les deux tiers de cette demande reposent sur des combustibles fossiles. Produire de la chaleur propre est donc un enjeu colossal. Mais la stocker durablement, sans pertes pendant des semaines ou des mois, reste un défi technologique majeur.À l'université de Californie à Santa Barbara, l'équipe de Grace Han vient de publier dans la revue Science, mi-février 2026, des résultats qui pourraient changer la donne. Les chercheurs ont conçu une molécule baptisée « pyrimidone », inspirée d'un phénomène biologique inattendu : les dommages que les rayons ultraviolets infligent à notre ADN. Le principe est élégant. La pyrimidone agit comme un ressort à l'échelle moléculaire. Sous l'effet des UV, elle change de forme, se contracte et adopte un état dit « de haute énergie ». L'énergie solaire est alors piégée dans ses liaisons chimiques. Elle reste stockée tant qu'aucun déclencheur — chaleur ou catalyseur — ne vient forcer la molécule à revenir à sa forme initiale. À ce moment-là, l'énergie est libérée sous forme de chaleur.Les performances annoncées sont impressionnantes : 1,6 mégajoule par kilogramme, soit presque le double d'une batterie lithium-ion classique, qui tourne autour de 0,9 MJ/kg. En laboratoire, la chaleur produite a suffi à faire bouillir de l'eau à température ambiante. Autre atout : la molécule peut conserver son énergie jusqu'à trois ans sans dégradation notable. Le doctorant Han Nguyen compare le mécanisme aux lunettes photochromiques qui s'assombrissent au soleil, sauf qu'ici, il ne s'agit pas de changer de teinte, mais de stocker et restituer de l'énergie à volonté. La structure de la pyrimidone ressemble à certains composants de l'ADN capables de subir des transformations réversibles sous UV, normalement réparées par une enzyme appelée photolyase. Les chercheurs ont détourné ce processus naturel pour en faire un système de stockage thermique, appelé MOST — pour Molecular Solar Thermal.La molécule étant soluble dans l'eau, on pourrait imaginer la faire circuler dans des capteurs solaires en journée, stocker l'énergie dans des réservoirs, puis la restituer la nuit. Reste que cette technologie existe depuis des décennies sans s'imposer. Les versions précédentes souffraient de faibles rendements ou de dégradations rapides. Cette fois, plusieurs verrous semblent levés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Google à fond sur la géothermie ?

    Play Episode Listen Later Feb 22, 2026 2:52


    Google poursuit sa course à l'énergie. Le géant américain vient de signer un accord de long terme avec Ormat Technologies pour alimenter ses installations du Nevada en électricité géothermique. À la clé : jusqu'à 150 mégawatts supplémentaires, fournis via NV Energy, l'opérateur local détenu par Berkshire Hathaway. Le contrat repose sur un mécanisme baptisé Clean Transition Tariff, ou CTT, mis en place en 2024 par Google et NV Energy pour accélérer le financement de nouvelles capacités d'énergie propre. L'accord doit encore être validé par la Commission des services publics du Nevada, une décision attendue d'ici fin 2026.La géothermie, rappelons-le, consiste à exploiter la chaleur naturelle du sous-sol. De l'eau est injectée en profondeur, chauffée au contact des roches chaudes, puis transformée en vapeur pour actionner des turbines produisant de l'électricité. Ormat prévoit plusieurs projets dans l'État, avec des mises en service progressives entre 2028 et 2030. Le contrat courra sur quinze ans après l'activation du dernier site. Cette montée en puissance graduelle permet de sécuriser l'approvisionnement tout en développant plusieurs installations en parallèle. Google connaît déjà le terrain. Depuis 2023, l'entreprise travaille avec Fervo Energy sur un site pilote au Nevada. Deux puits forés à environ 2 400 mètres y permettent de faire circuler de l'eau chauffée à plus de 190 degrés Celsius grâce à la fracturation contrôlée de la roche. Ce premier projet produisait 3,5 mégawatts, mais un nouvel accord signé en 2024 vise désormais 115 mégawatts. Avec Ormat, la capacité géothermique de Google dans la région bondit de plus de 130 %.Cette frénésie énergétique s'explique par l'explosion des besoins liés à l'intelligence artificielle. Les centres de données consomment toujours plus, et les futurs campus dédiés à l'IA dépasseront bientôt le gigawatt de puissance installée. Google multiplie donc les paris : fusion nucléaire avec Commonwealth Fusion Systems en Virginie, partenariat avec TotalEnergies, rachat d'un spécialiste des datacenters… et même réflexion sur des serveurs orbitaux. Selon le Rhodium Group, la géothermie pourrait couvrir jusqu'à 64 % de la croissance attendue des besoins électriques des datacenters au début des années 2030, à condition d'accepter un surcoût de 20 % et de maintenir les crédits d'impôt. Meta s'y intéresse aussi, avec 150 mégawatts signés auprès de Sage Geosystems. Atout majeur : une production continue, disponible à plus de 90 %, et la possibilité d'utiliser la chaleur résiduelle pour refroidir les serveurs, un poste qui représente jusqu'à 40 % de la consommation d'un centre de données. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    La Chine dépasse la NASA sur les fusées réutilisables ?

    Play Episode Listen Later Feb 19, 2026 2:27


    La nouvelle course vers la Lune s'accélère, et la Chine vient de franchir une étape décisive. Alors que les États-Unis préparent leur retour avec la mission Artemis II, Pékin poursuit son propre programme lunaire avec un objectif assumé : envoyer des astronautes chinois — les taïkonautes — sur la Lune d'ici 2030, puis y établir une présence durable.Le 11 février, depuis le centre spatial de Wenchang, au sud de la Chine, les ingénieurs ont testé en conditions réelles la capsule Mengzhou, appelée à devenir le véhicule principal des futures missions lunaires. Ce vaisseau était installé au sommet d'une version expérimentale de la fusée lourde Long March 10. L'essai s'est concentré sur un moment critique du vol : la phase dite du « Max-Q ». C'est l'instant où la pression aérodynamique sur la fusée est maximale, autrement dit le moment où les contraintes physiques sont les plus dangereuses. À ce moment précis, la capsule a été volontairement éjectée, afin de tester son système d'évacuation d'urgence. Ce dispositif est conçu pour éloigner l'équipage de la fusée en cas de défaillance grave. Après la séparation, Mengzhou a entamé une descente contrôlée sous parachutes, avant d'amerrir en mer, au large de l'île de Hainan. Une manœuvre réussie, indispensable pour certifier le vaisseau en vue de futures missions habitées.À terme, Mengzhou transportera les taïkonautes jusqu'à l'orbite lunaire. Ils y rejoindront un module d'atterrissage chargé de les déposer sur la surface de la Lune, avant de revenir s'arrimer à la capsule pour le voyage retour vers la Terre. Ce vaisseau doit également remplacer progressivement la capsule actuelle, Shenzhou, utilisée pour rejoindre la station spatiale chinoise Tiangong, avec une capacité pouvant atteindre sept astronautes en orbite terrestre.Mais ce test ne concernait pas seulement la capsule. Le premier étage de la fusée Long March 10 a lui aussi effectué une démonstration ambitieuse. Après son retour dans l'atmosphère, ce segment — appelé booster — a rallumé ses moteurs pour ralentir sa descente et tenter un amerrissage contrôlé à proximité d'une barge. Cette technique vise à récupérer et réutiliser les lanceurs, une capacité déjà maîtrisée par SpaceX. Selon la China Aerospace and Science Technology Corporation, l'essai a permis de valider des technologies clés : redémarrage des moteurs en altitude, contrôle précis de la trajectoire et résistance aux conditions extrêmes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    La montagne, terrain de test pour les innovations climatiques ?

    Play Episode Listen Later Feb 18, 2026 2:46


    Chaque année à Grenoble, un événement tente de répondre à l'une des grandes questions de notre époque : comment innover sans aggraver le climat ? Son nom, Tech&Fest. Pendant plusieurs jours, le centre Alpexpo devient un carrefour où se croisent startups, grands groupes, chercheurs et décideurs, venus présenter leurs technologies et confronter leurs idées. Conférences, démonstrations, ateliers : l'objectif est clair, accélérer l'innovation. Parmi les grands thèmes abordés, l'un attire particulièrement l'attention : la transition énergétique et environnementale, regroupée sous la bannière « tech&planet ».Au cœur de ce dispositif, un espace incarne concrètement cette ambition : le Village de la Décarbonation. Son nom peut sembler technique, mais l'idée est simple. La décarbonation consiste à réduire les émissions de dioxyde de carbone, principal gaz responsable du réchauffement climatique. Ce village rassemble donc des entreprises et des projets qui proposent des solutions pour consommer moins d'énergie, mieux gérer les ressources ou réduire l'empreinte environnementale des activités humaines.Pour l'édition 2026, le festival met l'accent sur un territoire bien particulier : la montagne, et plus précisément les Alpes. Ces régions sont en première ligne face au changement climatique. La hausse des températures y est plus rapide, les glaciers reculent, la neige se raréfie et les ressources en eau deviennent plus imprévisibles. Autrement dit, ces territoires subissent aujourd'hui ce que d'autres régions pourraient connaître demain. Cette réalité fait des Alpes un laboratoire grandeur nature. Les contraintes y sont extrêmes : altitude élevée, climat rigoureux, forte dépendance à l'eau et aux infrastructures fragiles. Dans ce contexte, les innovations ne peuvent pas rester théoriques. Elles doivent fonctionner immédiatement, que ce soit pour améliorer l'efficacité énergétique des bâtiments, optimiser les transports, sécuriser les ressources en eau ou renforcer la résilience des infrastructures.Mais l'ambition de Tech&Fest dépasse largement la montagne. Les solutions présentées ne sont pas seulement conçues pour les territoires alpins. Elles sont envisagées comme des modèles reproductibles ailleurs, en ville comme en zone rurale. En testant ces technologies dans des conditions difficiles, les développeurs peuvent vérifier leur robustesse et leur efficacité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    La France continue de commercer avec la Russie pour l'énergie ?

    Play Episode Listen Later Feb 17, 2026 2:35


    La guerre en Ukraine a profondément rebattu les cartes énergétiques mondiales. Pourtant, selon Greenpeace, un secteur clé échappe encore aux sanctions européennes : le nucléaire civil. Dans un communiqué publié mercredi, l'ONG affirme que ni la France ni l'Union européenne n'ont mis fin à leurs relations commerciales avec Rosatom, le géant public russe de l'énergie nucléaire.Au cœur du problème : l'uranium enrichi, un combustible indispensable au fonctionnement des centrales nucléaires. Pour produire de l'électricité, l'uranium naturel extrait des mines doit d'abord subir deux étapes techniques. La première, la conversion, transforme le minerai en gaz. La seconde, l'enrichissement, consiste à augmenter la proportion d'uranium fissile, l'isotope capable de soutenir la réaction nucléaire. C'est ce combustible enrichi qui alimente les réacteurs. Selon Greenpeace, la France continue d'importer de l'uranium enrichi russe, sous différentes formes, notamment de l'uranium recyclé ré-enrichi. Ces importations représenteraient environ 18 % du total, d'après une analyse des données des Douanes françaises arrêtées à septembre 2025.Par ailleurs, la Russie conserve un rôle indirect mais central dans l'approvisionnement. En 2025, près de la moitié de l'uranium naturel importé par la France provenait du Kazakhstan et de l'Ouzbékistan. Mais, selon l'ONG, une part importante de ces cargaisons transite par le territoire russe, sous le contrôle de Rosatom, avant d'arriver dans les ports européens, notamment Dunkerque ou Rotterdam, puis d'être acheminée vers les installations du groupe français Orano, acteur majeur du cycle du combustible nucléaire.Pour Greenpeace, cette situation pose un problème politique autant qu'économique. Pauline Boyer, chargée de campagne au sein de l'organisation, estime que ces échanges contribuent indirectement à soutenir l'économie russe. Elle appelle les autorités françaises et européennes à sanctionner Rosatom, d'autant plus que l'entreprise joue un rôle stratégique dans le secteur nucléaire mondial et a notamment pris le contrôle de la centrale ukrainienne de Zaporijjia depuis le début du conflit.Pour l'heure, aucune interdiction européenne n'a été officiellement décidée concernant les importations de combustible nucléaire russe. Ce dossier reste sensible, car la France dépend entièrement de l'étranger pour son uranium. En 2024, le nucléaire a assuré plus de 86 % de la production d'électricité d'EDF, ce qui rend la sécurisation des approvisionnements absolument essentielle. La France dispose bien d'une usine d'enrichissement, située au Tricastin, dans la Drôme, mais elle reste tributaire des importations de matière première. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Alerte sur les émissions de CO2 des JO 2026 ?

    Play Episode Listen Later Feb 16, 2026 2:37


    Les Jeux olympiques d'hiver de 2026, prévus à Milan et Cortina d'Ampezzo, pourraient laisser une empreinte bien plus durable que les souvenirs sportifs. Selon un rapport publié par les organisations Scientists for Global Responsibility et New Weather Institute, cet événement mondial devrait générer environ 930 000 tonnes d'équivalent dioxyde de carbone, une unité utilisée pour mesurer l'impact climatique global des émissions de gaz à effet de serre.La principale source de pollution identifiée n'est ni la construction ni l'organisation elle-même, mais les déplacements des spectateurs. À eux seuls, ces voyages pourraient représenter environ 410 000 tonnes d'émissions. À titre de comparaison, cela correspond aux émissions annuelles de plusieurs dizaines de milliers de personnes. Les chercheurs estiment que cet impact climatique pourrait, dans les années suivantes, contribuer indirectement à la disparition d'environ 2,3 km² de couverture neigeuse et à la perte de plus de 14 millions de tonnes de glace glaciaire. Des conséquences particulièrement préoccupantes pour des sports qui dépendent précisément de la neige et des glaciers.Ce constat intervient dans un contexte déjà fragile pour les stations de montagne. En cinq ans, l'Italie a perdu 265 stations de ski, tandis que la France, qui accueillera les Jeux en 2030, en a vu disparaître plus de 180. La cause principale : le réchauffement climatique, qui réduit progressivement l'enneigement. Le rapport pointe également le rôle des sponsors. Trois partenaires majeurs — le groupe pétrolier Eni, le constructeur automobile Stellantis et la compagnie aérienne ITA Airways — pourraient générer à eux seuls environ 1,3 million de tonnes supplémentaires d'émissions. Ces émissions indirectes, souvent exclues des bilans officiels, correspondent notamment aux activités économiques encouragées par ces partenariats. Leur impact global pourrait entraîner la disparition supplémentaire de 3,2 km² de neige et la perte de plus de 20 millions de tonnes de glace glaciaire. Au total, l'ensemble de l'événement et de ses sponsors pourrait contribuer à la disparition de 5,5 km² de couverture neigeuse.Des progrès ont toutefois été réalisés ces dernières années. L'absence de nouvelles infrastructures majeures, l'utilisation d'énergies renouvelables et le recours à des matériaux à faible empreinte carbone ont permis d'éviter plusieurs centaines de milliers de tonnes d'émissions. Les auteurs du rapport appellent désormais à des mesures plus radicales, notamment la fin des partenariats avec les industries fortement émettrices. Selon eux, l'avenir même des Jeux olympiques d'hiver pourrait dépendre de la capacité du mouvement olympique à réduire son propre impact sur le climat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Chine : objectifs anti-pollution atteints… tout en réchauffant la Terre ?

    Play Episode Listen Later Feb 15, 2026 2:30


    En 2013, la Chine a décidé d'en finir avec cette pollution atmosphérique devenue insoutenable, tant pour la santé publique que pour son image internationale. En quelques années, le pays a engagé une transformation massive : installation d'épurateurs dans les centrales à charbon, normes industrielles renforcées et nouvelles règles environnementales. Résultat : la pollution de l'air a été réduite de moitié. Mais cette victoire sanitaire a produit un effet inattendu. En réduisant la pollution, la Chine a aussi fait disparaître une grande partie du dioxyde de soufre présent dans l'atmosphère. Ce gaz, bien connu pour provoquer les pluies acides et contribuer aux brouillards toxiques, joue aussi un rôle climatique paradoxal.Pour comprendre ce phénomène, il faut évoquer les aérosols. Ce sont de minuscules particules en suspension dans l'air, souvent issues de la combustion du charbon. Lorsqu'elles se forment à partir du dioxyde de soufre, elles agissent comme un miroir microscopique : elles réfléchissent une partie des rayons du soleil vers l'espace. Ce mécanisme limite temporairement le réchauffement de la surface terrestre. Selon une étude publiée en février 2026 dans la revue scientifique Geophysical Research Letters, la réduction de ces aérosols en Chine aurait contribué à une hausse mesurable des températures mondiales. Les chercheurs estiment que cette baisse du dioxyde de soufre a entraîné une augmentation de la température globale comprise entre 0,06 et 0,07 degré Celsius entre 2007 et 2025. Ce chiffre peut sembler faible, mais il représente environ 12 % du réchauffement total observé sur cette période. Autrement dit, la disparition de ces particules a révélé une partie du réchauffement jusqu'alors masquée. Les scientifiques ont utilisé des modèles climatiques pour analyser l'évolution des émissions en Asie. Pendant que la Chine réduisait sa pollution atmosphérique, d'autres pays comme l'Inde ont continué d'augmenter leurs émissions, illustrant le caractère global et interconnecté du climat.Il ne s'agit évidemment pas de regretter la pollution. Les aérosols ne font que masquer temporairement les effets du réchauffement, sans en traiter la cause principale : les gaz à effet de serre. Cette étude rappelle surtout une réalité essentielle : le climat est un système complexe, où certaines améliorations environnementales peuvent révéler des déséquilibres déjà présents. Nettoyer l'air reste indispensable, mais cela rend aussi plus visible l'ampleur réelle du défi climatique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    L'IA créé des batteries sans la phase de laboratoire ?

    Play Episode Listen Later Feb 12, 2026 2:15


    Vous pensiez que concevoir une batterie relevait d'un simple jeu de briques technologiques, quelques matériaux bien empilés et le tour est joué ? En réalité, le plus long commence après. Une fois le prototype prêt, il faut le malmener : charge, décharge, recharge… encore et encore, jusqu'à l'épuisement complet. Un marathon qui peut durer des mois, parfois des années. Et qui consomme énormément d'électricité. Certaines estimations évoquent 130 000 gigawattheures nécessaires d'ici 2040 pour ces seuls tests, soit près de la moitié de la production annuelle de la Californie.À Université du Michigan, l'équipe du chercheur Jiawei Zhang propose de court-circuiter ce rituel. Dans la revue Nature, ils détaillent une approche baptisée « Discovery Learning ». L'idée est simple sur le papier : observer les premiers cycles de vie d'une batterie pour prédire son avenir, sans attendre qu'elle rende l'âme. Le système repose sur trois briques. D'abord, sélectionner intelligemment quels prototypes méritent d'être testés physiquement. Ensuite, comparer leurs premiers comportements à une base de données de batteries déjà connues. Enfin, estimer leur durée de vie totale… puis réinjecter ces prédictions dans le modèle pour affiner les choix suivants. Autrement dit, l'algorithme apprend aussi de ses propres estimations. Les chercheurs annoncent des gains spectaculaires : 98 % de temps économisé, 95 % de coûts en moins.De quoi faire rêver une industrie où chaque semaine gagnée vaut de l'or. Mais prudence. Le professeur Chao Hu, de Université du Connecticut, rappelle que ces prédictions dépendent fortement des données d'entraînement. Si une nouvelle batterie sort trop des sentiers battus, le modèle pourrait se tromper. Et surtout, la vraie vie ne ressemble pas au laboratoire : chaleur, froid, charges imprévisibles… rien n'a encore été validé sur le terrain. Avec un marché estimé à 120 milliards de dollars aujourd'hui, et 500 milliards attendus en 2030, la tentation est forte. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    TrackCarbon : l'app open source sur l'empreinte carbone de l'IA ?

    Play Episode Listen Later Feb 11, 2026 2:21


    On parle beaucoup d'intelligence artificielle comme d'un miracle numérique. Plus rapide, plus créative, plus efficace. Mais on oublie souvent une question toute simple : combien ça consomme, au juste, une conversation avec une IA ? Car derrière Gemini, Mistral, ChatGPT ou Claude, il y a des centres de données géants, des serveurs qui tournent jour et nuit, et une facture énergétique loin d'être virtuelle.Pour mettre des chiffres sur cette réalité, la Fondation Sahar et l'association Trackarbon lancent TrackCarbon, une application disponible dès aujourd'hui sur macOS. Son idée est simple : mesurer, en temps réel, l'empreinte énergétique et carbone de nos échanges avec les IA génératives. Une fois installée, l'application observe la longueur de vos requêtes, celle des réponses, puis estime l'électricité consommée et le CO₂ émis à partir de données scientifiques. Pas d'espionnage pour autant : tout reste stocké en local, sur l'ordinateur. Rien ne quitte la machine.L'interface affiche trois indicateurs très parlants : le nombre de requêtes envoyées, l'énergie utilisée, et l'empreinte carbone correspondante. Et pour rendre ces données concrètes, TrackCarbon traduit tout ça en équivalences du quotidien : nombre de recharges de smartphone, kilomètres parcourus en voiture. De quoi réaliser que chaque prompt a, lui aussi, un coût.Les calculs s'appuient sur des travaux académiques et évoluent en continu, avec des contributions de chercheurs et de la communauté. L'outil est d'ailleurs entièrement open source : le code est publié sur GitHub, consultable et modifiable par tous. Pas question de culpabiliser, assure Gauthier Schweitzer, président de la fondation. L'objectif est d'éclairer, pas de juger. À terme, l'application devrait aussi proposer des analyses par modèle, des outils pour les entreprises, et même recommander l'IA la moins gourmande selon la tâche. Windows et Linux sont déjà prévus. Reste à savoir si cette boussole carbone changera vraiment nos habitudes numériques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Le nucléaire n'est pas le vrai carburant de l'IA ?

    Play Episode Listen Later Feb 10, 2026 2:14


    Le réveil est brutal pour les grandes promesses vertes de la Silicon Valley. Fin janvier, une enquête du The Guardian met les pieds dans le plat : derrière les discours sur la neutralité carbone, les géants du numérique se tournent massivement… vers le gaz naturel. Sur le papier, tout semblait pourtant réglé. Partenariats nucléaires spectaculaires, investissements dans les renouvelables, déclarations d'intention. Meta Platforms multiplie les annonces, Bill Gates promet des réacteurs nouvelle génération. Mais la réalité est plus terre à terre : le réseau électrique actuel n'arrive plus à suivre.Le problème est simple, presque mathématique. Les modèles d'intelligence artificielle générative consomment une énergie colossale, en continu. Les serveurs ne dorment jamais. Or le solaire et l'éolien produisent par à-coups, et le nucléaire demande des années, parfois des décennies, pour sortir de terre. Trop lent pour une industrie qui avance à la vitesse du logiciel. Conséquence : les exploitants de data centers frappent à la porte des centrales thermiques. Aux États-Unis, les opérateurs de gazoducs signalent une explosion des demandes de raccordement direct pour alimenter ces fermes de serveurs, parfois en contournant un réseau public déjà saturé. Même Amazon a récemment alerté : la course à l'IA coûte une fortune en infrastructures, et l'énergie propre n'arrive pas assez vite.La transition énergétique se heurte ainsi à la physique. On ne construit pas une centrale comme on déploie une mise à jour. Les courbes exponentielles de l'IA cognent contre les limites très concrètes du béton, des câbles et des turbines. Derrière ce virage, une forme d'aveu. Les objectifs de neutralité carbone pour 2030 restent affichés, mais la priorité est ailleurs : maintenir les puces NVIDIA à plein régime. Google a même racheté un spécialiste des data centers pour sécuriser son approvisionnement énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Elon Musk veut 1M de data centers dans l'espace ?

    Play Episode Listen Later Feb 9, 2026 2:28


    Imaginez un instant : au lieu de construire d'immenses hangars bourrés de serveurs dans le désert, on enverrait les centres de données… dans l'espace. Ce qui ressemblait encore hier à un délire de science-fiction est désormais couché noir sur blanc dans des documents officiels. Depuis plusieurs mois, Elon Musk martèle la même idée : placer des data centers en orbite pour profiter d'une énergie solaire quasi illimitée et libérer de la place au sol, alors que la soif de calcul liée à l'intelligence artificielle explose. Aujourd'hui, SpaceX passe à l'action.Dans un dossier transmis à la Federal Communications Commission, l'entreprise détaille un projet de satellites opérant entre 500 et 2 000 kilomètres d'altitude. Les précisions techniques restent rares, mais l'objectif est clair : occuper des orbites encore peu utilisées. Les appareils placés sur des trajectoires héliosynchrones, baignés de soleil plus de 99 % du temps, assureraient une puissance de calcul continue. D'autres, sur des orbites moins inclinées, absorberaient les pics de demande pour répartir la charge. Pour bâtir cette infrastructure, SpaceX compte capitaliser sur son expérience avec Starlink. Et le discours va plus loin que la simple logistique informatique. L'entreprise présente cette constellation comme une étape vers une « civilisation de type II » sur l'échelle de Kardashev, capable d'exploiter pleinement l'énergie du Soleil et de faire tourner des services d'IA pour des milliards d'utilisateurs, tout en préparant l'humanité à devenir multiplanétaire.Reste une inquiétude : l'orbite terrestre se remplit déjà à grande vitesse. De plus en plus d'experts alertent sur la congestion et les risques de collisions. Musk, lui, se veut rassurant : selon lui, les satellites seraient si espacés qu'ils se croiseraient à peine. « L'espace est immense, au-delà de ce qu'on imagine », écrit-il sur X. Le calendrier dépend désormais du feu vert de la FCC. En toile de fond, une possible fusion avec xAI se profile. De quoi donner naissance à un conglomérat spatial et numérique hors norme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2026, année de résistance à Shein en France ?

    Play Episode Listen Later Feb 8, 2026 2:15


    C'est un nouveau round judiciaire qui s'ouvre entre Shein et l'État français. Début février, la bataille reprend devant la justice. Après une première décision favorable à la plateforme chinoise, le gouvernement a décidé de contre-attaquer. Direction la cour d'appel de Paris, avec un objectif clair : obtenir la suspension du site. Même si la première manche a été perdue, Paris ne lâche pas l'affaire.Invité sur TF1 le jour même de l'audience, le ministre des PME et du Commerce, Serge Papin, a détaillé la stratégie de l'État. Son argument central : un « trouble à l'ordre public ». Selon lui, la plateforme met des produits sur le marché sans en assumer réellement la responsabilité. Il parle de non-conformités « systématiques » et estime que Shein échappe trop facilement aux obligations qui pèsent sur les commerçants classiques. En clair : vendre, oui. Répondre de la conformité des produits, beaucoup moins.Mais le gouvernement a déjà prévu un plan B. Si Shein remportait à nouveau cette bataille judiciaire, l'exécutif passerait par la loi. Une proposition doit être déposée pour inscrire noir sur blanc la responsabilité juridique de la plateforme sur l'ensemble des articles vendus. Avec ce nouveau cadre, la Répression des fraudes pourrait constater elle-même les manquements et suspendre l'activité, sans passer par un juge. Autrement dit, changer les règles du jeu.Et la pression ne s'arrête pas là. Côté fiscalité aussi, l'étau se resserre. Dès le 1er mars, une taxe de deux euros par colis s'appliquera en France, selon la catégorie d'articles. Puis, à partir du 1er juillet, un droit de douane forfaitaire de trois euros sera instauré au niveau européen. Serge Papin l'a annoncé sans détour : « 2026 sera l'année de résistance à Shein ». Derrière cette formule, un message politique limpide : réguler la fast fashion importée, rééquilibrer la concurrence… et montrer que, face aux géants du e-commerce, l'État compte bien garder la main. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    L'IA permet de stabiliser la fusion nucléaire ?

    Play Episode Listen Later Feb 5, 2026 2:04


    La fusion nucléaire, sur le papier, ressemble à un rêve d'ingénieur : reproduire sur Terre la réaction qui alimente les étoiles pour produire une énergie propre, quasi inépuisable. Dans la réalité, c'est un casse-tête scientifique que les chercheurs tentent de résoudre depuis des décennies. Pour forcer deux isotopes d'hydrogène à fusionner, les équipes travaillent dans des machines appelées tokamaks, de vastes chambres magnétiques capables de confiner un plasma chauffé à des températures supérieures à celles du cœur du Soleil. Problème : ce plasma est aussi capricieux qu'explosif. À la moindre instabilité, il peut heurter les parois internes, endommager l'installation… et stopper net la réaction.« Maintenir la stabilité de la couche limite du plasma est un défi majeur pour l'avenir de la fusion », rappellent les chercheurs du Princeton Plasma Physics Laboratory, le PPPL. Jusqu'ici, les scientifiques géraient surtout les dégâts après coup. Autrement dit, on corrigeait une fois l'instabilité apparue.Mais trois chercheurs du laboratoire, récemment récompensés par le prix d'excellence de la fondation Kaul, proposent une stratégie plus offensive. Leur idée : anticiper les turbulences et ajuster les paramètres du tokamak en temps réel, avant que la situation ne dégénère. Pour cela, ils ont abandonné l'approche classique en deux dimensions. Les champs magnétiques des tokamaks sont traditionnellement modélisés en 2D. Eux misent sur une optimisation en trois dimensions, en combinant physique, intelligence artificielle et contrôle instantané. « Nous explorons une optimisation 3D en mêlant la physique, l'IA et le pilotage en temps réel », explique Sang Kyeun Kim, l'un des membres de l'équipe.Concrètement, des algorithmes de machine learning simulent des dizaines de scénarios possibles et déterminent comment ajuster les champs magnétiques pour garder le plasma stable tout en maintenant un haut niveau d'énergie. Pendant l'expérience, l'IA corrige en continu le tir, presque comme un pilote automatique. La prochaine étape : automatiser entièrement ce contrôle magnétique. Car sans ces outils intelligents, les chercheurs le reconnaissent, il faudrait sans doute encore des décennies pour dompter la fusion. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un matériau capable d'absorber le CO2 dès sa conception ?

    Play Episode Listen Later Feb 4, 2026 2:17


    Le béton est partout. Dans nos immeubles, nos routes, nos ponts. C'est le matériau roi du bâtiment… et aussi l'un des plus polluants. À lui seul, il représente près de 8 % des émissions mondiales de CO₂. Un chiffre massif, rappelé par Nima Rahbar, directeur du département de génie civil, environnemental et architectural du Worcester Polytechnic Institute, aux États-Unis. Autrement dit : construire le monde d'aujourd'hui réchauffe celui de demain. Face à ce constat, la filière cherche des alternatives. En décembre, des chercheurs britanniques proposaient déjà d'intégrer des déchets de coquillages pour alléger l'empreinte carbone du béton. Cette fois, une équipe américaine affirme avoir franchi un cap supplémentaire. Elle présente un matériau de construction à la fois solide, peu coûteux… et carrément à bilan carbone négatif.Son nom : enzymatic structural material, ou ESM. L'étude, publiée dans la revue Matter, décrit un procédé original. Les scientifiques utilisent une enzyme capable de transformer le dioxyde de carbone en carbonate de calcium, autrement dit en particules minérales solides. Ces particules sont ensuite agglomérées et durcies dans des conditions douces, à basse température, pour former des éléments de construction en quelques heures. C'est là que se joue la différence. Contrairement au béton classique, qui exige des fours très énergivores et de longs temps de séchage, l'ESM se fabrique rapidement et sans forte chaleur. Résultat : beaucoup moins d'énergie consommée, donc moins d'émissions.Mieux encore, le matériau ne se contente pas de polluer moins : il capte du carbone. Selon Nima Rahbar, produire un mètre cube d'ESM permettrait de stocker plus de 6 kilos de CO₂, quand le béton traditionnel en émet environ 330 kilos pour le même volume. « Nous ne réduisons pas seulement les émissions, nous capturons réellement le carbone », souligne le chercheur. Autre promesse : une meilleure réparabilité, donc moins de déchets et des coûts réduits sur le long terme. Reste maintenant l'épreuve du terrain. Des tests doivent confirmer sa fiabilité avant une utilisation à grande échelle. Si tout se passe bien, l'ESM pourrait bientôt se retrouver dans nos terrasses, nos toitures ou nos panneaux muraux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Une puce plus rapide et moins énergivore signée du MIT ?

    Play Episode Listen Later Feb 3, 2026 2:10


    Et si la prochaine révolution de l'intelligence artificielle ne venait pas d'un nouvel algorithme… mais d'une puce électronique repensée de fond en comble ? Au MIT, des ingénieurs viennent de présenter une architecture qui pourrait changer la donne. Leur idée : empiler directement les composants d'une puce les uns sur les autres, plutôt que de les étaler côte à côte. Un détail en apparence, mais qui bouleverse tout.Jusqu'ici, la partie chargée des calculs et celle qui stocke les données étaient physiquement séparées. Résultat : les informations passaient leur temps à voyager d'un point à l'autre du circuit, consommant du temps… et surtout beaucoup d'énergie. En rapprochant ces deux fonctions, les chercheurs réduisent drastiquement ces allers-retours. Les échanges deviennent plus rapides et nettement moins gourmands en électricité. Un enjeu crucial à l'heure où l'IA explose. Pour y parvenir, l'équipe a mis au point un composant hybride : un transistor à mémoire. Autrement dit, un seul élément capable à la fois de calculer et de conserver des données. À l'échelle nanométrique, ce dispositif présente très peu de défauts électriques, ce qui améliore à la fois la vitesse d'exécution et l'efficacité énergétique, selon les chercheurs.Ce type d'innovation arrive au bon moment. Les applications d'apprentissage profond et de vision artificielle se multiplient, et les centres de données engloutissent toujours plus d'électricité. L'Agence internationale de l'énergie estime même que leur demande pourrait presque doubler d'ici 2030. Or, une grande partie de cette consommation ne sert pas à calculer, mais simplement à déplacer des données à l'intérieur des puces. « Nous devons absolument réduire l'énergie utilisée par l'IA, ce modèle n'est pas soutenable », rappelle Yanjie Shao, auteur principal de l'étude. Techniquement, les chercheurs ont utilisé de l'oxyde d'indium, un matériau qui peut être déposé à basse température sans abîmer les autres couches. Ils y ont ajouté une fine mémoire ferroélectrique. Le transistor change d'état en dix nanosecondes et fonctionne à une tension plus faible que les technologies actuelles. Pour l'instant, le système n'a été testé que sur prototype. Mais l'intégration dans de vraies puces semble désormais à portée de main. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Les microplastiques empêchent les océans d'absorber le CO2 ?

    Play Episode Listen Later Feb 2, 2026 2:13


    On parle souvent des microplastiques pour leurs effets visibles : plages polluées, poissons contaminés, déchets flottants. Mais une nouvelle étude suggère une menace plus discrète… et peut-être plus grave encore. Ces fragments minuscules pourraient aussi perturber le climat. Des chercheurs venus de Chine, de Hong Kong, du Pakistan et des Émirats arabes unis ont publié leurs travaux dans le Journal of Hazardous Materials: Plastics. Leur conclusion est claire : les microplastiques, ces particules de moins de cinq millimètres, altèrent la capacité des océans à absorber le dioxyde de carbone. Or cette absorption est essentielle : c'est l'un des mécanismes clés qui permet à la planète de réguler sa température.Le contexte est inquiétant. Selon l'ONU, la production mondiale de plastique dépasse aujourd'hui 400 millions de tonnes par an. La moitié concerne des objets à usage unique, et moins de 10 % sont recyclés. Sans changement majeur, cette production pourrait tripler d'ici 2060. Résultat : des microplastiques partout. Dans les grands fonds marins, l'eau douce, l'air, les sols, jusque sur la glace arctique. Pour comprendre leur impact réel, l'équipe a analysé 89 études scientifiques. Et le tableau se précise. Les microplastiques perturbent la vie marine et affaiblissent ce que les spécialistes appellent la « pompe biologique à carbone » : ce processus naturel par lequel le phytoplancton capte le CO₂ via la photosynthèse, puis l'envoie vers les profondeurs océaniques. Problème : ces particules réduisent la photosynthèse du phytoplancton et modifient le métabolisme du zooplancton.Autre effet pervers : en se dégradant, certains plastiques libèrent eux-mêmes des gaz à effet de serre. Et autour de ces fragments se développe une « plastisphère », un écosystème microbien encore mal connu, qui pourrait accentuer ces déséquilibres. À long terme, les chercheurs redoutent un enchaînement : océans plus chauds, plus acides, perte de biodiversité… et, derrière, des menaces directes pour la pêche, la sécurité alimentaire et les communautés côtières. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    En Chine, les éoliennes flottent dans l'air ?

    Play Episode Listen Later Feb 1, 2026 2:05


    Dans le ciel gris du Sichuan, certains ont levé la tête, un peu perplexes. Ce 11 janvier, au-dessus de la ville de Yibin, ce n'était ni un drone ni un ballon météo. Mais une éolienne. Oui, une éolienne volante. La société chinoise Beijing SAWES Energy Technology vient de tester, grandeur nature, une machine qui bouscule les codes du secteur. Oubliez les mâts géants plantés au sol. Ici, la production d'électricité prend de la hauteur. Littéralement.Sa plateforme, baptisée S2000, est construite en matériaux légers et remplie d'hélium. Elle flotte comme un dirigeable et capte les vents en altitude pour les convertir en énergie. Lors de ce vol d'essai, l'engin est monté jusqu'à 2 000 mètres au-dessus du sol. Résultat : 385 kilowattheures produits, directement injectés dans le réseau local, selon le Global Times, média proche du pouvoir chinois. Après un premier modèle, le S1500, présenté il y a quelques mois, l'entreprise franchit donc un cap supplémentaire. Plus haut, plus puissant.Visuellement, la machine ressemble à un grand ballon conique de 60 mètres de long sur 40 de large. Elle est reliée au sol par un câble qui assure à la fois sa stabilité… et le transport de l'électricité. À l'intérieur, douze turbines tournent pour maximiser la production. Son concepteur assure qu'il s'agit de la première éolienne capable d'opérer au-dessus de zones urbaines. Un argument clé. Le PDG, Weng Hanke, imagine deux usages principaux : alimenter des sites isolés, comme des postes-frontières, ou compléter les parcs éoliens traditionnels dans une logique énergétique « en trois dimensions ». Car là-haut, le vent est plus fort, plus régulier. À comparer avec les éoliennes terrestres, limitées à environ 155 mètres, le gain est évident. La forme même de la S2000 joue un rôle : l'air est canalisé et compressé avant d'atteindre les turbines, ce qui améliore encore le rendement. À terme, la plateforme pourrait produire jusqu'à 3 mégawatts. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    32 entreprises responsables de 50% des émissions mondiales de CO2 ?

    Play Episode Listen Later Jan 29, 2026 2:27


    Pour la première fois, une année civile entière a dépassé la barre des +1,5 °C par rapport à l'ère préindustrielle. C'était l'objectif à ne pas franchir fixé par l'Accord de Paris. C'est le constat posé par Copernicus, le programme européen de référence sur le climat. Les rejets mondiaux de gaz à effet de serre ont encore progressé de 1,3 % par rapport à 2023, avec une consommation d'énergies fossiles toujours en hausse.Une étude, révélée par The Guardian, pointe des responsabilités très concentrées. Selon cette analyse, 32 entreprises de combustibles fossiles à elles seules seraient à l'origine de la moitié des émissions mondiales de CO₂ liées à la crise climatique en 2024. L'année précédente, elles étaient 36. Autrement dit : moins d'acteurs, mais toujours autant de pollution. Pour Tzeporah Berman, co-autrice du rapport et membre de l'initiative Fossil Fuel Non-Proliferation Treaty, la conclusion est sévère : un petit groupe d'entreprises domine les émissions mondiales et freine activement les politiques climatiques. La base de données Carbon Majors, qui suit 178 grands producteurs de pétrole, gaz, charbon et ciment depuis 1854, montre que les émissions ont augmenté dans toutes les régions du monde en 2024. Les entreprises asiatiques, à elles seules, représentent près d'un tiers du total.Et beaucoup de ces géants sont publics. Dix-sept des vingt plus gros émetteurs sont contrôlés par des États. Des pays comme l'Arabie saoudite, la Russie, la Chine ou l'Inde. Ce sont aussi ces mêmes États qui ont bloqué, lors de la COP30, une feuille de route vers la sortie des fossiles. À eux seuls, ils ont généré 38 % des émissions liées aux combustibles fossiles et au ciment. Les conséquences, elles, sont déjà mesurables : 213 vagues de chaleur plus intenses entre 2000 et 2023, près de la moitié du réchauffement actuel et un tiers de la hausse du niveau des mers imputables à ces émissions. Le coût économique ? Jusqu'à 3 600 milliards de dollars de pertes liées à la chaleur extrême entre 1991 et 2020. Pour l'ancienne négociatrice climat de l'ONU Christiana Figueres, ces grands émetteurs sont clairement « du mauvais côté de l'histoire ». Les investissements dans les énergies propres progressent, mais les mastodontes du carbone, eux, s'accrochent encore au passé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un constructeur d'éolienne demande 44 M€ à un petit village ?

    Play Episode Listen Later Jan 28, 2026 2:23


    À Puyrolland, petit village de 200 habitants près de La Rochelle, un parc éolien validé par arrêté préfectoral en octobre 2019… n'a toujours pas vu le jour. Sur le papier, le projet semblait pourtant bien engagé. Baptisé « parc des Chênaies Hautes », il devait s'implanter sur trois communes des Vals de Saintonge, un territoire déjà très convoité par la filière : en 2023, 15 % des éoliennes de Nouvelle Aquitaine y étaient concentrées. À la manœuvre, la filiale française du groupe allemand Windstrom, qui revendique plus de 470 mâts installés en Europe. Mais à Puyrolland, rien ne sort de terre. Et l'affaire a pris un virage judiciaire. L'entreprise assigne aujourd'hui la commune et une cinquantaine de propriétaires devant le tribunal civil de Saintes. Une audience procédurale se tient cette semaine, sans encore aborder le fond.Ce que reproche Windstrom ? Le refus de la mairie d'accorder les autorisations de voirie nécessaires pour acheminer sept éoliennes géantes, culminant à 180 mètres en bout de pale. Le groupe réclame des servitudes de passage, et à défaut, 44 millions d'euros pour compenser le retard du chantier, soit environ 6,5 millions par an. Pour les élus, c'est une stratégie d'intimidation. « Leur objectif est de faire peur aux administrés », accuse l'un des avocats de la commune. La bataille se joue aussi devant la justice administrative. En décembre, la cour d'appel de Bordeaux a rejeté le recours du promoteur. Celui-ci s'est pourvu en cassation devant le Conseil d'État.Le maire, Thierry Giraud, reconnaît avoir d'abord été favorable. En 2016, il signe même une promesse de bail, en échange d'aides promises pour l'église ou des chèques énergie. Mais, selon lui, rien n'a suivi. « On ne voulait pas que le sacrifice soit vain », explique-t-il. Les habitants dénoncent un « passage en force ». Aujourd'hui, ce conflit dépasse la seule question des éoliennes. Il pose celle du rapport de force entre petits territoires ruraux et grands développeurs énergétiques. « On ne peut pas s'essuyer les pieds sur les communes comme sur un paillasson », lâche le maire. En face, Windstrom défend la stabilité des projets. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un ordinateur qui tourne uniquement grâce au soleil ?

    Play Episode Listen Later Jan 27, 2026 2:00


    Au Mobile World Congress 2025 de Barcelone, Lenovo a décidé de voir grand. Très grand, même. S'il fallait résumer l'ambition du constructeur chinois en une formule, ce serait presque une devise olympique : plus haut, plus fort… et surtout plus flexible. Parmi les curiosités dévoilées sur le salon, un prototype attire tous les regards : le ThinkPad « Flip ». À première vue, on découvre un ordinateur portable équipé d'un immense écran OLED vertical de 18,1 pouces. Un format inhabituel, taillé pour la bureautique, la lecture ou le traitement de longs documents, un peu comme si l'on travaillait sur une feuille A4 géante.Mais le plus surprenant, c'est la mécanique. L'écran peut se plier vers l'arrière et se transformer en deux dalles de 13 pouces. Une fois refermé, l'ensemble prend la forme d'une tablette 13 pouces. Pour un simple concept, la fiche technique est loin d'être symbolique : processeur Intel Core Ultra 7, 32 Go de mémoire LPDDR5X, ports Thunderbolt 4, lecteur d'empreinte digitale. Lenovo évoque cinq usages : mode ordinateur traditionnel, affichage vertical pour relire des documents, double écran pour le travail à deux, tablette pour la création, et même mode lecture sans distraction. Ce n'est pas un coup d'essai : la marque avait déjà tenté l'expérience avec le ThinkPad X1 Fold.Et Lenovo ne s'est pas arrêté là. Autre idée futuriste présentée sur le stand : le Yoga Solar PC Concept. Ici, c'est l'autonomie qui est repensée. Le dos de l'écran est recouvert de panneaux solaires affichant un rendement de 24 %. D'après le constructeur, vingt minutes en plein soleil suffiraient pour récupérer une heure de lecture vidéo. Même sans lumière directe, le système continuerait à produire un peu d'énergie pour prolonger la batterie. Pour l'instant, ces machines restent au stade expérimental. Mais elles donnent un aperçu clair des pistes explorées : écrans modulables, recharge autonome, nouveaux usages nomades. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Claim Choses à Savoir TECH VERTE

    In order to claim this podcast we'll send an email to with a verification link. Simply click the link and you will be able to edit tags, request a refresh, and other features to take control of your podcast page!

    Claim Cancel