Tout ce qu'il faut savoir dans le domaine de la Green Tech.

Nos téléphones, nos ordinateurs ou encore nos voitures électriques reposent aujourd'hui sur une même technologie : les batteries lithium-ion. Leur fonctionnement est bien connu. Des ions, des particules chargées, circulent entre deux électrodes à travers un électrolyte, ce qui génère un courant électrique. Mais ce mécanisme a ses limites : plus une batterie est grande, plus elle met du temps à se recharger, notamment à cause des résistances internes et de la chaleur produite. Une nouvelle piste pourrait bouleverser cette logique. Elle s'appelle la batterie quantique. Ici, plus question de chimie classique : on exploite directement les lois de la mécanique quantique, c'est-à-dire les comportements de la matière et de la lumière à l'échelle de l'infiniment petit.Des chercheurs australiens du CSIRO, avec les universités RMIT et Melbourne, viennent justement de franchir une étape importante. Pour la première fois, ils ont conçu un prototype capable de réaliser un cycle complet : charge, stockage et décharge d'énergie. Le dispositif repose sur une microcavité, une structure minuscule composée de deux miroirs qui piègent la lumière, contenant des molécules organiques spécifiques. Lorsque la lumière entre dans ce système, elle interagit avec les électrons des molécules, créant des états hybrides, à mi-chemin entre lumière et matière. L'énergie n'est donc plus stockée chimiquement, mais sous forme d'excitation quantique.Le phénomène clé s'appelle la « superabsorption ». Contrairement aux batteries classiques où chaque cellule fonctionne indépendamment, ici toutes les molécules agissent comme un seul ensemble. Résultat : plus le système est grand, plus il se recharge vite. Mathématiquement, si l'on multiplie le nombre d'unités, le temps de charge diminue selon une loi proportionnelle à 1 sur racine de N.Autre particularité : cette batterie se recharge sans fil, grâce à un faisceau laser. Les chercheurs ont utilisé des impulsions extrêmement brèves, de l'ordre de la femtoseconde, soit un millionième de milliardième de seconde. Mais attention, nous sommes encore loin d'une application concrète. Le prototype ne conserve l'énergie que quelques nanosecondes, et les quantités stockées restent très faibles. En revanche, il fonctionne à température ambiante, ce qui est essentiel pour envisager un usage réel. Pour les scientifiques, cette avancée marque un tournant. La batterie quantique n'est plus une simple théorie. Reste désormais à résoudre un défi majeur : stocker durablement cette énergie… pour, peut-être un jour, recharger une voiture en quelques secondes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si le dioxyde de carbone, souvent considéré comme un déchet climatique, devenait une ressource utile ? C'est l'une des pistes explorées aujourd'hui par la recherche. À Zurich, des scientifiques de l'ETH ont mis au point une méthode innovante pour transformer le CO₂ en méthanol, une molécule clé pour l'industrie chimique. Le méthanol sert notamment de base à la fabrication de plastiques, de carburants ou encore de solvants. L'enjeu est donc important : réussir à produire cette substance à partir de CO₂ permettrait à la fois de réduire les émissions… et de valoriser ce gaz.Au cœur de cette avancée, un catalyseur, c'est-à-dire un matériau qui accélère une réaction chimique sans être consommé. Mais ici, sa conception est particulière. Au lieu d'utiliser des particules métalliques classiques, les chercheurs ont isolé des atomes d'indium, dispersés individuellement sur un support d'oxyde d'hafnium. Pourquoi est-ce important ? Parce que chaque atome agit comme un site actif indépendant. Cela permet d'utiliser le métal de manière beaucoup plus efficace, tout en réduisant l'énergie nécessaire pour déclencher la réaction chimique. Concrètement, le CO₂ est combiné à de l'hydrogène pour produire du méthanol, de façon plus rapide et avec moins de pertes. Autre avantage : la précision. Cette architecture permet de mieux contrôler les différentes étapes de la réaction, ce qui limite les sous-produits indésirables et améliore le rendement global.Mais l'intérêt principal est environnemental. Si l'hydrogène utilisé est produit à partir d'énergies renouvelable, par exemple via l'électrolyse de l'eau, alors le processus peut devenir quasiment neutre en carbone. Le CO₂, au lieu d'être simplement rejeté dans l'atmosphère, est réutilisé comme matière première. Reste la question de la robustesse. Car pour une application industrielle, ces catalyseurs doivent résister à des conditions extrêmes : températures élevées, pressions importantes. Les chercheurs ont donc conçu un support capable de stabiliser ces atomes d'indium sur le long terme, grâce à des procédés de fabrication spécifiques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans la course mondiale à l'intelligence artificielle, un nouveau critère s'impose : la capacité à faire tourner des modèles à grande échelle… sans exploser la facture énergétique. C'est le constat posé par Sunghyun Park, PDG de la start-up sud-coréenne Rebellions. Et c'est précisément sur ce terrain que l'entreprise entend se positionner.Fondée en 2020, Rebellions vient de dévoiler deux solutions destinées aux centres de données, ces infrastructures qui hébergent les serveurs et les modèles d'IA. Le premier, baptisé RebelRack, regroupe 32 accélérateurs, des puces spécialisées dans le calcul, capables d'atteindre 64 pétaFLOPS. Pour donner un ordre de grandeur, un pétaFLOP correspond à un million de milliards d'opérations par seconde. Ces performances s'accompagnent d'une bande passante mémoire très élevée, c'est-à-dire la vitesse à laquelle les données circulent entre la mémoire et le processeur, atteignant plus de 150 téraoctets par seconde. Chaque carte consomme toutefois 600 watts, ce qui reste significatif, mais dans des standards maîtrisables pour les datacenters. L'un des arguments clés de Rebellions, c'est l'intégration. Contrairement à certaines solutions concurrentes, qui nécessitent un refroidissement liquide complexe, le RebelRack fonctionne à air et s'insère dans des baies standard. Un avantage non négligeable pour les entreprises, dont les infrastructures ne sont pas toujours adaptées à des systèmes plus lourds.Le second produit, RebelPOD, permet de connecter plusieurs de ces racks entre eux, jusqu'à former de véritables clusters, capables de traiter des charges massives. Sur le plan logiciel, Rebellions mise sur l'open source. Ses systèmes sont compatibles avec des outils largement utilisés dans le secteur, comme PyTorch, une bibliothèque de développement pour l'IA, ou OpenShift, une plateforme de gestion de conteneurs. Côté matériel, les puces reposent sur une architecture dite « chiplet », qui consiste à assembler plusieurs petits composants pour améliorer les performances. Elles utilisent également de la mémoire HBM, une mémoire très rapide, produite notamment par Samsung ou SK Hynix. Avec une levée de fonds récente de 400 millions de dollars, la start-up atteint désormais une valorisation de plus de 2 milliards. Elle prépare une introduction en Bourse, potentiellement dès 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est le genre de site qui inspire confiance au premier coup d'œil… mais qui, en réalité, ne livre jamais rien. Velogreen.fr se présente comme une boutique en ligne spécialisée dans les vélos et vélos électriques, avec des marques connues, des prix attractifs et une livraison rapide. En apparence, tout est crédible. En pratique, c'est une arnaque. L'association de consommateurs UFC-Que Choisir tire aujourd'hui la sonnette d'alarme. Car derrière cette façade bien construite, aucune commande n'est honorée. Pire encore, le site s'appuie sur l'usurpation d'identité d'une véritable entreprise française pour paraître légitime.L'interface est pourtant soignée : large catalogue, service après-vente visible, tarifs légèrement inférieurs à ceux du marché… rien de trop beau pour être suspect, mais suffisamment alléchant pour convaincre. Et une fois le paiement effectué, plus rien. Plusieurs victimes témoignent : un vélo jamais livré, des e-mails de retard sans suite, ou encore des numéros de suivi fictifs. Ce qui rend l'arnaque particulièrement efficace, c'est son habillage légal. Velogreen affiche une adresse, un numéro de SIRET et même un extrait Kbis, des documents censés prouver l'existence d'une entreprise. Mais ces informations ont été volées à une société bien réelle, Levelographe.fr, spécialisée dans le matériel de vélo.Son dirigeant, Richard, en a fait les frais. Alerté tardivement, il a vu arriver chez lui des courriers d'acheteurs mécontents… et même des appels hostiles. Son adresse personnelle avait été utilisée sans son consentement. Malgré des démarches auprès des autorités, de l'hébergeur et des marques concernées, le site reste en ligne. Ce type d'escroquerie, basé sur l'usurpation d'identité d'entreprises existantes, se multiplie sur Internet.Pour éviter de tomber dans le piège, quelques réflexes simples peuvent aider. Vérifier le numéro de téléphone, par exemple : ici, il n'était pas attribué. Et se méfier des prix trop bas, qui doivent toujours alerter. Pour les victimes, deux démarches sont possibles : signaler le site sur SignalConso, la plateforme officielle de la Répression des fraudes, et contacter sa banque pour tenter de récupérer les fonds. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une promesse que Tesla traîne depuis plusieurs années : proposer une voiture électrique plus accessible. Un modèle à moins de 30 000 dollars, régulièrement évoqué… mais jamais concrétisé. À tel point que certains y voyaient déjà une simple rumeur, voire un projet abandonné. Et pourtant, selon des informations de l'agence Reuters, ce projet serait bien relancé. Tesla travaillerait actuellement sur un nouveau véhicule, distinct de ses Model 3 et Model Y. Il s'agirait d'un SUV compact, un format très prisé sur le marché automobile.Quelques éléments techniques commencent à émerger. Ce futur modèle mesurerait environ 4,28 mètres de long, soit nettement moins qu'un Model Y, qui approche les 4,75 mètres. L'idée serait donc de proposer un véhicule plus compact, potentiellement mieux adapté à un usage urbain ou périurbain. Côté conception, Tesla chercherait à réduire les coûts. Plusieurs pistes sont évoquées. D'abord, un seul moteur électrique, là où les versions actuelles en utilisent souvent deux pour offrir plus de puissance et de motricité. Ensuite, un poids contenu, autour de 1,5 tonne, ce qui reste relativement léger pour un SUV électrique.Autre levier : la batterie. Tesla pourrait opter pour une capacité plus réduite. Moins d'autonomie donc, mais un prix plus compétitif. Car dans une voiture électrique, la batterie représente une part importante du coût total. Sur la production, plusieurs scénarios sont envisagés. Selon Reuters, ce modèle pourrait d'abord être fabriqué en Chine, où Tesla dispose déjà d'une importante capacité industrielle. Mais une extension vers l'Europe ou les États-Unis n'est pas exclue. L'objectif semble clair : proposer un véhicule moins cher que la Model 3, aujourd'hui l'un des modèles les plus abordables de la gamme. Reste une question essentielle : Tesla parviendra-t-il à tenir cette promesse cette fois-ci ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Source : SDESLe rapport des Français à l'environnement évolue, mais reste marqué par une inquiétude persistante. C'est ce que révèle la dernière enquête du Service des données et études statistiques, publiée fin mars. Si les priorités changent légèrement, le changement climatique demeure en tête des préoccupations en 2025, malgré un recul notable de 15 points depuis 2022.Derrière lui, d'autres enjeux progressent. Les catastrophes naturelles gagnent du terrain, tout comme la pollution de l'eau, qui atteint son niveau le plus élevé depuis plus d'une décennie. Une tendance qui traduit une sensibilité accrue aux impacts concrets de la dégradation environnementale. Car au quotidien, les préoccupations des Français sont souvent plus immédiates. La pollution de l'air et les nuisances sonores arrivent en tête des désagréments, avec des différences marquées entre zones urbaines et rurales. Le manque de transports est également pointé du doigt. À l'inverse, les risques technologiques, comme les accidents industriels, restent peu cités.Autre enseignement : une part importante de la population ne se sent pas directement concernée. Un quart des Français déclare ne subir aucune nuisance près de chez lui. Et en 2025, 25 % des personnes interrogées estiment ne pas être exposées à des risques naturels, en hausse par rapport à 2023. Les vagues de chaleur restent toutefois la principale inquiétude liée au climat, notamment après plusieurs épisodes de canicule. Mais paradoxalement, le sentiment d'exposition aux événements extrêmes recule légèrement. Même tendance pour la perception de la nature : 45 % des Français estiment qu'elle s'est dégradée près de chez eux, un chiffre en baisse, mais seuls 8 % jugent qu'elle s'améliore.Face à ces enjeux, les attentes se tournent d'abord vers les pouvoirs publics. Environ un Français sur deux considère que l'État doit agir en priorité. Les entreprises sont également mises à contribution, mais les ménages se sentent moins concernés. Dans le détail, la lutte contre le changement climatique reste centrale, mais la pollution de l'eau devient désormais la principale attente. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Source : SDESC'est un signal encourageant pour la transition énergétique française. Selon les dernières données du Service des statistiques du ministère de la Transition écologique, les émissions de CO₂ liées à la consommation d'énergie ont reculé de 27 % entre 1990 et 2023 en France métropolitaine. Un résultat d'autant plus notable que, sur la même période, la population a augmenté de 17 % et l'activité économique, mesurée par le produit intérieur brut, a progressé de 40 %. Autrement dit, la France parvient progressivement à dissocier croissance et émissions.L'année 2024 confirme cette tendance. Les émissions liées à la combustion d'énergie ont encore diminué, de 2,3 %. Cette baisse concerne l'ensemble des secteurs, avec un rôle particulièrement important du système énergétique. Car l'un des piliers de cette trajectoire reste le mix énergétique français, largement dominé par le nucléaire. En 2024, la production d'énergie a bondi de près de 10 %, notamment grâce à la reprise des centrales nucléaires et à de bonnes conditions pour l'hydroélectricité, c'est-à-dire la production d'électricité à partir de l'eau, via des barrages ou des cours d'eau. Conséquence directe : le recours au gaz pour produire de l'électricité et de la chaleur a chuté de 32 % en un an. Moins de gaz, c'est moins d'émissions. Dans le même temps, la France a réduit sa dépendance énergétique extérieure.Les énergies renouvelables progressent également. L'éolien et le solaire continuent de se développer, et représentent désormais près de 16 % de la consommation primaire d'énergie. Sur le long terme, la part du pétrole a fortement reculé, passant de 50 % en 1990 à 38 % aujourd'hui, tandis que les renouvelables ont presque doublé. Mais tout n'est pas uniforme. Si l'industrie consomme un peu moins d'énergie, les secteurs résidentiel et tertiaire, autrement dit les logements et les services, sont en hausse. Et pour les ménages, la transition a un coût. Même si les prix de l'énergie ont légèrement baissé en 2024, ils restent bien supérieurs à leur niveau d'avant-crise. La fin progressive des aides publiques et la hausse de certaines taxes pèsent sur le pouvoir d'achat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le projet Cigéo, destiné à stocker les déchets nucléaires les plus dangereux en France, voit son coût nettement réévalué. Selon un arrêté publié au Journal officiel, l'enveloppe globale atteint désormais 33,36 milliards d'euros. Une hausse significative par rapport aux 25 milliards estimés en 2016. Cette nouvelle estimation repose sur les conditions économiques de janvier 2025. Elle reste toutefois dans la fourchette avancée récemment par l'Agence nationale pour la gestion des déchets radioactifs (Andra) qui pilote le projet. Celle-ci situait le coût total entre 26,1 et 37,5 milliards d'euros.Mais que couvre exactement cette somme ? Elle inclut l'ensemble du cycle de vie du site : la conception, la construction, l'exploitation… et même la fermeture. Un projet qui s'inscrit sur le très long terme, puisqu'il s'étend sur 151 ans à partir de 2016. Dans le détail, la phase de construction initiale est estimée à 9,74 milliards d'euros, tandis que la fiscalité associée représente environ 3,66 milliards. Cigéo, pour « centre industriel de stockage géologique », prévoit d'enfouir, à environ 500 mètres sous terre, les déchets nucléaires les plus radioactifs. On parle ici de déchets dits « de haute activité », mais aussi de « moyenne activité à vie longue ». Des catégories techniques qui désignent des substances à la fois très radioactives et dont la dangerosité persiste sur des milliers, voire des centaines de milliers d'années.Au total, ce sont environ 83 000 mètres cubes de déchets qui seraient stockés dans ce site souterrain. Le financement repose sur le principe du « pollueur-payeur ». Concrètement, ce sont les acteurs du nucléaire, EDF, Orano et le Commissariat à l'énergie atomique, qui doivent provisionner les sommes nécessaires pour couvrir ces coûts sur le long terme. Ce projet reste toutefois très controversé. Des associations locales et des organisations antinucléaires dénoncent depuis longtemps les incertitudes techniques et financières. Déjà en 2016, certains estimaient que le coût avait été sous-évalué. Aujourd'hui, cette nouvelle estimation doit servir de référence pour les industriels. Mais le projet n'est pas encore autorisé : l'Andra a déposé sa demande en 2023, et une décision n'est pas attendue avant 2027 ou 2028. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La réduction des émissions de gaz à effet de serre est aujourd'hui un enjeu mondial. Et selon le Global Carbon Project, les émissions de CO₂ ont déjà retrouvé, dès 2021, leur niveau d'avant la crise du Covid-19. Dans ce contexte, chaque effort compte, y compris dans des domaines auxquels on pense moins, comme la recherche scientifique. C'est précisément ce qu'a voulu mesurer une équipe de l'Institut de Recherche en Astrophysique et Planétologie, à Toulouse. Dirigés par le chercheur Jürgen Knödlseder, ces scientifiques ont étudié l'empreinte carbone de leur propre discipline : l'astronomie. Leurs résultats ont été publiés en mars 2022 dans la revue Nature Astronomy.Premier constat : l'astronomie émet une quantité significative de CO₂. Et cette empreinte pourrait même être en hausse. Pour y parvenir, les chercheurs ont d'abord tenté d'évaluer les émissions de leur institut. Mais ils ont rapidement élargi leur analyse. Car dans ce domaine, les infrastructures sont dispersées à l'échelle mondiale : télescopes, observatoires, missions spatiales… Autant d'équipements énergivores. Au total, l'étude a porté sur une quarantaine d'observatoires et de télescopes, ainsi qu'une cinquantaine de missions spatiales majeures. Mais un obstacle important est apparu : le manque de données précises. Faute de transparence sur les émissions réelles, les chercheurs ont utilisé une méthode indirecte, appelée « ratio monétaire ». Elle consiste à estimer les émissions à partir du coût financier des projets, une approche utile, mais entachée d'incertitudes.Malgré ces limites, les résultats donnent un ordre de grandeur. Depuis leur création, ces infrastructures auraient généré environ 20,3 millions de tonnes de CO₂. En moyenne, cela correspond à environ 1,2 million de tonnes par an, soit l'équivalent des émissions d'un petit pays comme la Croatie. À l'échelle individuelle, chaque astronome serait responsable d'environ 36 tonnes de CO₂ par an, bien au-dessus de la moyenne française, autour de 10 tonnes. Cela équivaut, par exemple, aux émissions d'une voiture parcourant 150 000 kilomètres. Mais réduire cette empreinte s'annonce complexe. Les projets deviennent de plus en plus ambitieux, et donc plus gourmands en ressources. De nouvelles infrastructures sont en construction, comme l'Extremely Large Telescope en Europe. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les terres rares, malgré leur nom, ne sont pas forcément rares… mais elles sont devenues stratégiques. Ce groupe de 17 métaux, parmi lesquels le néodyme, le samarium ou encore le dysprosium, est indispensable à de nombreuses technologies du quotidien. On les retrouve dans les moteurs de véhicules électriques, les éoliennes, les smartphones ou encore certains équipements électroniques.Le problème, c'est la dépendance. Aujourd'hui, la Chine domine largement ce marché. Elle assure environ 70 % de la production mondiale, et jusqu'à 90 % des opérations de traitement et de séparation, des étapes clés pour rendre ces matériaux utilisables. Même si des pays comme les États-Unis produisent aussi des terres rares, une grande partie du monde reste tributaire de l'industrie chinoise. Face à ce constat, la France tente de reprendre la main. L'État vient de soutenir un projet porté par Caremag, filiale du groupe Carester, spécialisée dans l'expertise des terres rares. Au total, 106 millions d'euros d'investissement public, auxquels s'ajoutent 110 millions apportés par le groupe japonais Iwatani Corporation. Ensemble, ils ont créé une coentreprise baptisée Japan France Rare Earth Company.Le projet : construire une usine de recyclage à Lacq, dans les Pyrénées-Atlantiques, avec une mise en service prévue fin 2026. L'objectif est ambitieux : recycler chaque année environ 2 000 tonnes d'aimants, ces composants riches en terres rares, et traiter jusqu'à 5 000 tonnes de concentrés miniers. L'installation pourrait devenir le premier site de recyclage de ce type en Europe, et un acteur majeur pour certaines terres rares dites « lourdes », comme le terbium ou le dysprosium. L'enjeu dépasse la seule industrie française. Il s'agit aussi de renforcer l'autonomie européenne, notamment dans la production d'aimants permanents, essentiels à la transition énergétique.Parallèlement, une autre piste est à l'étude : relancer l'exploitation minière sur le territoire. Un inventaire des ressources stratégiques vient d'être lancé, piloté par le Bureau de Recherches Géologiques et Minières. Mais à court terme, le recyclage apparaît comme une solution clé. Moins polluant, moins énergivore et moins gourmand en eau que l'extraction minière, il pourrait devenir un levier majeur pour sécuriser l'approvisionnement… tout en limitant l'impact environnemental. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une transformation discrète, mais potentiellement massive, qui se prépare sur les parkings français. Avec la loi du 10 mars 2023, l'État a affiché un objectif clair : accélérer le développement des énergies renouvelables pour combler le retard de la France, qui, encore récemment, peinait à atteindre les objectifs européens, notamment les 23 % d'énergie renouvelable dans sa consommation.Un décret publié en novembre 2024 vient désormais préciser les règles du jeu. Il impose aux parkings de plus de 1 500 m² d'installer des ombrières équipées de dispositifs de production d'énergie renouvelable, le plus souvent des panneaux photovoltaïques. Concrètement, il s'agit de structures couvertes, installées au-dessus des places de stationnement, capables à la fois de protéger les véhicules du soleil… et de produire de l'électricité.Le calendrier est fixé. Les plus grands parkings, ceux de plus de 10 000 m², devront être conformes dès juillet 2026. Pour les surfaces comprises entre 1 500 et 10 000 m², l'échéance est repoussée à 2028. Dans tous les cas, au moins 50 % de la surface devra être équipée. Les grandes surfaces sont en première ligne : leurs parkings représentent à eux seuls environ 70 millions de mètres carrés en France. Le texte prévoit aussi des sanctions. En cas de non-respect, l'amende peut atteindre 50 euros par mètre carré non équipé. Pour un parking de 3 000 m², cela représente potentiellement 150 000 euros. De quoi inciter fortement à se mettre en conformité. Malgré cela, certaines enseignes ont demandé un report de deux ans, sans succès.Au-delà de la contrainte, cette mesure change la nature même des parkings. D'espaces purement utilitaires, ils deviennent des sites de production énergétique. L'électricité générée pourra être utilisée localement, par exemple pour alimenter des bornes de recharge pour véhicules électriques. Certes, ces installations représentent un coût important à l'investissement. Mais elles participent à réduire l'empreinte carbone des grandes surfaces, souvent critiquées pour leur consommation énergétique. Autrement dit, demain, faire ses courses pourrait aussi contribuer, indirectement, à produire de l'énergie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On parle souvent de l'intelligence artificielle comme d'une course aux puces électroniques, ces fameux GPU, et à la mémoire ultra-rapide, comme la HBM. Mais une autre ressource devient tout aussi stratégique, et beaucoup moins visible : les batteries.Le groupe japonais Panasonic vient d'annoncer un virage industriel majeur. Objectif : tripler sa production de cellules lithium-ion au Japon et adapter certaines de ses usines, notamment aux États-Unis, pour répondre à une demande en forte hausse. À la clé, une ambition claire : atteindre 800 milliards de yens de chiffre d'affaires dans les batteries destinées aux datacenters d'ici 2029, soit environ 5 milliards de dollars, quatre fois plus qu'aujourd'hui.Mais attention, ces batteries ne servent pas directement à alimenter les serveurs. Elles jouent un rôle de sécurité. En cas de coupure électrique, elles prennent le relais pendant quelques minutes, comme des onduleurs, ces dispositifs qui stabilisent et maintiennent le courant. Elles permettent aussi de stocker de l'électricité pour la restituer lorsque les prix de l'énergie augmentent. Pour répondre à cette demande, Panasonic réoriente même une partie de ses lignes de production, initialement dédiées à l'automobile. Le groupe affirme que 80 % de sa capacité future est déjà réservée par des clients, et revendique environ 80 % de parts de marché sur ce segment. Des chiffres à prendre avec précaution : ils proviennent de l'entreprise elle-même et ne sont pas, à ce stade, confirmés par des sources indépendantes.En parallèle, Panasonic développe aussi des supercondensateurs, des composants capables de stocker et restituer de l'énergie très rapidement, utiles pour absorber les variations de charge dans les centres de données. Le contexte rend cette stratégie crédible. La demande énergétique des datacenters explose. Selon certaines estimations, leur consommation pourrait quadrupler d'ici 2030. Aux États-Unis, la puissance nécessaire pourrait atteindre 74 gigawatts d'ici 2028, avec un déficit important à la clé.Le scénario rappelle celui de certaines mémoires informatiques, déjà vendues avant même d'être produites. Alors, faut-il craindre une pénurie de batteries ? Il est encore trop tôt pour l'affirmer. Mais tous les ingrédients sont là : une demande en forte croissance, des capacités limitées… et une industrie sous tension. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un projet industriel qui illustre concrètement la transition énergétique en cours. Vendredi, l'entreprise HyforSeeds a obtenu un soutien public de 144 millions d'euros de l'État français, validé par la Commission européenne, pour construire une unité de production d'hydrogène renouvelable en Alsace. Au cœur du dispositif : un électrolyseur de 50 mégawatts. Cet équipement permet de produire de l'hydrogène à partir d'eau et d'électricité, à condition que cette électricité soit d'origine renouvelable, comme l'éolien ou le solaire. L'installation sera implantée dans la zone industrielle d'Ottmarsheim-Chalampé, dans le Haut-Rhin, directement sur le site du chimiste LAT Nitrogen, un acteur majeur de la production d'engrais.L'idée est simple : connecter cette nouvelle source d'hydrogène « vert » à une industrie qui consomme déjà massivement ce gaz. Car aujourd'hui, l'hydrogène utilisé pour fabriquer l'ammoniac, un composant essentiel des engrais, est majoritairement produit à partir de gaz naturel. Un procédé très émetteur de CO₂. Avec ce projet, jusqu'à 15 % de cet hydrogène fossile pourra être remplacé par une alternative renouvelable. Une proportion qui peut sembler modeste, mais dont l'impact est significatif : au moins 70 % de réduction des émissions liées à cette production, soit plus de 46 000 tonnes de CO₂ évitées chaque année, l'équivalent des émissions d'environ 25 000 voitures.Le financement public couvrira une partie des coûts, notamment la construction de l'électrolyseur et des infrastructures associées. La Commission européenne a estimé que cette aide était indispensable : sans elle, le projet n'aurait pas vu le jour. Elle a également vérifié qu'elle respectait les règles encadrant les aides d'État, conçues pour éviter toute distorsion de concurrence entre entreprises. Pour Bruxelles, ce projet s'inscrit pleinement dans les objectifs climatiques de l'Union. D'ici 2030, 42 % de l'hydrogène consommé par l'industrie devra être renouvelable, puis 60 % en 2035. Autrement dit, la transformation est déjà en marche. Et elle passera, concrètement, par ce type d'installations, déployées progressivement sur les grands sites industriels européens. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une annonce qui semble tout droit sortie de la science-fiction : en Australie, des chercheurs du CSIRO, l'agence nationale de recherche scientifique, en collaboration avec l'université de Melbourne et RMIT, ont mis au point un premier prototype de batterie quantique capable de réaliser un cycle complet : charge, stockage, puis décharge. Sur le papier, les perspectives sont vertigineuses. Le physicien James Quach évoque, à long terme, des voitures électriques rechargeables plus vite qu'un plein d'essence, ou encore des appareils alimentés à distance par laser. Mais il tempère immédiatement : à ce stade, la capacité du prototype est extrêmement faible, insuffisante pour alimenter le moindre appareil du quotidien.Concrètement, l'énergie stockée se mesure en milliards d'électronvolts, une unité utilisée en physique des particules, et surtout, elle ne reste disponible que quelques nanosecondes, c'est-à-dire des milliardièmes de seconde. Autant dire que l'énergie disparaît presque aussitôt stockée. Alors, qu'est-ce qui rend cette technologie si particulière ? Elle repose sur un phénomène quantique appelé « effet collectif ». Dans une batterie classique, comme celles au lithium-ion, plus vous ajoutez de cellules, plus le temps de charge augmente. Ici, c'est l'inverse : les unités de stockage interagissent entre elles et se comportent comme un seul système. Résultat, plus la batterie est grande, plus elle peut se charger rapidement. Théoriquement, si l'on multiplie le nombre d'unités, le temps de charge diminue selon une racine carrée, un gain spectaculaire.Le prototype repose sur une microcavité organique, une structure capable de piéger la lumière. Cette lumière est absorbée en un seul événement massif, appelé « super-absorption », permettant une charge extrêmement rapide. Les chercheurs ont mesuré des temps de charge de l'ordre de la femtoseconde, un millionième de milliardième de seconde, grâce à des lasers ultra-précis. Mais le défi reste immense : retenir l'énergie. Même après des progrès récents, une durée de stockage multipliée par mille en 2025, on reste très loin des besoins pratiques. Pour l'instant, cette technologie pourrait surtout trouver sa place dans les ordinateurs quantiques, qui nécessitent des sources d'énergie extrêmement stables et précises. En parallèle, les chercheurs explorent des solutions hybrides, combinant vitesse quantique et stockage classique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le Moyen-Orient reste un point névralgique pour l'économie mondiale, principalement en raison de son rôle central dans la production d'hydrocarbures. Mais ce que l'on sait moins, c'est que d'autres ressources stratégiques transitent aussi par le détroit d'Ormuz. Parmi elles : les engrais azotés, comme l'urée ou les ammonitrates, indispensables à l'agriculture, et un gaz discret mais crucial, l'hélium.Ce dernier est aujourd'hui au cœur des inquiétudes. Déjà, il y a plusieurs mois, des responsables sud-coréens alertaient sur les risques de tensions d'approvisionnement. Des avertissements restés sans effet… et qui prennent désormais tout leur sens. Car l'hélium est un marché très concentré. En 2025, les États-Unis dominent la production mondiale avec environ 41 %, suivis de près par le Qatar, qui en assure près d'un tiers. Problème : ce dernier ne peut plus exporter. Le blocage du détroit d'Ormuz par l'Iran, en réponse à des frappes américano-israéliennes, perturbe fortement les flux. Résultat, après plusieurs semaines, le spectre d'une pénurie commence à émerger. Selon l'agence Reuters, un responsable français du groupe Air Liquide évoque un risque réel à court terme. D'autres industriels confirment que l'absence du Qatar se fait déjà sentir dans les chaînes d'approvisionnement mondiales.Il faut dire que l'hélium est indispensable dans de nombreux secteurs de pointe. Dans le domaine médical, par exemple, il est utilisé sous forme liquide pour refroidir les aimants des IRM, ces appareils d'imagerie par résonance magnétique. Sans refroidissement, ces aimants supraconducteurs ne peuvent tout simplement pas fonctionner. Dans l'industrie des semi-conducteurs, au cœur de nos smartphones et ordinateurs, l'hélium sert à refroidir les plaques de silicium, appelées “wafers”, mais aussi à créer une atmosphère inerte, c'est-à-dire sans réaction chimique, pour éviter toute altération des matériaux. Les alternatives restent limitées. Après les États-Unis et le Qatar, la Russie et l'Algérie complètent le podium, mais avec des contraintes, notamment géopolitiques. Des pays clés comme la Corée du Sud ou Taïwan disposent bien de réserves, mais seulement pour quelques mois. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À chaque variation du prix du pétrole, l'impact se fait sentir à l'échelle mondiale. Selon le think tank Ember, spécialisé dans la transition énergétique, une hausse de 10 dollars du baril entraîne environ 160 milliards de dollars de dépenses supplémentaires par an pour les importations de pétrole. Une dépendance coûteuse, qui pousse de plus en plus d'acteurs à chercher des alternatives. Parmi elles, l'électrification des transports apparaît comme un levier majeur. D'après les calculs d'Ember, basés sur des données de l'Agence internationale de l'énergie, le développement des véhicules électriques et hybrides rechargeables pourrait réduire d'un tiers les importations mondiales d'énergies fossiles. À la clé : une économie potentielle de 600 milliards de dollars par an.Les premiers effets sont déjà visibles. En Chine, où les voitures électriques représentent désormais près de la moitié des ventes, les économies sont significatives : plus de 28 milliards de dollars d'importations de pétrole évitées pour un baril autour de 80 dollars. En Europe, incluant le Royaume-Uni et la Norvège, le gain est estimé à environ 8 milliards de dollars. Ce contexte prend une résonance particulière alors que les tensions au Moyen-Orient perturbent les flux énergétiques. Près de 20 % du pétrole mondial transite par le détroit d'Ormuz, un point stratégique actuellement affecté par ces tensions, ce qui contribue à la volatilité des prix.À l'échelle des consommateurs, l'impact est tout aussi concret. L'ONG Transport & Environment estime qu'avec un carburant autour de 2 euros le litre, le coût mensuel moyen pour un véhicule thermique atteint environ 142 euros, contre 104 euros avant les récentes tensions. À l'inverse, un véhicule électrique nécessiterait environ 65 euros de recharge mensuelle pour une distance équivalente, soit une économie d'environ 77 euros par mois, ou près de 924 euros par an. À l'échelle européenne, les chiffres confirment cette tendance. Les 8 millions de voitures électriques déjà en circulation dans l'Union européenne auraient permis d'économiser 2,9 milliards d'euros d'importations de pétrole en 2025, sur un total de 67 milliards liés aux carburants pour automobiles. Pour l'ONG, renforcer les politiques de réduction des émissions de CO₂ dans le secteur automobile pourrait amplifier ce mouvement. Elle estime que cela permettrait d'économiser jusqu'à 45 milliards d'euros d'importations de pétrole entre 2026 et 2035. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Chaque 18 mars, la Journée mondiale du recyclage rappelle l'importance de repenser notre rapport aux déchets. Créée en 1994 aux États-Unis, elle s'est internationalisée en 2018 sous l'impulsion du Bureau of International Recycling. En France, elle en est aujourd'hui à sa cinquième édition. L'occasion de mettre en lumière des initiatives qui transforment nos rebuts… en ressources.Parmi elles, le travail du studio Bentu Design illustre une approche à la fois technique et esthétique du recyclage. À première vue, leurs créations semblent simples : des chaises, des tabourets. Mais leur fabrication raconte une autre histoire. Ces objets sont conçus à partir de déchets de chantiers urbains : béton, briques, gravats ou mortiers. Une fois récupérés, ces matériaux sont triés, broyés puis intégrés dans un mélange cimentaire utilisé pour l'impression 3D. Cette technique consiste à fabriquer un objet couche par couche à partir d'un matériau injecté, ici enrichi jusqu'à 85 % de déchets solides recyclés. Ce procédé présente plusieurs avantages. Il limite les transports — les matériaux sont issus du même environnement urbain — et réduit les émissions de CO₂ de 65 à 80 % par rapport à une production industrielle classique. Le taux d'utilisation de la matière atteint, lui, 92 %, ce qui réduit considérablement les pertes.Mais Bentu Design ne s'arrête pas aux déchets minéraux. Le studio explore aussi le potentiel du plastique urbain recyclé. Plutôt que de le considérer comme un problème, il le transforme en mobilier du quotidien. Les matériaux sont triés par type et par couleur, puis assemblés pour créer des pièces uniques, où chaque nuance raconte l'origine des fragments utilisés. Autre exemple : le tabouret Wu, fabriqué à partir de semelles de chaussures usagées. Un objet de 17 kilos, composé à 90 % de cette matière, soit l'équivalent d'une soixantaine de semelles. Un choix loin d'être anodin, quand on sait que plus de 20 milliards de paires de chaussures sont produites chaque année dans le monde, la plupart finissant incinérées ou en décharge.Au-delà de l'aspect environnemental, ces objets sont pensés pour être pratiques, modulables et durables, utilisables aussi bien en intérieur qu'en extérieur. À travers ces créations, Bentu Design propose une autre lecture du déchet : non plus comme une fin, mais comme le point de départ d'un nouveau cycle. Une manière concrète de montrer que recycler, ce n'est pas seulement traiter nos déchets… c'est aussi réinventer leur usage. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Chaque année, nous produisons toujours plus de déchets électroniques. En moyenne, près de huit kilos par personne. À l'échelle mondiale, cela représentait déjà 62 millions de tonnes en 2022. Et le rythme s'accélère : ces déchets augmentent cinq fois plus vite que les capacités de recyclage. Résultat, une grande partie finit enfouie ou incinérée.Le problème est bien connu : nos appareils électroniques sont extrêmement difficiles à recycler. Ils combinent des matériaux très différents, métaux, plastiques, semi-conducteurs, étroitement imbriqués. Et c'est encore plus vrai pour les robots souples, ces machines flexibles utilisées en agriculture ou en médecine. Leur structure repose sur des polymères complexes, mélangés à des composants électroniques classiques, ce qui rend leur traitement en fin de vie particulièrement compliqué.Mais une équipe de chercheurs sud-coréens, issue de l'université nationale de Séoul et de l'université Sogang, propose une piste radicalement différente : concevoir des robots entièrement biodégradables. Leur prototype, présenté dans la revue Nature Sustainability, repose sur un matériau clé : le poly(sébacate de glycérol), ou PGS. Il s'agit d'un élastomère, un matériau souple proche du caoutchouc, mais surtout biodégradable. Contrairement aux plastiques traditionnels, il peut se décomposer naturellement dans certaines conditions. Les chercheurs ne se sont pas arrêtés là. Ils ont également intégré des composants électroniques eux aussi conçus pour disparaître : des éléments à base de magnésium, de molybdène et de silicium, capables de se dégrader sans laisser de résidus toxiques.Malgré cette conception « éphémère », les performances sont au rendez-vous. Le robot peut embarquer des capteurs, température, humidité, des systèmes chauffants ou encore des dispositifs capables d'administrer des médicaments. Et surtout, il reste fonctionnel même après un million de cycles d'utilisation, ce qui témoigne d'une robustesse réelle. Une fois sa mission terminée, il suffit de le placer dans un environnement de compostage industriel, un procédé contrôlé qui accélère la décomposition des matières organiques, pour qu'il se désagrège complètement en quelques mois, sans impact environnemental notable. L'idée est simple, mais puissante : concevoir des machines capables de remplir leur rôle… puis de disparaître.Dans un monde confronté à une explosion des déchets électroniques, cette approche pourrait ouvrir une nouvelle voie : celle d'une technologie pensée non seulement pour être performante, mais aussi pour retourner à la nature une fois devenue inutile. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le méthane est souvent moins médiatisé que le dioxyde de carbone, mais son rôle dans le réchauffement climatique est crucial. C'est même le deuxième gaz à effet de serre le plus important, responsable d'environ un quart du réchauffement d'origine humaine. Sa particularité ? Une durée de vie plus courte dans l'atmosphère, mais un pouvoir réchauffant extrêmement élevé : sur vingt ans, il retient jusqu'à 86 fois plus de chaleur que le CO₂ à masse égale.Pour mieux comprendre d'où viennent ces émissions, des chercheurs de l'université de Californie à Los Angeles ont mené une enquête inédite à l'aide de satellites d'observation. Ces instruments permettent de détecter depuis l'espace des « panaches » de méthane — autrement dit des fuites invisibles à l'œil nu, mais mesurables grâce à leur signature chimique.Leur analyse, portant sur l'année 2025, identifie les 25 sites industriels les plus polluants au monde dans le secteur du pétrole et du gaz. Et le résultat est frappant : 15 de ces 25 “super-émetteurs” se trouvent au Turkménistan, un pays rarement évoqué dans les débats climatiques. Les deux sites les plus émetteurs, situés dans la ville d'Esenguly, rejettent chacun plus de 10 tonnes de méthane par heure. Derrière, on retrouve plusieurs installations au Venezuela et en Iran. Un seul site américain figure dans le classement : à Stanton, au Texas, avec environ 5,5 tonnes par heure.À l'échelle climatique, ces chiffres sont vertigineux. Une fuite moyenne de ce classement — autour de 5 tonnes par heure — peut avoir, sur une année, le même impact qu'une centrale à charbon ou qu'un million de SUV. Le plus frappant, c'est que ces émissions ne sont pas inévitables. Selon les chercheurs, elles proviennent essentiellement d'infrastructures vieillissantes ou mal entretenues. En clair, des équipements défectueux qui laissent échapper du gaz… qui pourrait pourtant être capté et revendu.Autrement dit, une partie du problème pourrait être résolue avec des réparations relativement simples. Cette étude met en lumière un enjeu clé : réduire les fuites de méthane est l'un des moyens les plus rapides d'agir sur le climat à court terme. Car contrairement au CO₂, ses effets diminuent rapidement si les émissions baissent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Une équipe de chercheurs américains, dirigée notamment par l'océanographe Lihini Aluwihare, vient de publier l'une des analyses chimiques les plus vastes jamais menées sur les océans. Plus de 2 300 échantillons d'eau de mer, prélevés entre 2017 et 2022 aux quatre coins du globe, ont été passés au crible. Et le constat est sans appel : l'empreinte chimique humaine est désormais omniprésente dans les mers.Pour parvenir à ce résultat, les scientifiques ont utilisé une méthode dite « non ciblée ». Contrairement aux analyses classiques, qui recherchent des substances précises, cette approche permet de détecter simultanément des milliers de composés, même inconnus au départ. Grâce à une technique appelée spectrométrie de masse, qui identifie les molécules en fonction de leur masse, les chercheurs ont mis en évidence 248 substances d'origine humaine. Parmi elles, des additifs plastiques, des lubrifiants industriels, des résidus de médicaments ou encore des pesticides. Autant de composés qui, pour beaucoup, étaient jusqu'ici peu surveillés. Le plus frappant, c'est leur diffusion. Les cinq substances les plus fréquentes ont été retrouvées dans plus de 30 % des échantillons, y compris en pleine haute mer. Près des côtes, les analyses révèlent davantage de traces de médicaments, comme des anxiolytiques, ou de répulsifs anti-insectes comme le DEET. Dans les estuaires, zones de transition entre fleuves et océans, les composés de synthèse peuvent représenter jusqu'à 76 % des substances détectées. Même les régions les plus isolées, comme certains récifs coralliens éloignés, ne sont pas épargnées.Pour les chercheurs, le plus préoccupant n'est pas seulement la quantité, mais l'ampleur de la dispersion. En haute mer, ces substances ne représentent parfois que 0,5 à 4 % des composés présents. Des chiffres faibles en apparence, mais qui témoignent d'une contamination globale. Et il reste des angles morts. Certaines molécules, comme les PFAS, ces « polluants éternels » très persistants, échappent encore aux méthodes actuelles. D'autres ne figurent pas dans les bases de données utilisées pour les identifier.Reste une question essentielle : quel impact sur les écosystèmes ? Les scientifiques reconnaissent qu'ils ne disposent pas encore de toutes les réponses. Mais une chose est sûre : ces composés, appelés xénobiotiques, s'accumulent et pourraient influencer le fonctionnement des océans, notamment le cycle du carbone. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Parmi toutes les énergies renouvelables, le solaire photovoltaïque apparaît aujourd'hui comme l'un des piliers de la transition énergétique. Selon l'ONU, début 2026, produire de l'électricité grâce au Soleil est désormais environ 41 % moins coûteux que les énergies fossiles. Un basculement économique majeur qui explique l'essor rapide de cette technologie dans de nombreux pays.Le potentiel est colossal. Chaque seconde, la Terre reçoit une quantité d'énergie solaire équivalente à près de 8 000 fois la consommation énergétique annuelle de l'humanité. Sur le papier, la ressource semble donc presque inépuisable. Pourtant, dans la pratique, la production solaire reste sensible aux caprices du climat. Des températures extrêmes peuvent réduire le rendement des panneaux, et des événements violents comme la grêle peuvent endommager des installations entières. Mais un autre facteur, moins connu, influence aussi la production d'électricité solaire : le cycle climatique El Niño – La Niña, souvent appelé ENSO par les climatologues. Une nouvelle étude publiée dans la revue Communications Earth & Environment montre que ce phénomène naturel peut modifier significativement l'ensoleillement à l'échelle mondiale.ENSO est l'une des principales sources de variabilité naturelle du climat. Il alterne entre deux phases : La Niña, associée à des eaux plus froides dans le Pacifique équatorial, et El Niño, caractérisée par un réchauffement de cette zone. Alors que La Niña touche actuellement à sa fin, les scientifiques anticipent un retour d'El Niño entre l'été et l'automne 2026. Or, selon les chercheurs, ces épisodes ont tendance à réduire l'irradiation solaire, c'est-à-dire la quantité de rayonnement qui atteint la surface de la Terre. L'analyse de données climatiques couvrant près de quarante ans montre que les épisodes El Niño provoquent des baisses persistantes de production solaire dans plusieurs grandes régions productrices : la Californie, le sud du désert d'Atacama, le bassin du Chaco en Amérique du Sud, le Moyen-Orient ou encore l'est de la Chine.Le phénomène s'explique notamment par l'augmentation de l'humidité dans l'atmosphère. El Niño modifie la circulation des masses d'air et favorise la formation de nuages, ce qui réduit la quantité de lumière atteignant les panneaux photovoltaïques. Les effets pourraient être particulièrement marqués lors des rares épisodes dits de « super El Niño ». Depuis les années 1980, seulement trois ont été observés. Selon l'étude, ces épisodes pourraient entraîner une baisse significative de la production solaire mondiale, obligeant temporairement certains pays à recourir davantage aux énergies fossiles et augmentant les émissions de CO₂ de plusieurs dizaines de millions de tonnes. En France, l'impact direct semble plus limité en été. En revanche, durant l'automne et l'hiver, El Niño est souvent associé à un ciel plus nuageux et à des conditions plus humides, ce qui pourrait aussi influencer, modestement, la production solaire nationale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Produire de l'électricité grâce au Soleil… même en pleine nuit. L'idée peut sembler paradoxale, et pourtant une start-up américaine veut tenter l'expérience. Son nom : Reflect Orbital. Son projet : envoyer dans l'espace des milliers de miroirs capables de rediriger la lumière solaire vers la Terre après le coucher du soleil.Le concept est simple sur le papier. Plutôt que de produire de l'énergie directement dans l'espace — comme certains projets de centrales solaires orbitales qui envisagent ensuite de transmettre l'électricité vers la Terre — Reflect Orbital propose de faire l'inverse : renvoyer la lumière du Soleil vers la surface terrestre, afin d'éclairer des zones plongées dans la nuit. Pour y parvenir, l'entreprise californienne envisage de déployer jusqu'à 50 000 miroirs en orbite terrestre. Ces satellites fonctionneraient comme des réflecteurs géants capables de rediriger la lumière vers des zones ciblées au sol.Selon le New York Times, la société se prépare déjà à lancer un premier prototype : un miroir d'environ 18 mètres de large. Mais avant cela, elle doit obtenir l'autorisation de la Federal Communications Commission, l'autorité américaine chargée notamment de réguler les communications et les satellites. Si le projet est validé, Reflect Orbital prévoit d'envoyer environ 1 000 satellites d'ici 2028. Chacun serait capable d'éclairer une zone d'environ 5 kilomètres de diamètre.Les premiers tests seraient modestes. L'objectif est d'atteindre cette année une intensité lumineuse de 0,1 lux pendant cinq minutes, soit à peu près l'équivalent de la lumière d'une pleine lune. Mais l'entreprise voit plus grand. Elle vise 100 lux en 2028, 5 000 lux en 2030, puis 36 000 lux d'ici 2035 lorsque la constellation complète sera opérationnelle. À titre de comparaison, 36 000 lux correspondent à un niveau de luminosité proche d'un plein soleil en journée.La lumière deviendrait alors un service commercial : éclairer des fermes solaires pour produire de l'électricité la nuit, soutenir des opérations de secours, illuminer des villes ou encore stimuler la production agricole. Mais ce projet suscite aussi des critiques. Des scientifiques et des environnementalistes s'inquiètent de ses effets potentiels. Une lumière artificielle venue du ciel pourrait perturber les observations astronomiques, distraire les pilotes d'avion ou encore modifier les rythmes biologiques des animaux et des plantes. L'astronome Michael Brown, de l'université Monash, se montre également sceptique sur les calculs de l'entreprise. Selon lui, plus de 3 000 satellites seraient nécessaires pour produire seulement 20 % de l'ensoleillement de midi sur un seul site. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'essor de l'intelligence artificielle pose un défi de plus en plus visible : son appétit énergétique. Les modèles d'IA nécessitent d'énormes quantités de calculs informatiques, et ces calculs demandent à la fois de l'électricité pour alimenter les serveurs… et encore plus d'énergie pour refroidir les centres de données où ces machines fonctionnent en continu.Pour tenter de réduire cette consommation, des chercheurs de l'université de Sydney explorent une piste radicalement différente : remplacer l'électricité par la lumière pour effectuer certains calculs. Dans une étude publiée dans la revue Nature Communications, ils présentent un prototype de puce photonique, spécialement conçue pour l'intelligence artificielle. Le principe repose sur une idée simple mais ambitieuse. Dans les processeurs traditionnels, les calculs sont réalisés grâce au déplacement d'électrons dans des circuits électriques. La puce développée par les chercheurs, elle, utilise des photons, les particules de lumière, pour traiter l'information.Cette approche présente plusieurs avantages. D'abord la vitesse : la lumière se déplace extrêmement rapidement, ce qui permet d'effectuer certains calculs en quelques picosecondes, c'est-à-dire en un millième de milliardième de seconde. Ensuite l'efficacité énergétique : contrairement aux électrons, les photons ne rencontrent quasiment pas de résistance lorsqu'ils circulent. Résultat, beaucoup moins d'énergie est dissipée sous forme de chaleur, ce qui réduit fortement les besoins en refroidissement.Pour construire cette puce, les chercheurs ont gravé de minuscules structures optiques appelées nanostructures photoniques. Chacune mesure seulement quelques dizaines de micromètres, soit une fraction de millimètre. Lorsque la lumière traverse ces structures, sa trajectoire et ses propriétés sont modifiées de manière très précise. En combinant des milliers de ces nanostructures, les scientifiques ont créé un système capable de reproduire le fonctionnement d'un réseau neuronal, c'est-à-dire l'architecture mathématique utilisée par de nombreux modèles d'intelligence artificielle. La densité de calcul obtenue est impressionnante : environ 400 millions de paramètres par millimètre carré. Pour tester leur prototype, les chercheurs l'ont entraîné à analyser plus de 10 000 images médicales, notamment des IRM. Les résultats sont prometteurs : selon les expériences, la précision de classification se situe entre 90 et 99 %.Si cette technologie devait un jour être industrialisée, elle pourrait transformer l'infrastructure de l'IA. En intégrant directement des réseaux neuronaux dans des circuits optiques, il serait possible de réduire considérablement la consommation énergétique des centres de données. Dans un contexte où la demande en puissance de calcul explose, certains experts évoquent même le risque d'une pénurie d'énergie liée à l'IA. Les puces photoniques pourraient donc représenter l'une des clés pour continuer à développer ces technologies… sans faire exploser la facture énergétique mondiale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'essor de l'intelligence artificielle pose un défi énergétique majeur. Selon l'Agence internationale de l'énergie, les centres de données devraient consommer entre 2 et 3 % de l'électricité mondiale dès 2026, soit environ 500 térawattheures par an. Pour donner un ordre de grandeur, c'est l'équivalent de la consommation électrique d'un pays comme la France. Et avec la généralisation de l'IA générative, cette demande pourrait doubler d'ici 2030. Face à cette explosion des besoins, les géants du numérique cherchent des solutions capables d'assurer une alimentation électrique stable, tout en réduisant les émissions de CO₂. L'une des pistes les plus prometteuses consiste à associer énergies renouvelables et stockage massif d'électricité grâce à de gigantesques batteries.C'est précisément la stratégie adoptée par Google, qui prépare un projet spectaculaire aux États-Unis, sur un site de 200 hectares à Pine Island. L'installation sera alimentée par un portefeuille d'électricité renouvelable, essentiellement éolien et solaire, capable de fournir 1 600 mégawatts de puissance. Mais la pièce maîtresse du projet réside dans son système de stockage. Google prévoit d'y installer une batterie géante de 300 mégawatts, capable de fournir de l'énergie pendant près de 100 heures consécutives, soit environ quatre jours d'autonomie. Une performance inédite pour ce type d'infrastructure.L'objectif est clair : garantir une alimentation continue du centre de données sans dépendre des centrales fossiles ou des générateurs diesel, encore utilisés par près de 80 % des centres de données dans le monde pour assurer les secours en cas de panne. La technologie retenue est développée par la start-up américaine Form Energy. Elle repose sur un système dit « fer-air », basé sur un principe chimique simple : l'oxydation et la réduction du fer. En stockant l'électricité sous forme de réaction chimique, ces batteries peuvent accumuler de grandes quantités d'énergie et la restituer pendant de longues périodes, tout en supportant des milliers de cycles.Par sa capacité énergétique, ce dispositif pourrait devenir la plus grande batterie du monde. À titre de comparaison, il serait capable d'alimenter plus de 100 000 foyers américains pendant une journée. Pour Google, ce projet constitue un véritable laboratoire. L'entreprise veut démontrer qu'il est possible d'alimenter ses centres de données 24 heures sur 24 et 7 jours sur 7 avec de l'énergie décarbonée, sans recourir à des compensations carbone. Un enjeu stratégique pour le groupe, dont les émissions de CO₂ ont augmenté d'environ 50 % depuis 2019, notamment en raison du développement massif de l'intelligence artificielle. L'équation énergétique du numérique devient donc l'un des grands défis technologiques de la décennie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans l'industrie spatiale, un nouveau pari technologique pourrait bien changer les règles du jeu. La start-up américaine Lux Aeterna, fondée en 2024, veut rendre les satellites… réutilisables. À sa tête, on trouve Brian Taylor, un ingénieur chevronné passé par SpaceX et Amazon, où il a participé au développement des mégaconstellations Starlink et Project Kuiper.Aujourd'hui, la plupart des satellites ont une durée de vie relativement courte. En orbite basse, ils fonctionnent généralement entre cinq et dix ans, avant d'être désorbités, c'est-à-dire volontairement détruits dans l'atmosphère, ou envoyés vers une orbite cimetière, une zone éloignée où l'on place les satellites hors service. Ce modèle implique de fabriquer régulièrement de nouveaux engins, ce qui représente un coût très élevé.L'ambition de Lux Aeterna est de rompre avec cette logique. L'entreprise veut créer des satellites capables de revenir sur Terre, d'être remis à niveau, puis relancés. L'idée ressemble à ce que SpaceX a déjà réussi avec les fusées réutilisables, mais appliquée cette fois aux satellites eux-mêmes. Le principal obstacle est thermique. Lorsqu'un objet rentre dans l'atmosphère, il subit des températures extrêmes, parfois plusieurs milliers de degrés, à cause du frottement avec l'air. Pour survivre à cette phase critique, Lux Aeterna prévoit d'intégrer un bouclier thermique directement dans la structure du satellite.Ce système permettrait au satellite de revenir intact sur Terre, avec sa charge utile, c'est-à-dire les instruments embarqués, comme des caméras, des capteurs scientifiques ou des systèmes de communication. L'intérêt est évident : au lieu de construire un nouveau satellite pour chaque évolution technologique, les opérateurs pourraient mettre à jour les équipements puis relancer l'appareil. Le premier prototype de la start-up s'appelle Delphi. Il mesure environ 1,1 mètre de large pour une masse d'environ 200 kilogrammes. Son lancement est prévu pour le premier trimestre 2027, à bord d'une fusée Falcon 9 de SpaceX. Après sa mission, l'engin doit effectuer un retour contrôlé et être récupéré en Australie.Lux Aeterna travaille déjà sur une génération suivante de satellites plus grands, qui pourraient à terme être lancés par Starship, la future fusée géante de SpaceX. Mais le défi reste immense. La technologie doit non seulement fonctionner, mais aussi être économiquement rentable. Les économies réalisées grâce à la réutilisation devront compenser les coûts liés au retour, à la récupération et à la remise en état des satellites. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Parmi les sources d'énergie renouvelable encore peu exploitées, la géothermie occupe une place particulière. Son principe est simple : utiliser la chaleur naturellement présente dans le sous-sol pour produire de l'énergie. Cette chaleur provient notamment des nappes d'eau souterraines et de la désintégration naturelle d'éléments radioactifs présents dans les roches, comme l'uranium, le thorium ou encore le potassium.Contrairement au vent ou au soleil, cette ressource présente un avantage majeur : elle est disponible en permanence. La chaleur de la Terre ne dépend ni de la météo ni de l'alternance jour-nuit. Les installations géothermiques peuvent donc produire de l'énergie 24 heures sur 24, avec des émissions de CO₂ très faibles pendant leur exploitation.À faible profondeur — généralement moins de 200 mètres — la géothermie est déjà utilisée dans de nombreux systèmes de chauffage ou de production d'énergie. Elle est considérée comme une technologie fiable et stable, capable d'assurer un approvisionnement continu. Mais de nouvelles perspectives apparaissent avec l'exploitation de la chaleur plus profonde. Les progrès réalisés dans les techniques de forage, souvent héritées de l'industrie pétrolière et gazière, permettent désormais d'atteindre des couches du sous-sol situées beaucoup plus bas.Dans une étude publiée dans la revue Cell Reports, des chercheurs de l'université Stanford s'intéressent notamment à une technologie appelée EGS, pour Enhanced Geothermal System, ou « système géothermique amélioré ». L'idée consiste à exploiter la chaleur présente entre 600 et 3 000 mètres sous terre, où les températures peuvent atteindre 90 à 300 degrés Celsius. Contrairement à la géothermie traditionnelle, qui dépend de réservoirs naturels d'eau chaude, ces systèmes permettent de créer artificiellement les conditions nécessaires pour récupérer la chaleur du sous-sol. Cela ouvre la possibilité d'exploiter cette énergie dans beaucoup plus de régions du monde.Les chercheurs soulignent aussi un autre avantage : la géothermie profonde pourrait réduire les besoins en infrastructures liées aux énergies intermittentes. Selon leurs calculs, si les systèmes EGS fournissaient 10 % de l'électricité, il serait possible de diminuer les nouvelles capacités nécessaires de 15 % pour l'éolien terrestre, 12 % pour le solaire et 28 % pour le stockage par batteries. La surface mobilisée pour produire de l'électricité bas carbone passerait alors d'environ 0,57 % à 0,48 % du territoire, une différence qui pourrait devenir importante à mesure que la demande énergétique augmente, notamment avec la multiplication des centres de données. Selon cette étude, le développement de la géothermie profonde, combiné aux autres énergies renouvelables, pourrait même permettre à terme de remplacer certaines sources d'électricité continues, comme le charbon ou le nucléaire, au cours de la prochaine décennie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On l'ignore souvent, mais les panneaux solaires n'exploitent qu'une fraction de l'énergie lumineuse qui atteint la Terre. Les cellules photovoltaïques actuelles convertissent surtout la lumière visible, celle que l'œil humain perçoit, ainsi qu'une petite partie du proche infrarouge. Une grande portion du rayonnement solaire reste donc inutilisée, alors même que notre planète reçoit chaque seconde environ 174 000 térawatts d'énergie solaire. Des chercheurs de l'Institut coréen des sciences et de la technologie, le KAIST, pensent avoir trouvé une piste pour améliorer cette efficacité. Leur solution repose sur un concept issu de la nanotechnologie : les suprasphères plasmoniques.Ces structures microscopiques sont constituées de milliers de nanoparticules d'or qui s'assemblent spontanément pour former de minuscules sphères. À cette échelle, l'or possède des propriétés optiques particulières : il peut interagir avec la lumière de manière collective, un phénomène que les physiciens appellent résonance plasmonique. Concrètement, cela permet de capter et de piéger les photons — les particules de lumière — avec une efficacité bien supérieure à celle des matériaux classiques. Les chercheurs ont déposé ces suprasphères goutte à goutte sur une surface plane, où elles forment un film dense et texturé. Ce revêtement est capable d'absorber non seulement la lumière visible, mais aussi les rayonnements ultraviolets et une large gamme d'infrarouges, proches et lointains.La différence avec les films de nanoparticules déjà étudiés est importante. Les suprasphères combinent plusieurs types de résonances lumineuses, ce qui permet de capturer davantage de longueurs d'onde. Résultat : selon les simulations et les expériences menées par l'équipe coréenne, ce matériau pourrait absorber jusqu'à 90 % du spectre solaire, un niveau inédit. La puissance générée serait environ 2,4 fois supérieure à celle obtenue avec des revêtements de nanoparticules traditionnels. Pour tester leur approche, les chercheurs ont appliqué ce film sur la surface en céramique d'un générateur thermoélectrique, un dispositif capable de transformer la chaleur en électricité. Les mesures ont montré une absorption deux fois plus élevée que celle d'un film classique.Au-delà de la performance, cette technologie présente aussi un avantage pratique : elle peut être produite par dépôt en solution, une méthode relativement simple et peu coûteuse. À terme, ces suprasphères pourraient améliorer l'efficacité des systèmes solaires thermiques et photothermiques, qui utilisent la chaleur du soleil. Elles pourraient aussi renforcer les systèmes hybrides photovoltaïques-thermiques, capables de produire à la fois électricité et chaleur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La révolution de l'intelligence artificielle pose un problème très concret : où installer les serveurs capables de faire tourner ces modèles toujours plus gourmands en énergie ? Aux États-Unis, les centres de données ont consommé environ 183 térawattheures d'électricité en 2024, soit près de 4 % de toute la consommation du pays. Et selon plusieurs projections, cette demande pourrait plus que doubler d'ici 2030.Depuis quelques années, l'industrie explore donc des solutions inédites. Microsoft avait déjà expérimenté l'immersion de centres de données sous la mer avec son Projet Natick, au large de l'Écosse. L'idée : profiter de l'eau froide pour refroidir naturellement les serveurs. Mais une start-up californienne, Aikido Technologies, propose aujourd'hui d'aller encore plus loin.Son concept, présenté début mars 2026 et relayé par IEEE Spectrum, consiste à combiner éoliennes flottantes et centres de calcul pour l'IA dans la même infrastructure. Concrètement, les serveurs seraient installés directement dans les ballasts, ces grands réservoirs qui stabilisent les plateformes en mer. La structure imaginée repose sur une turbine éolienne posée sur une plateforme flottante. Trois bras descendent vers l'eau et se terminent par des ballasts situés à environ 20 mètres de profondeur. Dans la partie supérieure de ces réservoirs remplis d'eau douce, Aikido prévoit d'aménager des salles informatiques capables de fournir 3 à 4 mégawatts de puissance chacune. L'ensemble pourrait atteindre 10 à 12 mégawatts de calcul dédiés à l'intelligence artificielle.La turbine elle-même produirait 15 à 18 mégawatts d'électricité, complétés par des batteries intégrées. L'un des avantages majeurs serait la suppression des pertes liées au transport de l'électricité, puisque l'énergie serait produite et consommée au même endroit. Le refroidissement reposerait sur un mécanisme passif : la chaleur dégagée par les serveurs traverserait les parois métalliques des ballasts pour se dissiper dans l'eau de mer. Selon l'entreprise, l'impact thermique resterait limité à quelques mètres autour de la structure.Un prototype de 100 kilowatts est prévu au large de la Norvège d'ici la fin de l'année, avec l'ambition à terme de créer des fermes offshore dépassant un gigawatt de puissance de calcul. Mais le projet reste risqué. L'éolien flottant traverse actuellement une période difficile, avec des coûts élevés et des projets retardés. D'autres défis subsistent aussi : la corrosion due au sel, les débris marins ou encore les contraintes environnementales liées au rejet de chaleur dans l'océan. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Entre la voiture électrique, désormais bien installée, et les moteurs thermiques que l'on tente progressivement de remplacer, il existe une autre technologie encore discrète : la voiture à hydrogène. En France, ce marché reste très confidentiel. Aujourd'hui, seuls deux modèles sont réellement disponibles à la vente : la berline Toyota Mirai, proposée autour de 71 500 euros, et le SUV Hyundai Nexo, affiché à plus de 80 000 euros.Ces véhicules fonctionnent grâce à une pile à combustible. Le principe est assez simple : l'hydrogène stocké dans le réservoir réagit avec l'oxygène de l'air pour produire de l'électricité. Cette électricité alimente ensuite un moteur électrique qui entraîne les roues. L'avantage majeur est environnemental : à l'échappement, la seule émission est… de la vapeur d'eau. Sur le papier, l'hydrogène combine deux atouts que les voitures électriques et thermiques ont du mal à réunir. D'abord l'autonomie : la Toyota Mirai annonce environ 650 kilomètres, tandis que le Hyundai Nexo peut atteindre 666 kilomètres. Ensuite, le temps de recharge : faire le plein d'hydrogène prend seulement quelques minutes, comme pour une voiture essence.Il existe aussi une variante intermédiaire : les utilitaires hybrides hydrogène-électrique. Ces véhicules embarquent à la fois une batterie et une pile à combustible. On les retrouve par exemple sur certains modèles professionnels comme le Renault Kangoo ZE Hydrogen, le Renault Master Hydrogen ou encore les Peugeot e-Expert et Citroën ë-Jumpy Hydrogen. Leur autonomie tourne autour de 400 kilomètres selon le cycle WLTP, la norme européenne qui mesure l'autonomie des véhicules. Si ces voitures restent aussi coûteuses, c'est principalement une question d'échelle industrielle. Les piles à combustible sont encore fabriquées en petites quantités, ce qui maintient les prix élevés. Le phénomène est comparable aux débuts de la voiture électrique : lorsque la production des batteries lithium-ion s'est industrialisée, leurs coûts ont fortement baissé.Autre obstacle majeur : les infrastructures. En France, on compte seulement quelques dizaines de stations hydrogène. En dehors des grands axes, trouver une station peut donc s'avérer compliqué. Côté carburant, le prix reste relativement stable. Le kilo d'hydrogène coûte entre 10 et 15 euros, ce qui place le coût d'un plein dans une fourchette comparable à celle d'une voiture essence ou diesel. L'avenir de cette technologie dépendra largement des investissements des constructeurs et du développement de nouvelles méthodes de production, notamment l'électrolyse de l'eau, qui permet de produire de l'hydrogène à partir d'électricité renouvelable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À l'occasion de la sortie officielle du Galaxy S26 en France, la société Greenly, spécialisée dans la mesure de l'empreinte carbone des entreprises, publie une comparaison des principaux smartphones du marché. Apple, Samsung, Xiaomi et Google passent au crible, et les résultats révèlent une réalité souvent méconnue : l'essentiel de l'impact environnemental d'un smartphone ne vient pas de son utilisation… mais de sa fabrication.Selon l'analyse, entre 80 et 85 % des émissions de gaz à effet de serre liées à un téléphone sont générées avant même qu'il soit allumé. Cette phase comprend l'extraction des matières premières, la production des composants, l'assemblage, le transport et même la gestion en fin de vie. Sur ce critère, Samsung apparaît comme le constructeur le plus performant parmi les modèles étudiés. Le Galaxy S25 affiche une empreinte de 42,7 kg de CO₂ équivalent, une unité qui permet de regrouper tous les gaz à effet de serre sous une seule mesure comparable. Derrière lui, on trouve le Xiaomi 14 avec 47,2 kg, puis l'iPhone 17 Pro avec 51,2 kg pour la version 256 Go. Le Pixel 10 de Google se distingue nettement, avec 73,8 kg de CO₂ équivalent, soit presque le double du modèle de Samsung.Un détail intéressant concerne Apple : le constructeur est le seul à publier son empreinte carbone selon la capacité de stockage. Logique, car plus la mémoire interne augmente, plus les composants électroniques nécessaires sont nombreux, et plus les émissions associées à leur fabrication sont élevées. Apple a toutefois tenté de réduire cet impact sur certains modèles récents. L'iPhone Air lancé en 2025 affiche ainsi 55 kg de CO₂ équivalent sur l'ensemble de son cycle de vie, soit environ 15 % de moins que l'iPhone 17 Pro. Le smartphone utilise un cadre en aluminium entièrement recyclé et sa fabrication repose désormais à 45 % sur de l'électricité renouvelable, contre 20 % seulement deux ans plus tôt.Côté utilisateur, l'impact est bien plus faible. La recharge électrique représente 15 à 20 % des émissions totales. Sur trois ans d'utilisation, un Galaxy S25 génère environ 3 kg de CO₂, contre près de 8 kg pour le Pixel 10. Mais ces chiffres varient selon le pays. En France, où l'électricité est largement décarbonée grâce au nucléaire, l'empreinte liée à la recharge est beaucoup plus faible qu'aux États-Unis. Reste enfin la question des volumes. Apple et Samsung vendent chacun plus de 200 millions d'appareils par an. Même si Google vend beaucoup moins de smartphones, l'usage de ses Pixel représenterait tout de même, selon Greenly, l'équivalent des émissions annuelles de 24 000 voitures. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les batteries sont devenues indispensables à notre quotidien. Smartphones, voitures électriques, stockage d'énergie… Mais elles posent aussi un problème majeur : la plupart reposent sur des produits chimiques potentiellement toxiques et parfois inflammables, comme ceux utilisés dans les batteries lithium-ion actuelles. Des chercheurs de l'université municipale de Hong Kong et de l'université des sciences et technologies du Sud, en Chine, proposent une piste radicalement différente. Dans une étude publiée dans la revue Nature Communications, ils présentent une batterie aqueuse, c'est-à-dire fonctionnant avec un électrolyte à base d'eau, conçue pour être plus sûre et potentiellement plus respectueuse de l'environnement.L'élément central d'une batterie est l'électrolyte, le liquide qui permet aux ions — des particules chargées électriquement — de circuler entre les électrodes et de produire de l'électricité. Dans les batteries classiques, cet électrolyte est souvent acide ou alcalin. Ici, les chercheurs ont choisi une approche inattendue : utiliser des minéraux présents dans la saumure de tofu. Cet électrolyte contient notamment des sels de magnésium et de calcium, avec un pH neutre de 7, comparable à celui de l'eau pure. Les électrodes, elles aussi, s'éloignent des matériaux traditionnels. L'anode — l'une des deux bornes de la batterie — est fabriquée à partir d'un polymère organique particulier, appelé COP. La cathode utilise un matériau dérivé du « bleu de Prusse », un pigment bien connu en peinture.Selon les chercheurs, cette batterie pourrait supporter plus de 120 000 cycles de charge, c'est-à-dire des recharges complètes. À titre de comparaison, les batteries lithium-ion actuelles atteignent généralement entre 500 et 2 000 cycles. À raison d'une recharge par jour, la durée de vie théorique dépasserait donc… trois siècles.Autre avantage : cette technologie ne présenterait pas de risque d'incendie, contrairement aux batteries lithium-ion qui peuvent parfois surchauffer. Les chercheurs affirment également que les composants seraient non toxiques et potentiellement moins polluants. Mais cette innovation a aussi ses limites. Sa densité énergétique — la quantité d'énergie stockée pour un poids donné — reste encore faible. Avec environ 48 watt-heures par kilogramme, elle représente seulement un quart de celle des batteries actuelles. Autrement dit, pour stocker la même énergie, il faudrait une batterie quatre fois plus volumineuse.Pour cette raison, cette technologie n'est pas destinée aux smartphones ou aux ordinateurs portables. En revanche, elle pourrait trouver sa place dans le stockage stationnaire, par exemple pour conserver l'électricité produite par les panneaux solaires ou les éoliennes sur les réseaux électriques.La prochaine étape sera donc industrielle : vérifier si ces batteries peuvent être produites à grande échelle, et à un coût compétitif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le smartphone reconditionné continue de gagner du terrain en France. Selon le Baromètre 2025 publié par l'entreprise Recommerce avec l'institut d'études Kantar, près d'un téléphone sur cinq utilisé aujourd'hui dans l'Hexagone n'est pas neuf. Plus précisément, 22 % des smartphones en circulation sont des appareils d'occasion remis à neuf, contre seulement 7 % en 2018. Une progression rapide qui témoigne d'un changement durable dans les habitudes de consommation. Au total, 45 % des Français déclarent avoir déjà utilisé un smartphone reconditionné. Et la tendance pourrait encore s'accélérer : plus d'un Français sur deux, 53 %, envisage d'en acheter un dans les prochaines années. Chez les jeunes de 16 à 34 ans, cette proportion grimpe même à 60 %.La première motivation reste économique. Pour 72 % des acheteurs, le prix constitue le principal argument. Les appareils reconditionnés sont en effet généralement vendus bien moins cher que les modèles neufs. L'argument environnemental arrive en seconde position : 36 % des consommateurs disent être sensibles à l'impact écologique, puisqu'un smartphone remis à neuf évite la fabrication d'un nouvel appareil et prolonge la durée de vie des composants. Autre évolution notable : les acheteurs se tournent davantage vers des professionnels. Près de 30 % passent désormais par leur opérateur téléphonique, devant les sites spécialisés en électronique (23 %) et les plateformes dédiées au reconditionné (20 %). Cette préférence traduit une attente forte en matière de garantie et de service après-vente.Car certaines réticences subsistent. Par exemple, 28 % des Français déclarent éviter le reconditionné parce qu'ils pensent — à tort — qu'il n'est pas garanti. En réalité, la loi impose des garanties comparables à celles d'un appareil neuf. Autre inquiétude : 39 % des consommateurs disent manquer d'informations sur la durée de vie réelle des téléphones reconditionnés. Le marché séduit particulièrement les familles. Selon l'étude, 60 % des parents affirment avoir déjà acheté un smartphone reconditionné pour leur enfant.Pour Augustin Becquet, directeur général de Recommerce, le secteur entre désormais dans une phase de consolidation. Après une forte croissance, l'enjeu est désormais de structurer l'offre et de renforcer la confiance des consommateurs, notamment en mettant en avant la qualité des processus de reconditionnement et les garanties associées. Reste aussi une autre bataille : la reprise des anciens téléphones. Près de 40 % des Français envisagent de revendre leur appareil, mais 37 % préfèrent encore le garder inutilisé dans un tiroir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Produire de l'eau potable… à partir de l'air. L'idée peut sembler futuriste, elle vient pourtant d'être récompensée. La start-up française Agua de Sol a reçu le prix de l'innovation de l'Union des industries et entreprises de l'Eau pour une solution capable de transformer l'humidité atmosphérique en eau potable grâce à l'énergie solaire.L'enjeu est immense. En 2025, selon la Banque mondiale et les Nations unies, plus de 2 milliards de personnes n'ont toujours pas accès à une eau potable sûre. Un quart de l'humanité vit dans des zones soumises à un stress hydrique extrêmement élevé. Et d'ici 2050, un milliard de personnes supplémentaires pourraient basculer dans cette situation.Si le Moyen-Orient et l'Afrique du Nord sont en première ligne, l'Europe n'est pas épargnée. Le WWF estime que 20 % du territoire européen et 30 % de sa population sont déjà concernés. Face à l'épuisement des nappes phréatiques et à la pression sur les rivières, Agua de Sol propose de puiser dans un autre réservoir : l'atmosphère. Car l'air contient environ six fois plus d'eau que l'ensemble des rivières du globe. Plus de 60 % de la planète est concernée par une humidité exploitable. Et avec le réchauffement climatique, chaque degré Celsius supplémentaire permet à l'air de contenir environ 7 % d'humidité en plus.La technologie développée repose sur un principe simple : l'air est aspiré dans un panneau alimenté par énergie solaire. Un système interne provoque la condensation de la vapeur d'eau, comme la buée sur une vitre froide. L'eau récupérée est ensuite filtrée et minéralisée pour atteindre les standards de potabilité. Selon les besoins, elle peut aussi être utilisée pour l'irrigation ou comme eau stérile industrielle.Le tout fonctionne sans raccordement au réseau, sans forage, sans transport. Une approche dite « low-tech » : robuste, sobre en énergie, décentralisée, produisant l'eau directement sur le lieu de consommation. Côté coût, Agua de Sol annonce un prix compris entre 10 et 12 centimes d'euro par litre, soit environ trois fois moins que l'eau en bouteille. Dans un monde où plus de 2 milliards de personnes dépendent encore de l'eau conditionnée faute d'alternative fiable, la promesse mérite attention. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En février 2025, le ciel européen s'est transformé en théâtre spatial. Le second étage d'une fusée Falcon 9, après avoir mis en orbite des satellites Starlink quelques jours plus tôt, est entré de manière incontrôlée dans l'atmosphère. Vers 100 kilomètres d'altitude, l'engin s'est fragmenté, donnant naissance à une spectaculaire boule de feu visible dans plusieurs pays. Certains débris ont même été retrouvés au sol, en Pologne. L'incident aurait pu être dramatique. Il a pourtant offert aux scientifiques une occasion rare : observer avec précision ce que laisse derrière elle la désintégration d'un objet spatial dans la haute atmosphère. Grâce à un système lidar, un dispositif utilisant des impulsions laser pour analyser la composition de l'air, installé en Allemagne, et à des modèles de circulation atmosphérique, les chercheurs ont détecté un panache inhabituel de lithium à environ 96 kilomètres d'altitude. La concentration mesurée était dix fois supérieure aux niveaux habituels.En retraçant le déplacement des masses d'air sur plusieurs heures, ils ont pu relier ce nuage métallique à la trajectoire exacte de la rentrée du Falcon 9. Les hypothèses d'une origine naturelle, comme la poussière cosmique ou certains phénomènes ionosphériques, ont été écartées. Les conclusions, publiées dans la revue Nature, sont sans ambiguïté : la combustion des fusées et des satellites injecte bien des particules métalliques dans les couches supérieures de l'atmosphère, où elles peuvent être transportées sur de longues distances.Cette découverte intervient alors que les lancements se multiplient, notamment pour déployer les mégaconstellations de satellites. À l'horizon 2040, jusqu'à 60 000 satellites pourraient être en orbite. Chaque rentrée atmosphérique libérerait des milliers de tonnes de particules, notamment d'aluminium. Ces aérosols pourraient influencer localement la température, perturber la circulation des vents ou interagir avec la chimie de l'ozone. À cela s'ajoutent les émissions directes des lancements, comme le carbone noir ou certains résidus de carburants solides. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Ampere traverse une période de transition, avec sa réintégration progressive au sein du groupe Renault. Mais pour le constructeur français, pas question de lever le pied sur l'électrique. Au contraire. La dernière annonce en date le montre : la recherche continue, et elle vise un point névralgique de la voiture électrique, la batterie.Renault vient en effet d'officialiser un partenariat entre Ampere, sa filiale dédiée aux véhicules électriques, et l'entreprise espagnole Basquevolt. Objectif : accélérer le développement des batteries dites « lithium métal », une technologie considérée comme l'une des pistes les plus prometteuses pour dépasser les limites actuelles.Aujourd'hui, la plupart des voitures électriques utilisent des batteries lithium-ion à électrolyte liquide. L'électrolyte, c'est le milieu dans lequel circulent les ions lithium entre les deux électrodes de la batterie lors de la charge et de la décharge. Dans la technologie développée par Basquevolt, cet électrolyte liquide est remplacé par un électrolyte polymère solide, associé à une anode avancée en lithium métal.Ce changement n'est pas anodin. Selon les partenaires, il permettrait un « saut technologique majeur » en matière de densité énergétique — autrement dit, plus d'énergie stockée pour un même volume ou un même poids. À la clé : des batteries plus compactes, plus légères, dotées d'une meilleure stabilité thermique — un enjeu crucial pour la sécurité — et capables de se recharger plus rapidement. On parle ici de la grande famille des batteries solides, sur lesquelles plusieurs constructeurs, notamment asiatiques, travaillent activement. Basquevolt affiche d'ailleurs une ambition claire : devenir un leader européen dans ce domaine stratégique.Mais au-delà des performances, l'enjeu est aussi industriel. Le recours à un électrolyte polymère permettrait, selon le communiqué, de simplifier le processus de fabrication. Résultat annoncé : environ 30 % d'investissement en moins par gigawattheure dans une gigafactory classique, et 30 % d'énergie économisée par kilowattheure produit. Pour Renault, l'équation est simple : gagner en autonomie, en sécurité et en compétitivité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'eau du robinet est-elle toujours irréprochable ? C'est la question posée par l'ONG Générations Futures, qui alerte ce 28 janvier sur la présence d'un fongicide dans l'eau potable de 83 000 habitants des Hauts-de-France. Selon l'association, les concentrations relevées depuis plus d'un an dépasseraient les seuils réglementaires dans 17 unités de distribution — les réseaux locaux qui alimentent 46 communes du Pas-de-Calais, du Nord et, initialement, de la Somme.De leur côté, l'Agence régionale de santé et les préfectures précisent qu'un captage incriminé n'est plus utilisé et qu'aucune commune de la Somme ne présente aujourd'hui de dépassement. Elles reconnaissent toutefois la détection de traces de fluopyram dans 23 communes du Pas-de-Calais et trois du Nord. Les habitants, assurent-elles, peuvent continuer à consommer l'eau du robinet. Le fluopyram est un fongicide employé pour lutter contre les champignons parasites dans les cultures de fruits, légumes, céréales ou pommes de terre. Les mesures officielles indiquent, dans certaines communes, des concentrations supérieures à 0,1 microgramme par litre. Ce seuil correspond à la « limite de qualité » fixée pour les pesticides dans l'eau potable. Dans deux communes, les niveaux seraient même plus de dix fois supérieurs à cette référence.Il faut toutefois distinguer limite réglementaire et seuil sanitaire. À ce jour, aucun taux maximal spécifique au fluopyram n'a été fixé pour des raisons de santé publique, et la substance n'est pas classée comme cancérogène avérée. En l'absence de valeur toxicologique précise, la Direction générale de la Santé recommande néanmoins de restreindre la consommation dès que le seuil de 0,1 µg/L est franchi. Début 2025, le Haut Conseil de la santé publique a relevé cette valeur à 0,142 µg/L, en raison d'incertitudes analytiques. Selon Générations Futures, dix unités de distribution dépasseraient ce nouveau seuil, concernant plus de 10 000 personnes.L'ONG souligne également que le fluopyram appartient à la famille des PFAS, ces composés dits « polluants éternels » qui se dégradent très lentement, notamment en TFA, un résidu persistant. Elle demande une réévaluation des autorisations de mise sur le marché. Les autorités, elles, maintiennent que l'eau reste potable, tout en poursuivant les analyses. Une nouvelle illustration, en tout cas, des tensions persistantes entre agriculture intensive et protection durable des ressources en eau. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En deux décennies, la Chine a reboisé à une vitesse et à une échelle inédites. Résultat : le paysage a changé… et avec lui, le cycle de l'eau. C'est la conclusion d'une étude publiée dans la revue Earth's Future par une équipe de six chercheurs chinois et d'un scientifique néerlandais.Entre 2001 et 2020, ces gigantesques programmes de plantation, destinés à lutter contre la désertification et le changement climatique, ont eu un effet inattendu : une redistribution des ressources en eau. Dans l'est agricole et dans le nord-ouest aride — des régions qui couvrent près des trois quarts du territoire chinois — la quantité d'eau douce disponible a diminué. À l'inverse, le plateau tibétain enregistre désormais une abondance accrue. Pour comprendre ce phénomène, il faut évoquer un mécanisme clé : l'évapotranspiration. L'eau présente dans les sols s'évapore sous l'effet du soleil, puis les plantes rejettent de la vapeur d'eau dans l'atmosphère par leurs feuilles. Les forêts accentuent ce processus, car les arbres, grâce à leurs racines profondes, puisent de l'eau même en période sèche. Selon Arie Staal, professeur à l'université d'Utrecht et co-auteur de l'étude, « les changements de couverture végétale redistribuent l'eau ».La Chine a multiplié les initiatives. La « Grande Muraille verte », lancée en 1978 pour freiner l'avancée des déserts dans le nord, a transformé le paysage : la couverture forestière nationale est passée d'environ 10 % à plus de 25 %, soit une surface comparable à celle de l'Algérie. D'autres programmes, comme Grain for Green ou la protection des forêts naturelles, ont fait du pays l'un des principaux acteurs mondiaux de la reforestation. À eux seuls, ces efforts représentent environ un quart de l'augmentation mondiale de la surface foliaire depuis le début du siècle. Mais cette réussite écologique a un revers. L'étude montre que l'évapotranspiration a augmenté plus vite que les précipitations. Autrement dit, davantage d'eau retourne dans l'atmosphère qu'il n'en tombe sous forme de pluie localement. Dans un pays où le nord concentre seulement 20 % des ressources en eau pour près de la moitié de la population et 60 % des terres arables, cette évolution est loin d'être anodine. Les chercheurs appellent donc à une approche plus fine : chaque projet de reforestation doit être évalué au regard de ses effets sur l'eau, car reverdir ne signifie pas toujours préserver. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Début 2025, le groupe Adani a annoncé la construction, dans l'ouest du Gujarat, d'un immense système de stockage d'électricité renouvelable capable d'emmagasiner 3,5 gigawattheures d'énergie. Pour donner un ordre d'idée, un gigawattheure correspond à un million de kilowattheures : de quoi alimenter des centaines de milliers de foyers pendant plusieurs heures.L'installation sera déployée dans la région désertique de Khavda. Environ 700 conteneurs de batteries y seront installés pour constituer ce dispositif présenté comme l'un des plus importants au monde. Les travaux sont déjà en cours et, selon le calendrier du conglomérat, la première phase devrait être achevée en mars 2026. Mais cette capacité de 3,5 gigawattheures n'est qu'un point de départ. Le groupe basé à Ahmedabad prévoit d'ajouter 15 gigawattheures supplémentaires d'ici mars 2027, puis de porter l'ensemble à 50 gigawattheures sur cinq ans. Cette montée en puissance s'inscrit dans les objectifs nationaux : l'Inde vise 500 gigawatts de capacité électrique propre d'ici 2030 et affiche des ambitions de neutralité carbone à long terme.Pourquoi un tel investissement dans les batteries ? Parce que les énergies renouvelables, comme le solaire et l'éolien, sont par nature intermittentes. Le soleil ne brille pas la nuit, le vent ne souffle pas en permanence. Le stockage permet donc de conserver l'électricité produite en excès pour la restituer lorsque la demande augmente. C'est l'élément clé pour garantir la stabilité du réseau. Ces batteries géantes viendront soutenir le complexe d'Adani Green Energy, qui s'étend déjà sur 538 kilomètres carrés, près de cinq fois la superficie de Paris. Aujourd'hui, le site produit 7,1 gigawatts grâce au solaire et à l'éolien. L'objectif est d'atteindre 30 gigawatts d'ici 2029.À la tête de ce projet se trouve Gautam Adani, deuxième fortune d'Inde avec environ 68 milliards de dollars. Son groupe est présent dans de nombreux secteurs stratégiques, des ports aux aéroports en passant par l'énergie et le ciment. Le montant exact de l'investissement n'a pas été dévoilé, mais l'ampleur du chantier laisse présager des sommes considérables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On parle beaucoup d'électricité solaire, de panneaux photovoltaïques et de batteries lithium-ion. Pourtant, un chiffre passe souvent inaperçu : le chauffage représente à lui seul près de la moitié de la consommation énergétique mondiale. Et, aujourd'hui encore, les deux tiers de cette demande reposent sur des combustibles fossiles. Produire de la chaleur propre est donc un enjeu colossal. Mais la stocker durablement, sans pertes pendant des semaines ou des mois, reste un défi technologique majeur.À l'université de Californie à Santa Barbara, l'équipe de Grace Han vient de publier dans la revue Science, mi-février 2026, des résultats qui pourraient changer la donne. Les chercheurs ont conçu une molécule baptisée « pyrimidone », inspirée d'un phénomène biologique inattendu : les dommages que les rayons ultraviolets infligent à notre ADN. Le principe est élégant. La pyrimidone agit comme un ressort à l'échelle moléculaire. Sous l'effet des UV, elle change de forme, se contracte et adopte un état dit « de haute énergie ». L'énergie solaire est alors piégée dans ses liaisons chimiques. Elle reste stockée tant qu'aucun déclencheur — chaleur ou catalyseur — ne vient forcer la molécule à revenir à sa forme initiale. À ce moment-là, l'énergie est libérée sous forme de chaleur.Les performances annoncées sont impressionnantes : 1,6 mégajoule par kilogramme, soit presque le double d'une batterie lithium-ion classique, qui tourne autour de 0,9 MJ/kg. En laboratoire, la chaleur produite a suffi à faire bouillir de l'eau à température ambiante. Autre atout : la molécule peut conserver son énergie jusqu'à trois ans sans dégradation notable. Le doctorant Han Nguyen compare le mécanisme aux lunettes photochromiques qui s'assombrissent au soleil, sauf qu'ici, il ne s'agit pas de changer de teinte, mais de stocker et restituer de l'énergie à volonté. La structure de la pyrimidone ressemble à certains composants de l'ADN capables de subir des transformations réversibles sous UV, normalement réparées par une enzyme appelée photolyase. Les chercheurs ont détourné ce processus naturel pour en faire un système de stockage thermique, appelé MOST — pour Molecular Solar Thermal.La molécule étant soluble dans l'eau, on pourrait imaginer la faire circuler dans des capteurs solaires en journée, stocker l'énergie dans des réservoirs, puis la restituer la nuit. Reste que cette technologie existe depuis des décennies sans s'imposer. Les versions précédentes souffraient de faibles rendements ou de dégradations rapides. Cette fois, plusieurs verrous semblent levés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Google poursuit sa course à l'énergie. Le géant américain vient de signer un accord de long terme avec Ormat Technologies pour alimenter ses installations du Nevada en électricité géothermique. À la clé : jusqu'à 150 mégawatts supplémentaires, fournis via NV Energy, l'opérateur local détenu par Berkshire Hathaway. Le contrat repose sur un mécanisme baptisé Clean Transition Tariff, ou CTT, mis en place en 2024 par Google et NV Energy pour accélérer le financement de nouvelles capacités d'énergie propre. L'accord doit encore être validé par la Commission des services publics du Nevada, une décision attendue d'ici fin 2026.La géothermie, rappelons-le, consiste à exploiter la chaleur naturelle du sous-sol. De l'eau est injectée en profondeur, chauffée au contact des roches chaudes, puis transformée en vapeur pour actionner des turbines produisant de l'électricité. Ormat prévoit plusieurs projets dans l'État, avec des mises en service progressives entre 2028 et 2030. Le contrat courra sur quinze ans après l'activation du dernier site. Cette montée en puissance graduelle permet de sécuriser l'approvisionnement tout en développant plusieurs installations en parallèle. Google connaît déjà le terrain. Depuis 2023, l'entreprise travaille avec Fervo Energy sur un site pilote au Nevada. Deux puits forés à environ 2 400 mètres y permettent de faire circuler de l'eau chauffée à plus de 190 degrés Celsius grâce à la fracturation contrôlée de la roche. Ce premier projet produisait 3,5 mégawatts, mais un nouvel accord signé en 2024 vise désormais 115 mégawatts. Avec Ormat, la capacité géothermique de Google dans la région bondit de plus de 130 %.Cette frénésie énergétique s'explique par l'explosion des besoins liés à l'intelligence artificielle. Les centres de données consomment toujours plus, et les futurs campus dédiés à l'IA dépasseront bientôt le gigawatt de puissance installée. Google multiplie donc les paris : fusion nucléaire avec Commonwealth Fusion Systems en Virginie, partenariat avec TotalEnergies, rachat d'un spécialiste des datacenters… et même réflexion sur des serveurs orbitaux. Selon le Rhodium Group, la géothermie pourrait couvrir jusqu'à 64 % de la croissance attendue des besoins électriques des datacenters au début des années 2030, à condition d'accepter un surcoût de 20 % et de maintenir les crédits d'impôt. Meta s'y intéresse aussi, avec 150 mégawatts signés auprès de Sage Geosystems. Atout majeur : une production continue, disponible à plus de 90 %, et la possibilité d'utiliser la chaleur résiduelle pour refroidir les serveurs, un poste qui représente jusqu'à 40 % de la consommation d'un centre de données. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La nouvelle course vers la Lune s'accélère, et la Chine vient de franchir une étape décisive. Alors que les États-Unis préparent leur retour avec la mission Artemis II, Pékin poursuit son propre programme lunaire avec un objectif assumé : envoyer des astronautes chinois — les taïkonautes — sur la Lune d'ici 2030, puis y établir une présence durable.Le 11 février, depuis le centre spatial de Wenchang, au sud de la Chine, les ingénieurs ont testé en conditions réelles la capsule Mengzhou, appelée à devenir le véhicule principal des futures missions lunaires. Ce vaisseau était installé au sommet d'une version expérimentale de la fusée lourde Long March 10. L'essai s'est concentré sur un moment critique du vol : la phase dite du « Max-Q ». C'est l'instant où la pression aérodynamique sur la fusée est maximale, autrement dit le moment où les contraintes physiques sont les plus dangereuses. À ce moment précis, la capsule a été volontairement éjectée, afin de tester son système d'évacuation d'urgence. Ce dispositif est conçu pour éloigner l'équipage de la fusée en cas de défaillance grave. Après la séparation, Mengzhou a entamé une descente contrôlée sous parachutes, avant d'amerrir en mer, au large de l'île de Hainan. Une manœuvre réussie, indispensable pour certifier le vaisseau en vue de futures missions habitées.À terme, Mengzhou transportera les taïkonautes jusqu'à l'orbite lunaire. Ils y rejoindront un module d'atterrissage chargé de les déposer sur la surface de la Lune, avant de revenir s'arrimer à la capsule pour le voyage retour vers la Terre. Ce vaisseau doit également remplacer progressivement la capsule actuelle, Shenzhou, utilisée pour rejoindre la station spatiale chinoise Tiangong, avec une capacité pouvant atteindre sept astronautes en orbite terrestre.Mais ce test ne concernait pas seulement la capsule. Le premier étage de la fusée Long March 10 a lui aussi effectué une démonstration ambitieuse. Après son retour dans l'atmosphère, ce segment — appelé booster — a rallumé ses moteurs pour ralentir sa descente et tenter un amerrissage contrôlé à proximité d'une barge. Cette technique vise à récupérer et réutiliser les lanceurs, une capacité déjà maîtrisée par SpaceX. Selon la China Aerospace and Science Technology Corporation, l'essai a permis de valider des technologies clés : redémarrage des moteurs en altitude, contrôle précis de la trajectoire et résistance aux conditions extrêmes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Chaque année à Grenoble, un événement tente de répondre à l'une des grandes questions de notre époque : comment innover sans aggraver le climat ? Son nom, Tech&Fest. Pendant plusieurs jours, le centre Alpexpo devient un carrefour où se croisent startups, grands groupes, chercheurs et décideurs, venus présenter leurs technologies et confronter leurs idées. Conférences, démonstrations, ateliers : l'objectif est clair, accélérer l'innovation. Parmi les grands thèmes abordés, l'un attire particulièrement l'attention : la transition énergétique et environnementale, regroupée sous la bannière « tech&planet ».Au cœur de ce dispositif, un espace incarne concrètement cette ambition : le Village de la Décarbonation. Son nom peut sembler technique, mais l'idée est simple. La décarbonation consiste à réduire les émissions de dioxyde de carbone, principal gaz responsable du réchauffement climatique. Ce village rassemble donc des entreprises et des projets qui proposent des solutions pour consommer moins d'énergie, mieux gérer les ressources ou réduire l'empreinte environnementale des activités humaines.Pour l'édition 2026, le festival met l'accent sur un territoire bien particulier : la montagne, et plus précisément les Alpes. Ces régions sont en première ligne face au changement climatique. La hausse des températures y est plus rapide, les glaciers reculent, la neige se raréfie et les ressources en eau deviennent plus imprévisibles. Autrement dit, ces territoires subissent aujourd'hui ce que d'autres régions pourraient connaître demain. Cette réalité fait des Alpes un laboratoire grandeur nature. Les contraintes y sont extrêmes : altitude élevée, climat rigoureux, forte dépendance à l'eau et aux infrastructures fragiles. Dans ce contexte, les innovations ne peuvent pas rester théoriques. Elles doivent fonctionner immédiatement, que ce soit pour améliorer l'efficacité énergétique des bâtiments, optimiser les transports, sécuriser les ressources en eau ou renforcer la résilience des infrastructures.Mais l'ambition de Tech&Fest dépasse largement la montagne. Les solutions présentées ne sont pas seulement conçues pour les territoires alpins. Elles sont envisagées comme des modèles reproductibles ailleurs, en ville comme en zone rurale. En testant ces technologies dans des conditions difficiles, les développeurs peuvent vérifier leur robustesse et leur efficacité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.