Dall'intelligenza artificiale alle nanotecnologie, dalla blochckain ai nuovi materiali, dall'energia che cambia alla digital transformation, dall'auto elettrica all'economia economia circolare: ogni giorno a Smart City idee e storie di innovazione dalla voce dei protagonisti.

Quante volte abbiamo sentito parlare delle difficili condizioni in cui versano molte reti idriche, segnate da perdite che in alcuni casi superano perfino il 50%. In questa puntata andiamo in Valbelluna per parlare di Dolobot, una start-up innovativa che sta completando lo sviluppo di un robot, GECO, capace di intrufolarsi in reti idriche, fognarie, gallerie e bacini idroelettrici alla ricerca di perdite, segni di deterioramento e quant'altro. Caratteristica unica di GECO è la capacità di fare tutto questo senza svuotare gli impianti, mentre sono ancora in funzione e quindi senza alcuna interruzione di servizio. Il robot, lungo una settantina di centimetri e capace di infilarsi in qualunque condotta con un diametro superiore ai quaranta centimetri, è in grado di sopportare fino a cinquanta atmosfere di pressione, equivalente di cinquecento metri di profondità, e non teme quindi di percorrere gli acquedotti mentre sono in pressione. Ce ne parla Luca Anselmi, CEO di Dolobot.

Il tracciato gps di un furgone impegnato nelle classiche consegne porta a porta assomiglia ancora oggi a uno di quei pasticci che facciamo con la biro quando siamo piccoli. Che ci sia spazio per rendere questi spostamenti più razionali ed efficienti è evidente. Meno evidente è come riuscirci rispettando tutti i vincoli, quali quelli posti dalle consegne rapide, come sta facendo il gruppo MOVE. Il gruppo, composto da ricercatori del Politecnico di Milano, che dopo aver analizzato i tracciati degli spostamenti dei veicoli impegnati nella logistica dell'ultimo miglio, ha sviluppato una metodologia per posizionare dei micro-hub urbani, condivisi tra corrieri diversi e ottimizzati come location nella città, che possano fungere da punti di redistribuzione delle merci nelle immediati vicinanze. E il risultato è sorprendente: consegne più rapide, e meno 70% di km urbani percorsi e di emissioni; costi più bassi; meno veicoli in doppia fila. Ne parliamo con Silvia Strada, professoressa del Dipartimento di Elettronica, Informatica e Bioingegneria del Politecnico di Milano.

Recuperare il fosforo dai reflui urbani e trasformarlo in materia prima per l'agricoltura e il settore automotive. Parliamo di una possibilità che si studia da tempo e che ora è divenuta concreta, come dimostra il progetto NEOFOS, che ha appena preso il via col sostegno del MASE, per iniziativa del Gruppo CAP e di Metropolitane Milanesi. Si tratterà di applicare l'estrazione del fosforo a vari tipi di reflui del ciclo idrico integrato dapprima nel depuratore di Bareggio, per poi scalare su altri grandi impianti come quelli di Milano San Rocco e Nosedo (MM). Il fosforo è nella lista delle materie prime critiche europee ed è fondamentale sia per i fertilizzanti sia per la produzione di batterie (Litio-Ferro-Fosfato) per l'automotive. Per recuperarlo dai fanghi di depurazione, che ne sono ricchi, il Politecnico di Milano e l'Università di Bologna hanno assistito le imprese nel mettere a punto un processo di estrazione che sfrutta batteri specifici in grado di catturarlo e accumularlo. Ce ne parla Desdemona Oliva, Direttrice R&S gruppo CAP.

In questa puntata vi portiamo nel Bellunese, cuore pulsante dell'industria nazionale dell'occhialeria con circa 5,5 miliardi di fatturato; importante per il Paese, ma ancora di più per il territorio, per cui vale il 70% dell'export. Si tratta di un mondo che, come tanti altri oggi, è impegnato a identificare e dare corpo alle opportunità offerte dall'Intelligenza Artificiale. l'IA può aiutare infatti a produrre lenti altamente personalizzate, sulla base delle caratteristiche biometriche di ognuno, e a ridurre i rischi di approvvigionamento delle materie prime in un mercato sempre più volatile. Ma anche a far emergere e formalizzare le conoscenze implicite presenti in azienda, che spesso, nelle imprese più piccole, sono possedute da singoli individui che le hanno acquisite per esperienza e che rischiano perciò di perdersi facilmente. Ne parliamo con Pier Paolo Boccadamo, Responsabile innovazione Innovereye.

Scagliare, con una sorta di enorme fionda, dei manichini perfettamente abbigliati da sciatori contro pali da slalom o sul fondo ghiacciato di una pista da sci. L'obiettivo è quello di studiare come limitare al minimo i danni di una brutta caduta dagli sci, grazie a un airbag indossabile che scatta al momento opportuno; un dispositivo che si sta perfezionando e testando a pochi chilometri da dove, in questo preciso momento, si svolgono le Olimpiadi invernali. Ma stabilire quale sia l'esatto istante in cui aprire l'airbag è alquanto difficile nel caso di uno sciatore. Molto più di quanto non sia nel caso di un motociclista o di un automobilista. Per capirne i motivi, ne parliamo con Nicola Perotto, Technical Department Manager di DolomitiCert - Gruppo Certottica.

Ultima puntata dello speciale che abbiamo dedicato al futuro della ricerca dopo il PNRR, che in questi ultimi tre anni le ha portato ossigeno sotto forma di 12 miliardi di finanziamenti aggiuntivi: questi hanno infatti permesso di rinnovare e potenziare le infrastrutture di ricerca con nuove apparecchiature e di portare una ventata di nuove forze (si stimano circa dodicimila dottorandi e un numero analogo di ricercatori e tecnici di laboratorio). Un piccolo esercito di esperti, con competenze di alta gamma, che nell'arco di pochi mesi vedranno scadere i propri contratti. L'obiettivo iniziale era che il sistema della ricerca riuscisse a integrarne il 40%, ma tutto lascia pensare che non si andrà oltre il 15%. Che ne sarà degli altri? E quanto siamo lontani, in termini di investimenti pubblici, dalla cifra che servirebbe per valorizzare appieno gli investimenti degli ultimi tre anni? Ne parliamo insieme a Luca Carra, direttore di Scienza In Rete.

Continua con questa puntata il viaggio di Smart City nel PNRR per la ricerca. A pochi mesi dalla chiusura del piano, quale eredità lascia il PNRR al sistema dell'innovazione e della ricerca, e come viene gestita? Oggi parliamo del Centro Nazionale RNA & Gene therapy, uno dei cinque centri nazionali per la ricerca costituiti nel 2022 dal MIUR con fondi PNRR pari a 320 milioni di euro. Il centro lavora su due filoni terapeutici su cui ci sono enormi aspettative; una medicina di frontiera con una lunga storia di ricerca scientifica ma un approdo solo recente alla pratica clinica/medica, con moltissime diramazioni. Per citare le più importanti: malattie genetiche e metaboliche, vaccini, lotta al cancro. In tutti questi ambiti, le terapie geniche e a RNA hanno da offrire un ventaglio di approcci terapeutici semplicemente inesistente fino a pochi anni fa. Ne parliamo con Rosario Rizzuto, Presidente del Centro Nazionale per la Terapia Genica e i Farmaci con Tecnologia a RNA; medico e professore di Patologia Generale; già Rettore dell'Università di Padova.

Questa sera andiamo al Centro Nazionale di Ricerca in HPC, Big Data e Quantum Computing (CN-HPC), uno dei cinque nati su altrettante tematiche considerate di interesse strategico per il Paese, costituiti nel 2022 grazie a una dotazione di fondi provenienti dal PNRR. Questo centro nazionale, nello specifico, coordina una serie di competenze e infrastrutture di calcolo e supercalcolo, che afferiscono a varie università e centri di ricerca disseminati nel paese, tra atenei come il Politecnico di Milano e l'Università di Bari e istituti di ricerca come l'INFN e il CNR (che coordina l'iniziativa). Scopo del centro è offrire accesso a queste risorse a PMI, università e centri di ricerca che tipicamente non ne posseggono di propri, e di promuovere l'innovazione. Ne parliamo con Antonio Zoccoli, professore di Fisica presso l'Università degli Studi di Bologna e Presidente della Fondazione ICSC - Centro Nazionale di Ricerca in High-Performance Computing, Big Data e Quantum Computing.

Quale eredità lascerà il PNRR al mondo della ricerca e dell'innovazione italiana? Oggi un nuovo capitolo del viaggio che stiamo intraprendendo, nel tentativo di rispondere a questa domanda. Andiamo a Napoli, dove con un finanziamento da 344 milioni di euro è nato uno dei cinque Centri nazionali per la ricerca: Agritech, il Centro Nazionale per le Tecnologie Agricole, coordinato dall'Università di Napoli Federico II. Come per tutti i Centri Nazionali, Agritech ha soprattutto una funzione di coordinamento degli sforzi di una serie di soggetti come università, imprese e centri di ricerca, intorno a un obiettivo strategico comune. Nello specifico caso parliamo di robot, sensori, modelli previsionali e big data in agricoltura, per affrontare sfide come il cambiamento climatico e aumentare la salubrità dei cibi, evitando la "chimica" dove possibile. Ne parliamo con Matteo Lorito, Rettore dell'Università degli Studi di Napoli Federico II e Presidente di Agritech.

Continua il nostro speciale dedicato al destino della ricerca scientifica in Italia a valle del PNRR, che come tutti sanno si conclude quest'anno. Circa 12 miliardi di fondi straordinari provenienti dal PNRR hanno infatti permesso al mondo - pubblico e privato - della ricerca italiana di fare uno scatto in avanti, sia in termini di apparecchiature e infrastrutture, sia in termini di competenze. Un'accelerazione che, tuttavia, ha senso se poi si riesce a mantenere una velocità più elevata di prima. E il rischio è proprio questo: che, con la fine dei fondi PNRR, la ricerca in Italia torni al punto di partenza, con un rinnovato "parco macchine", ma senza i piloti e i meccanici per poterlo impiegare. Ne parliamo con Elisabetta Cerbai, professoressa di Farmacologia presso l'Università di Firenze e membro del Consiglio di amministrazione del CNR.

Questa seconda puntata dello speciale "PNRR e poi?", con cui stiamo cercando di capire che eredità ha lasciato il PNRR al mondo della ricerca italiana e cosa si prospetta con la fine dei fondi. Nella puntata precedente abbiamo cercato di ricostruire i numeri dell'ondata di investimenti e di assunzioni, e di capire quanti contratti a termine del PNRR potranno essere stabilizzati all'interno del sistema di ricerca. Come abbiamo visto, lo scenario non è confortante: nel solo mondo universitario sono stati assunti almeno 5000 nuovi ricercatori, mentre comprendendo tutti gli istituti di ricerca (come CNR, ENEA, ecc.) la stima è di almeno 10 mila ricercatori. L'obiettivo era di stabilizzarne circa il 40%, ma con gli 11 milioni di euro finora stanziati dal Governo per stabilizzare gli oltre 12 miliardi di investimenti fatti col PNRR sarà difficile arrivare al 2%. Cosa ne sarà degli altri? C'è il rischio di "fuga di cervelli" e che nuove apparecchiature restino ferme per carenza di personale? Continuiamo a parlarne con Gilberto Turati, professore di Scienza delle Finanze presso l'Università Cattolica del Sacro Cuore, vice-direttore dell'Osservatorio sui Conti Pubblici Italiani dell'Università Cattolica del Sacro Cuore, e Presidente della Società Italiana di Economia Pubblica.

l 2026 si sta configurando come un anno cruciale per il futuro della ricerca scientifica italiana. Entra in vigore la riforma Bernini, ma soprattutto si conclude il PNRR, che ha portato una ventata di investimenti in infrastrutture nei laboratori e un'ondata di nuovi dottorati e di assunti tra ricercatori, come post doc e tecnici di laboratorio che tuttavia nei prossimi mesi vedranno concludersi i propri contratti. Che eredità ha lasciato il PNRR al mondo della ricerca italiana? Quali risultati ha prodotto e qual è lo scenario che ora si prospetta? C'è il rischio di una nuova ondata di "cervelli in fuga" che disperda le preziose competenze che il Paese ha appena pagato per costruire? Esistono le condizioni per far sì che gli investimenti (oltre 12 miliardi in 3 anni) producano effetti duraturi, o dopo l'accelerazione ci attende una brusca frenata? Oggi diamo via a un percorso col quale cercheremo di rispondere a questi interrogativi. E lo facciamo con l'aiuto di Gilberto Turati, professore di Scienza delle Finanze presso l'Università Cattolica del Sacro Cuore, vice-direttore dell'Osservatorio sui Conti Pubblici Italiani dell'Università Cattolica del Sacro Cuore, e Presidente della Società Italiana di Economia Pubblica.

Il suo identificativo è MD03UNIBO*, ma sugli scaffali dei punti vendita, su cui è approdata per la prima volta da poche settimane, è conosciuta come Bernina, una nuova varietà di mela dalla buccia color rosa-rosso brillante. È stata ottenuta presso l'Alma Mater, l'ateneo bolognese, dopo anni di attività di ricerca volta al miglioramento genetico del melo, incrociando le varietà Primiera e Cripps Pink fino ad ottenere il mix di geni voluto, capace di conferire caratteristiche organolettiche desiderate al frutto le e una sufficiente resistenza a stress e patogeni alla pianta. L'Università di Bologna infatti conserva una delle più vaste collezioni di germoplasma di melo. Parliamo di migliaia di varietà di melo che vengono preservate facendo in modo di mantenere in vita un certo numero di esemplari: una miniera di caratteri genetici già presenti in natura, da cui attingere per preparare le colture di domani agli stress che le attendono. Ce ne parla Stefano Tartarini, professore del Dipartimento di Scienze e Tecnologie Agro-Alimentari dell'Università di Bologna.

Velocità di calcolo più elevate e fino a 5.000 volte meno energia rispetto ai computer digitali: è quanto promette un nuovo paradigma di calcolo che va sotto il nome di calcolo analogico in memoria. Come spieghiamo da qualche tempo a Smart City, dopo anni di ricerca i primi chip per il calcolo in memoria sono ormai a un passo dal mercato e promettono di abbattere in modo drastico i consumi di energia nei data-center, in particolare nelle applicazioni di IA, comprese quelle a livello periferico. L'ultima novità arriva dal DEIB - Dipartimento di Elettronica del Politecnico di Milano - che ha presentato il primo chip integrato basato sul principio del calcolo in memoria per svolgere operazioni di calcolo matriciale, che di fatto è una delle più comuni operazioni svolte dai computer in molte applicazioni, tra cui quelle di IA. E come capiremo, la tecnologia è ormai pronta e facilmente scalabile. Ce lo spiega Piergiulio Mannocci, ricercatore del Dipartimento di Elettronica del Politecnico di Milano.

Una "bacchetta magica" per sbrinare gli aerei: è quanto hanno cercato di fare i ricercatori del Virginia Tech dopo aver scoperto, qualche anno fa, che i cristalli di brina hanno una piccola carica elettrica, e che questa poteva essere sfruttata in modo pratico. I ricercatori si sono quindi messi all'opera, mettendo a punto una sorta di grande bacchetta elettrica ad alto voltaggio, capace di attirare la brina un po' come da bambini giochiamo ad attirare i pezzetti di carta con una bacchetta di plastica dopo averla caricata strofinandola con un panno.Sorprendentemente il sistema funziona, anche se non con il ghiaccio più duro. Ce lo spiega Carlo Antonini, professore dell' Università di Milano-Bicocca del dipartimento di Scienza dei materiali, Laboratorio di Ingegneria delle Superfici e Interfacce liquide.

Continua il nostro breve viaggio dedicato a fare il punto sulla diffusione della stampa 3D nel settore della manifattura, dove viene ormai regolarmente utilizzata per la produzione di piccole serie e per produrre oggetti molto complessi, impossibili o molto complicati da produrre in altro modo. In questa puntata facciamo il punto sui materiali per la stampa ceramica, cercando di capire quali siano, come vengano prodotti e da chi, e su quali nuovi materiali si stia lavorando. Le paste che vengono utilizzate nella stampa ceramica sono composte da un mix di polveri ceramiche e di resine, che servono a tenere insieme le polveri durante il processo di stampa e che vengono rimosse dal successivo trattamento termico. Ed è proprio progettare la giusta miscela, la cosa più importante per ottenere i risultati voluti. Ce lo spiega Francesca Mazzanti, ricercatrice del Laboratorio Materiali Ceramici e Compositi per l'Industria Manifatturiera dell'ENEA di Faenza.

Possono costare centinaia di euro al chilogrammo, eppure non contengono elementi preziosi. Sono le polveri usate nei processi di stampa 3D in metallo. Oggi questa tecnologia viene usata soprattutto per creare piccole serie o oggetti difficili da realizzare con le tecnologie tradizionali. Ma si prevede che avrà diffusione più ampia in futuro, mano a mano che la velocità delle stampanti 3D in metallo crescerà. Le versioni più diffuse di stampa 3D metallica utilizzano come materia prima delle polveri metalliche opportune, che un laser o un'altra sorgente di energia fonde del tutto o in parte creando il manufatto. Come si producono queste polveri? Cos'hanno di speciale e chi le produce oggi? Ne parliamo questa sera, dando il via a una serie di puntate dedicate alla stampa 3D per fare il punto della situazione a qualche anno dal momento di hype. E lo facciamo con l'aiuto di Daniele Mirabile Gattia, responsabile del Laboratorio Tecnologie e materiali per la manifattura additiva dell'ENEA.

Si è appena concluso a Riad il Future Minerals Forum 2026, il più importante meeting a livello mondiale che fa incontrare industria mineraria, gli end user delle materie prime e il mondo della ricerca scientifica. Con l'aiuto di Andrea Dini, Direttore dell'Istituto di Geoscienze e Georisorse del CNR, cerchiamo di capire quali siano i messaggi più forti usciti dal Forum di quest'anno. È in corso una sorta di riposizionamento nei pesi dell'industria mineraria mondiale: sia geografico, con la "super regione" mineraria Africa-Asia che sta tentando di coordinarsi; sia all'interno delle filiere, dove per la prima volta gli end user delle materie prime entrano nei capitali delle società minerarie. Tutto questo, mentre le tecnologie di Intelligenza Artificiale irrompono nel settore minerario con la promessa di rendere possibile l'analisi di miliardi di dati geo-minerari già disponibili, ma alla ricerca di materie prime nuove e diverse da quelle cercate in passato.

La Formula 1 più veloce potrebbe presto essere quella elettrica. La velocità di punta delle Formula 1 elettriche di quarta generazione - cioè quelle che inizieranno a gareggiare a partire dal prossimo campionato di Formula E - sarà di circa 350km/h contro i 370 delle Formula 1 a combustione, ma cresce molto più rapidamente ed è ormai opinione diffusa degli esperti che presto ci sarà il sorpasso. La prossima generazione di Formula 1 elettriche, infatti, potrà generare da regolamento 600 chilowatt di potenza, pari a circa 815 cavalli, contro i 350 attuali, che pure già rendono le Formula E di terza generazione in grado di accelerare del 30% più rapidamente di quelle convenzionali. Insomma, sarà lecito attendersi questo sorpasso sul giro più veloce. Ma nessuna Formula E di quarta generazione sarà ancora in grado di battere una Formula 1 sulla lunghezza standard di un gran premio, dove la densità energetica dei combustibili rimane, ancora per il momento, insuperabile. Ne parliamo con Matteo Corno, professore di Sistemi di Controllo presso il Dipartimento di Elettronica del Politecnico di Milano.

È possibile che l'Italia ospiti giacimenti di idrogeno naturale? Detto anche idrogeno bianco o idrogeno geologico, la sua esistenza è una scoperta relativamente recente. È idrogeno che si produce con continuità nelle profondità della terra, per lo più in seguito a reazioni chimiche tra minerali di ferro e acqua calda. Questo il ferro incontra l'acqua, si ossida trasformandosi in ruggine e liberando idrogeno, che inizia a risalire attraverso la crosta terrestre e nel corso del tragitto può incontrare trappole che ne favoriscono l'accumulo. Questi contesti geologici sono l'opposto di quelli in cui ci si aspetta di trovare petrolio. Un aspetto importante per paesi che, come l'Italia, non hanno petrolio, ma hanno in compenso un'attività geologica intensa. NHeat -Natural Hydrogen for Energy trAnsiTion è il primo progetto di ricerca in Italia dedicato alla ricerca dell'idrogeno naturale. E ne parliamo con Chiara Boschi, prima ricercatrice del l'Istituto di Geoscienze e Georisorse del CNR e leader di NHeat.

Torniamo a parlare di un protagonista recentissimo della transizione energetica, inatteso e potenzialmente rivoluzionario: l'idrogeno naturale. Solo da pochi anni, infatti, si è iniziato a prendere sul serio la possibilità, prima esclusa categoricamente, che il sottosuolo potesse ospitare quantità significative di idrogeno naturale, detto anche idrogeno geologico o idrogeno bianco. Una semplice curiosità scientifica si è quindi trasformata negli anni in oggetto di importanti investimenti in paesi come la Francia, gli USA, l'Australia e il Canada. Il Mali, invece, ospita i primo giacimento sfruttato di idrogeno naturale, nonché il primo ad essere scoperto per puro caso. Facciamo il punto della situazione nel mondo, con l'aiuto di Chiara Boschi, prima ricercatrice del l'Istituto di Geoscienze e Georisorse del CNR.

Circa il 30% della biomassa vegetale è composto da lignina, il più abbondante biopolimero presente in natura dopo la cellulosa, che conferisce rigidità al legno e ai tessuti vegetali. E' una delle risorse rinnovabili più abbondanti al mondo, ma anche una delle meno sfruttate, a causa della composizione chimica complessa e variabile. Benché si tratti di un polimero formato da composti molto preziosi, almeno 50 milioni di tonnellate di lignina vengono prodotte ogni anno dall'industria della carta e della cellulosa e utilizzate quasi esclusivamente come combustibile. Negli ultimi anni la ricerca ha tuttavia sviluppato enzimi in grado di scomporre la lignina in modo controllato e trasformarla in prodotti chimici di valore. La tecnologia è matura a livello di laboratorio e promette di essere economicamente sostenibile. Ora tocca all'industria compiere il prossimo passo. Ne parliamo con Elena Rosini, professoressa di Bio-Chimica dell'Università dell'Insubria - Laboratorio The Protein Factory 2.0.

Domani, l'Università Federico II di Napoli inaugurerà il primo Quantum Internet Testbed, infrastruttura di ricerca avanzata, concepita come un laboratorio aperto dedicato a sviluppare nuove soluzioni e tecnologie per dare vita a reti di telecomunicazioni quantistiche capaci di coesistere con il traffico dati classico. Due infrastrutture in una: questa è l'idea su cui i ricercatori della Federico II lavoreranno insieme a colleghi che ospiteranno da tutto il Paese. Lanciato grazie al programma RESTART, finanziato grazie a fondi PNRR, il nuovo laboratorio si caratterizza per un approccio fortemente ingegneristico. L'obiettivo è portare le tecnologie fuori dai laboratori, motivo per cui si lavorerà non solo su HW, ma anche su SW, cercando di sviluppare dei primi standard per reti di telecomunicazioni miste, classiche e quantistiche. Ce ne parla Marcello Caleffi, professore di Comunicazioni Quantistiche alla Federico II di Napoli.

Quello delle capsule intelligenti è un filone in forte sviluppo negli ultimi anni, su cui la ricerca medica punta per aprire nuove prospettive nella cura dell'apparato digerente. C'è tutto un armamentario in via di sviluppo: capsule che, una volta ingerite, permettono di eseguire in modo non invasivo una gastroscopia, o di monitorare vari parametri chimici lungo il tragitto; capsule che trasportano i farmaci e li rilasciano nel punto giusto del sistema digerente; o addirittura - come nel caso di questa puntata - una capsula ingeribile capace di trovare un'ulcera intestinale e di trasformandosi in un cerotto che aderisce alla lesione e ne aiuta la guarigione. Ce lo racconta Carmelo De Maria, professore di Bioingegneria all'Università di Pisa.

Solo da pochi anni disponiamo di mezzi come la potenza di calcolo o gli strumenti di Intelligenza Artificiale, per studiare le proteine in modo sistematico e comprenderne la funzione. Questi recentissimi progressi hanno spalancato un mondo di possibili applicazioni per la Medicina e di strumenti di indagine per la Biologia. E ora un gruppo di ricercatori dell'Università di Pisa, in collaborazione con la Scuola Superiore Meridionale di Napoli, ha sviluppato uno strumento ancora più potente: una sorta di rappresentazione "zippata" delle proteine che promette un altro salto di scala nella nostra capacità di confrontare e analizzare le proteine, come per esempio la ricerca di mutazioni pericolose. Ce ne parla Tiziano Tuccinardi, docente del Dipartimento di Farmacia dell'Ateneo Pisano e coordinatore dello studio.

Un gel per rigenerare le lesioni ossee più gravi, quelle che oggi non trovano soluzioni terapeutiche, come i danni da osteoporosi e le lesioni causate da gravi fratture o da tumori ossei rimossi chirurgicamente. Questo è l'obiettivo del progetto STARBONE, finanziato dal MIUR tramite il Fondo Italiano per la Ricerca. Il gel, elettricamente conduttivo e destinato a bio-degradarsi completamente, verrebbe semplicemente iniettato in corrispondenza delle lesioni; e creando, grazie a speciali nano-particelle, un ambiente altamente favorevole all'insediamento di nuove cellule del tessuto osseo, ne favorirebbe la rigenerazione. Ne parliamo con Anna Mariano, Post-doc presso l'Istituto per i Polimeri, Compositi e Biomateriali del CNR.

Pilotare una macchina col pensiero: un robot o magari un avatar in un videogioco; oppure un dispositivo per la riabilitazione dopo un incidente. Sono esempi di possibili applicazioni "brain to computer" (letteralmente "dal cervello al computer"). Infatti è sufficiente immaginare di compiere un gesto perché il nostro cervello si attivi, predisponendosi a dare ai muscoli i comandi necessari a compiere tutti i movimenti. Un po' come quando un computer carica il software prima di eseguirlo; oggi sappiamo leggere questo software direttamente dal cervello. Ma farlo è complicato. Un nuovo metodo sviluppato dal Cognition in Action Lab dell'Università Statale di Milano, chiamato MultiMEP, permette invece di decodificare le azioni immaginate dal cervello in modo più semplice, attraverso i muscoli. Le possibili applicazioni sono, prima di tutto, nel settore medico e sportivo. Ce ne parla Guido Barchiesi, professore del Dipartimento di Filosofia dell'Università Statale di Milano.

Più alberi e più foreste non comportano necessariamente un clima più fresco. Lo dice uno studio guidato dall'ETH di Zurigo, con cui ha collaborato anche l'Istituto per i sistemi agricoli e forestali del Mediterraneo del Consiglio Nazionale delle Ricerche di Perugia. Lo studio mostra come l'effetto delle foreste sulla temperatura locale possa variare in base alle specie arboree. Se infatti tutte le specie vegetali contribuiscono a sequestrare CO2 dall'atmosfera, e quindi a mitigare il riscaldamento globale, non si può dire la stessa cosa del loro effetto sul microclima locale. Tra gli alberi, i faggi garantiscono per esempio un clima più fresco degli abeti rossi, che con le loro chiome dense e scure assorbono tutta la luce. Questa ricerca è rilevante perché ci indica una strada per rendere più efficace la gestione forestale là dove si attuano politiche di rimboschimento, di verde urbano, e nelle attività di silvicoltura. Ne parliamo con Alessio Collalti, primo ricercatore responsabile del Laboratorio di Modellistica Forestale del CNR Isafom.

Il crollo del Ponte Morandi ha acceso l'attenzione sulla possibilità di dotare le grandi infrastrutture di sistemi di monitoraggio in tempo reale, che possano monitorarne lo stato di salute e segnalare eventuali problemi con largo anticipo, ben prima che possano verificarsi cedimenti catastrofici. Le cose stanno ora cambiando, complice anche lo sviluppo, negli ultimi anni, di nuove soluzioni che permettono di dotare le infrastrutture di sensori in modo agile. Molte delle soluzioni che esistevano fino a solo pochi anni fa, infatti, erano lunghe e complesse da installare. Oggi, possiamo dire che non ci sono più scuse. Un esempio ci è offerto dalla start-up Displaid, che ha da poco chiuso un round di finanziamento da 1,2 milioni di euro. Nata da esperienze fatte tra Politecnico di Milano e MIT di Boston, ha sviluppato un sistema di sensori che può essere installato in poche ore senza nemmeno fermare il traffico. Ne parliamo con Lorenzo Benedetti, Founder e Ceo di Displaid.

Generare sequenze di numeri veramente casuali, cioè così causali da essere completamente impredicibili e imprevedibili è dannatamente difficile. Questo perché, per poter funzionare, gli algoritmi di crittografia su cui è basata la sicurezza informatica hanno bisogno di sequenze di numeri casuali impredicibili. Random Power, spin-off dell'Università dell'Insubria di Como e dell'Università di Scienza e Tecnologia di Cracovia, ha messo a punto un dispositivo nato da anni di ricerca sulle particelle subatomiche al CERN, una sorta di "lancia-monete quantistico" sotto forma di un chip convenzionale, facilmente integrabile nell'elettronica esistente, in grado di generare sequenze di numeri del tutto impossibili da prevedere. Ne parliamo con Massimo Caccia, professore di Fisica delle Particelle all'Università dell'Insubria.

Manca una manciata di settimane all'avvio dei giochi Olimpici Invernali di Milano-Cortina, ma è già tempo per i primi bilanci. Anche grazie allo stimolo della società civile, le Olimpiadi Invernali si sono caratterizzate per il tentativo di applicare in modo sistematico a un vasto piano di opere pubbliche una serie di innovazioni amministrative e strumenti digitali con l'obiettivo di coniugare rapidità, legalità e trasparenza. Il portale Open Milano Cortina 2026 ha, per esempio, permesso per la prima volta un monitoraggio effettivo da parte dell'opinione pubblica, sull'avanzamento delle opere, i rispettivi autori e i corrispondenti costi ed impatti. E seppure imperfetto e ancora privo di alcune informazioni rilevanti, rappresenta un passo avanti non da poco rispetto al passato. Tra gli esperimenti più interessanti c'è stata l'introduzione di alcuni strumenti di IA per monitorare i lavori e contrastare il rischio di infiltrazione nei cantieri, tra cui un chatbot a disposizione delle forze dell'ordine che permette loro di ottenere rapidamente numeri, tabelle e informazioni sintetiche di vario tipo.Ospite Veronica Vecchi, professoressa di Relazioni pubblico private alla School of Management dell'Università Bocconi; Presidente del Consiglio di Amministrazione di SiMICO - Società Infrastrutture Milano Cortina 2020 - 2026 S.p.A

A cosa può servire un contatore di atomi capace di enumerarli uno a uno anche quando sono riuniti in piccoli gruppi? Per esempio, a dar vita a nuovi orologi atomici, computer quantistici e simulatori quantistici. Può avere diverse funzionalità, in un momento storico in cui moltissime prospettive di sviluppo, tanto nella ricerca di base che nella ricerca applicata, convergono verso la capacità di manipolare gli atomi singolarmente. Un notizia è che al Laboratorio ArQuS - laboratorio congiunto tra l'Università di Trieste e l'Istituto Nazionale di Ottica del CNR, per la prima volta dei ricercatori sono riusciti a intrappolare, fotografare e contare singoli atomi con con una metodologia che potrebbe aprire la strada ad applicazioni concrete, basata su pinze e manipolatori fatti letteralmente di luce. I risultati degli studi condotti al Laboratorio ArQuS sono stati pubblicati su Quantum Science and Technology e Physical Review Letters.Ospite Francesco Scazza, professore di Fisica della Materia all'Università di Trieste, direttore del Laboratorio ArQuS.

Abbiamo appena imparato - si fa per dire - a familiarizzare col "qubit", l'unità fondamentale su cui si basa il calcolo quantistico, che già ci tocca fare i conti col fratello maggiore, il "qudit" - con la "D" di "Domodossola". Il qudit sta al qubit come il bit classico sta al byte, l'unità fondamentale di memoria che contiene 8 bit e che perciò può assumere 256 valori diversi, anziché solo due (0 o 1) come il semplice bit. La metafora rende l'idea dell'obiettivo a cui si punta: una specie di super qubit che possa rappresentare un'informazione più complessa, verrebbe da dire multidimensionale, rispetto a quanto già esiste. Perché il problema è proprio qui. I qubit bene o male abbiamo imparato a fabbricarli, mentre i qudit ancora no, e non manca chi pensa che senza qudit non arriveremo mai a computer quantistici come quelli di cui sentiamo spesso parlare.Ospite Francesco Scazza, professore di Fisica della Materia all'Università di Trieste, direttore del Laboratorio ArQuS.

Da tempo a Smart City teniamo d'occhio i numerosi tentativi di trovare qualcosa di più pratico degli odierni computer su cui far girare le reti neurali, ispirate alla struttura del cervello e alla base del recente successo dell'IA. L'architettura interna dei moderni computer è il contrario di una rete neurale, e infatti la simulazione costa un grande dispendio di energia. Mettere a punto nuove architetture di calcolo, intrinsecamente più simili alle reti neurali, per infine arrivare a un vero e proprio computer neuromorfico, è oggi l'obiettivo di un ampia gamma di studi, in cui si inserisce la ricerca di cui parliamo oggi, che ha portato allo sviluppo di un dispositivo chiamato transistor sinaptico fotonico, il quale imita in modo sorprendente il comportamento di una cellula cerebrale, compresa la capacità di modificarsi nel tempo in base agli stimoli ricevuti in passato, la quale a sua volta è alla base della capacità del cervello di apprendere.Ospite Stefano Toffanin - Direttore di ricerca dell'Istituto per lo studio dei materiali nanostrutturati del CNR di Bologna.

Negli ultimi anni la ricerca sullo stoccaggio dell'idrogeno ha aperto un nuovo filone che chiama in causa i cosiddetti clatrati, composti molto simili a ghiaccio formati da una miscela di acqua e metano, stabili ad alta pressione e a bassa temperatura, ma che appena vengono riportati in superficie iniziano a liberare metano. Come spiegato nella puntata precedente, riuscire a fare qualcosa di analogo con l'idrogeno potrebbe rappresentare una soluzione al problema tutt'ora irrisolto di accumulare grandi quantitativi di idrogeno, per lungo tempo, in modo sicuro e a costi accettabili. Il progetto "Alternative Hydrogen Storage by Enclathration", finanziato con 2 milioni di euro dal Fondo Italiano per la Scienza 2022-2023, che tenterà di intrappolare l'idrogeno in una forma cristallina dell'acqua grazie a dei "gasi di aiuto", si inserisce proprio in questo filone di ricerca. Ne parliamo ancora con Federico Rossi, professore di Fisica Tecnica presso il Dipartimento di Ingegneria dell'Università degli Studi di Perugia, Laboratorio di Terni.

Lo stoccaggio dell'idrogeno rappresenta oggi uno dei punti più deboli della costruzione che vuole l'idrogeno nel ruolo di pivot del sistema energetico. E sebbene si lavori sullo stoccaggio sia di breve che di lungo termine, è soprattutto quando si parla di accumulare grandi quantitativi di idrogeno per lungo tempo che le soluzioni scarseggiano. È qui che la ricerca sta ora guardando ai cosiddetti clatrati, dei composti di cui c'è un esempio ben noto in natura: gli idrati di metano, conosciuti anche come "ghiaccio che brucia". Si tratta di un ghiaccio di acqua e metano, stabile alle alte pressioni e basse temperature che si trovano lungo le scarpate oceaniche, ma che una volta portato in superficie inizia a emettere metano tanto che lo si può accendere con un fiammifero. L'idea dei ricercatori è quella di riprodurre qualcosa di simile con l'idrogeno. Ne parliamo in questa e nella puntata successiva con Federico Rossi, professore di Fisica Tecnica presso il Dipartimento di Ingegneria dell'Università degli Studi di Perugia, Laboratorio di Terni.

Oggi è stato presentato a Roma Qolossus 2.0, il primo quantum computer fotonico italiano ideato dalla Sapienza di Roma e realizzato insieme al CNR di Milano e all'Università di Pavia nell'ambito del "Centro Nazionale di Ricerca in High Performance Computing", uno dei 5 Centri nazionali finanziati dal PNRR. Il computer quantistico fotonico è l'ultimo arrivato e offre in prospettiva alcuni vantaggi, il più importante dei quali è che non richiede tecnologie ad hoc e condizioni criogeniche estreme per funzionare, ma può invece stare dentro i cassetti di un armadio a rack come quelli di cui i data-center sono pieni, e le tecnologie per costruirlo sono le stesse dell'industria elettronica. Ce lo spiega Fabio Sciarrino, che guida il Quantum Lab dell'Università Sapienza di Roma.

Una delle più importanti frontiere della chimica guarda oggi non a come realizzare nuovi composti, ma a come smontare quelli vecchi. L'obiettivo è riciclare i materiali a livello molecolare: da un lato per conservare al massimo le proprietà dei materiali da un ciclo all'altro, riducendo al minimo i fenomeni di degrado; dall'altro per rendere possibile il riciclo di materiali misti o compositi, che non possono essere separati. Tra questi ci sono sicuramente i tessuti. L'impatto ambientale del campo della moda è uno dei più rilevanti e i tessuti sono tra i materiali più difficili da riciclare, in quanto la maggior parte dei capi sono composti da fibre miste e inseparabile tra loro. È qui che il "riciclo molecolare" può fare la differenza. Ne parliamo con Elena Rosini, professoressa di Bio-Chimica dell'Università dell'Insubria.

Creare computer che funzionano con neuroni veri, anziché simularli al computer, per dar vita alle reti neurali. Questo è l'obiettivo di Finalspark, start-up svizzera che si inserisce in un campo di studi recentissimo, quello del cosiddetto "wet computing", o bio-computing. Finalspark ha realizzato un computer biologico minimale, accessibile online, col quale ognuno può esercitarsi sia a sperimentare calcoli e algoritmi, sia a studiare il comportamento dei neuroni e come rispondono a diverse classi di stimoli. Per ora il suo utilizzo come piattaforma per fare ricerca è senz'altro prevalente, ma l'obiettivo finale sarà quello di incanalare la capacità delle reti neurali biologiche di funzionare con una efficenza energetica un milione di volte superiore a quella dei computer tradizionali. Ce lo spiega Flora Brozzi, ricercatrice di Finalspark.

Torniamo al politecnico di Torino per continuare a parlare dei primi risultati ottenuti nell'ambito del progetto MOST-Centro Nazionale per la Mobilità Sostenibile. Questa parte del progetto è dedicata alla mobilità aerea sostenibile e ha visto l'ateneo torinese impegnato nello sviluppo di fondamentali di nuovi paradigmi di mobilità e logistica, che vanno configurandosi intorno all'architettura dei cosiddetti droni: si va dagli studi di aerodinamica, ai sistemi di controllo e gestione digitale delle operazioni, fino alla progettazione dei vertiporti dedicati agli eVTOL (Electric Vertical Take-Off and Landing), su cui si punta per la mobilità aerea urbana e regionale dei prossimi anni. Ne parliamo con Giorgio Guglieri, docente presso il Dipartimento di Ingegneria Meccanica e Aerospaziale-DIMEAS.

Un veicolo elettrico innovativo per la mobilità urbana ed extraurbana, pesante meno di una tonnellata e dotato di un sistema che consente di sostituire rapidamente la batteria scarica con una già carica. Il veicolo è uno dei primi risultati che il Politecnico di Torino ha ottenuto nell'ambito del progetto MOST-Centro Nazionale per la Mobilità Sostenibile, uno dei cinque Centri Nazionali finanziati dal Piano Nazionale di Ripresa e Resilienza (PNRR). Ce ne parla Andrea Tonoli, professore di Costruzione di veicoli del Politecnico di Torino.

Batterie con più autonomia e che durano di più. È quanto promette uno studio pubblicato su Nature Nanotechnology, guidato dalla Queen Mary University of London col contributo di diversi centri di eccellenza internazionali, tra cui l'Università di Pisa. Lo studio si inserisce nel filone delle batterie "litio-silicio", in cui l'elettrodo di grafite è appunto sostituito da un elettrodo in silicio. Si tratta di una delle strade più promettenti per arrivare a batterie più leggere e performanti. Un obiettivo ancora lontano, sebbene questa ricerca si stia avvicinando a quel traguardo. Ne parliamo con Antonio Bertei professore del Dipartimento di Ingegneria Civile e Industriale dell'Università di Pisa.