More stories

  • in

    Bere il mare

    In Sicilia da alcune settimane si discute sulla riapertura del dissalatore di Porto Empedocle, in provincia di Agrigento, per trattare l’acqua di mare e renderla potabile in modo da ridurre i forti problemi legati alla siccità degli ultimi mesi. La Regione ha previsto un milione di euro di spesa e alcuni mesi di lavoro per riattivare l’impianto fermo da 12 anni, ma sono stati espressi alcuni dubbi considerati i costi. I dissalatori consumano infatti molta energia e producono acque di scarto difficili da gestire: per questo sono ancora relativamente poco utilizzati in tutto il mondo, anche se negli ultimi decenni ci sono stati progressi nel miglioramento dei sistemi per renderli più efficienti dal punto di vista energetico.Il 97 per cento dell’acqua presente sulla Terra è salato: è presente nei mari e negli oceani e non può essere bevuto né tanto meno utilizzato per l’agricoltura. Il resto dell’acqua è dolce, con il 2 per cento conservato nei ghiacciai, nelle calotte polari e negli accumuli di neve sulle montagne e l’1 per cento disponibile per le nostre esigenze e quelle dei numerosi altri organismi che per vivere hanno bisogno di acqua quasi totalmente priva di sali, a cominciare dal cloruro di sodio (NaCl, quello che comunemente chiamiamo “sale da cucina”). In media l’acqua marina contiene il 3,5 per cento circa di sale, una concentrazione sufficiente per causare danni ai reni ed essere letale.
    Quell’1 per cento di acqua dolce sarebbe più che sufficiente, se non fosse che non è distribuito uniformemente nel pianeta: ci sono aree in cui abbonda e altre in cui scarseggia, in assoluto oppure a seconda delle stagioni e delle condizioni atmosferiche. Il cambiamento climatico in corso negli ultimi decenni ha peggiorato le cose con aree che sono diventate più aride, riducendo le possibilità di accesso per milioni di persone all’acqua dolce. Stando alle stime dell’Organizzazione mondiale della sanità (OMS), circa 2 miliardi di persone vivono in zone del mondo in cui il reperimento dell’acqua è difficoltoso e solo nel 2022 almeno 1,7 miliardi di persone hanno avuto accesso per lo più ad acqua contaminata, con seri rischi per la salute.
    Considerate le difficoltà nel disporre di acqua dolce, ci si chiede spesso perché non si possa sfruttare su larga scala quella degli oceani, privandola dei sali che non la rendono bevibile. Le tecnologie per farlo ci sono da tempo e alcune furono sperimentate millenni fa, eppure non siamo ancora in grado di trasformare l’acqua di mare in acqua potabile in modo conveniente e sostenibile. In un certo senso è un grande paradosso: il pianeta è ricolmo d’acqua, ma quella che possiamo usare per sopravvivere è una minuscola frazione.
    L’oceano Pacifico è di gran lunga la più vasta distesa d’acqua salata della Terra (NOAA)
    Per molto tempo il sistema più pratico per dissalare l’acqua è consistito nell’imitare ciò che avviene in natura facendola evaporare. Grazie al calore del Sole e a quello del nostro pianeta, ogni giorno una enorme quantità di acqua evapora dagli oceani, dai fiumi e dagli altri corsi d’acqua, raggiungendo gli strati dell’atmosfera dove si formano le nuvole e di conseguenza le piogge, che porteranno l’acqua dolce a cadere al suolo. Con la “dissalazione evaporativa” si fa artificialmente qualcosa di analogo: l’acqua del mare viene scaldata e fatta evaporare, in modo che si separi da buona parte dei sali. Il vapore acqueo viene poi fatto raffreddare in modo che condensi e che si possa recuperare l’acqua quasi priva di sali.
    Negli anni sono state sviluppate varie tipologie di dissalatori evaporativi, per lo più per provare a rendere il più efficiente possibile il processo dal punto di vista energetico, ma il concetto di base rimane più o meno lo stesso. I dissalatori di questo tipo sono impiegati in molti impianti in giro per il mondo, specialmente nelle aree costiere lungo il Golfo in Medio Oriente, dove spesso si sfrutta la grande disponibilità di combustibili fossili per alimentare gli stabilimenti. Il processo richiede infatti grandi quantità di energia e per questo molti gruppi di ricerca hanno sperimentato alternative nei decenni passati.
    Il progresso più importante nelle tecnologie di dissalazione fu raggiunto negli anni Sessanta, quando fu messo a punto il processo di “osmosi inversa”. L’acqua di mare viene fatta passare ad alta pressione attraverso una membrana semipermeabile, che permette solo alle molecole d’acqua di passare dall’altra parte, obbligandola a lasciarsi alle spalle gli ioni dei sali che la rendono salata.
    In un dissalatore a osmosi inversa, l’acqua salata viene aspirata dal mare attraverso potenti pompe e fatta fluire tra grandi grate per separarla dalle impurità più grandi. L’acqua attraversa poi membrane con pori via via più piccoli per bloccare il passaggio della sabbia, dei batteri e di altre sostanze. L’acqua è infine pronta per essere spinta ad alta pressione attraverso una membrana che ha solitamente pori di dimensioni intorno a 0,1 nanometri (un nanometro è un miliardesimo di metro), tali da bloccare il passaggio dei sali, ma non delle molecole d’acqua.

    Da un punto di vista energetico, la dissalazione per osmosi inversa è più conveniente rispetto a quella per evaporazione, perché non richiede di scaldare l’acqua. Alcuni impianti sono arrivati a produrre acqua dolce con un consumo di 2 kWh (“kilowattora”) per metro cubo d’acqua, un risultato importante se si considera che negli anni Settanta il consumo era di 16 kWh per metro cubo. In media si stima che la dissalazione dell’acqua con i metodi più diffusi comporti un consumo di 3 kWh/m3 e che negli ultimi cinquant’anni si sia ridotto di circa dieci volte. L’attuale consumo è paragonabile a quello del trasporto dell’acqua su lunghe distanze verso i luoghi in cui manca, mentre è ancora lontano da quello degli impianti che forniscono localmente l’acqua dolce disponibile sul territorio.
    L’osmosi inversa, nelle sue varie declinazioni, ha contribuito più di altre tecnologie a ridurre l’impatto energetico della dissalazione, ma ha comunque i suoi limiti. A causa della forte pressione, le membrane per realizzarla devono essere sostituite di frequente e la loro costruzione è laboriosa e delicata. Inoltre, man mano che si estrae l’acqua dolce, l’acqua marina di partenza diventa sempre più salata e sempre più difficile da separare dai sali che contiene. Oltre un certo limite non si può andare e si ottiene una salamoia che deve essere gestita e smaltita.
    I livelli di efficienza variano molto a seconda degli impianti, ma in media un dissalatore a osmosi inversa produce un litro di salamoia per ogni litro di acqua dolce (ci sono analisi più o meno pessimistiche sul rapporto). Si stima che ogni giorno siano prodotti circa 140 miliardi di litri di salamoia, la maggior parte dei quali vengono dispersi nuovamente in mare. Lo sversamento avviene di solito utilizzando condotte sottomarine che si spingono lontano da quelle che effettuano i prelievi, in modo da evitare che sia aspirata acqua di mare troppo salata.
    L’impianto di desalinizzazione a Barcellona, Spagna (AP Photo/Emilio Morenatti)
    Data l’alta quantità di sali al suo interno, la salamoia è più densa della normale acqua di mare e tende quindi a rimanere sul fondale marino prima di disperdersi nel resto dell’acqua marina. La maggiore concentrazione di sali potrebbe avere conseguenze sugli ecosistemi marini e per questo il rilascio della salamoia in mare è studiato da tempo, anche se per ora le ricerche non hanno portato a trovare molti indizi sugli eventuali effetti deleteri. In alcuni paesi ci sono comunque leggi che regolamentano le modalità di sversamento, per esempio richiedendo l’utilizzo di tubature che si spingano più al largo e che abbiano molte diramazioni, in modo da rilasciare la salamoia in più punti favorendo la sua diluizione col resto dell’acqua marina.
    Lo sversamento in mare non è comunque l’unica tecnica per liberarsi della salamoia. Un’alternativa è lasciare che evapori al sole, raccogliendo poi i sali in un secondo momento per utilizzarli in altre attività industriali. È però un processo che richiede del tempo, la disponibilità di porzioni di territorio sufficientemente grandi e un clima che renda possibile l’evaporazione in buona parte dell’anno. In alternativa l’evaporazione può essere ottenuta scaldando la salamoia, ma anche in questo caso sono necessarie grandi quantità di energia e il processo non è efficiente.
    Non tutte le salamoie sono uguali perché la concentrazione di sali non è uniforme e omogenea negli oceani, per questo alcuni gruppi di ricerca stanno esplorando la possibilità di sfruttarle per ottenere minerali particolarmente richiesti. L’interesse principale è per il litio, una materia prima molto richiesta per la produzione di batterie e dispositivi elettrici. La sua estrazione viene effettuata di solito in alcune zone aride del mondo, a cominciare da quelle del Sudamerica, dove acque sature di sali vengono lasciate evaporare sotto al Sole per mesi. Sono in fase di sperimentazione sistemi alternativi di estrazione, ma separare il litio dalle altre sostanze non è semplice e richiede comunque energia.
    In Arabia Saudita, uno dei paesi che hanno più investito nello sviluppo di tecnologie di dissalazione a causa della ricorrente mancanza di acqua dolce, è in progettazione un impianto per estrarre dalla salamoia ulteriore acqua da rendere potabile e al tempo stesso ottenere cloruro di sodio. Questa sostanza è fondamentale per molti processi dell’industria chimica, ma deve avere un alto livello di purezza difficile da raggiungere tramite i classici processi di desalinizzazione. L’impianto utilizzerà particolari membrane per separare le impurità e produrre di conseguenza del cloruro di sodio puro a sufficienza, almeno nelle intenzioni dei responsabili dell’iniziativa.
    Altri gruppi di ricerca si sono invece orientati verso il perfezionamento di tecniche che prevedono l’applicazione di una corrente elettrica per diluire la salamoia, in modo da poter estrarre più quantità di acqua dolce attraverso l’osmosi inversa. Ulteriori approcci prevedono invece l’impiego di solventi chimici che a basse temperature favoriscono la separazione delle molecole d’acqua dal resto, permettendo di nuovo un maggiore recupero di acqua dolce dalla salamoia.
    Come ha spiegato al sito di Nature un ingegnere ambientale della Princeton University (Stati Uniti): «Per molti anni abbiamo mancato il bersaglio. Ci siamo concentrati sull’acqua come un prodotto: secondo me, l’acqua dovrebbe essere un prodotto secondario di altre risorse». L’idea, sempre più condivisa, è che per rendere economicamente vantaggiosa la desalinizzazione ci si debba concentrare sulle opportunità derivanti dallo sfruttamento delle sostanze di risulta, lasciando l’acqua dolce a tutti e senza costi. Non tutti sono però convinti della sostenibilità di questa impostazione, soprattutto per la sostenibilità in generale del settore.
    I dissalatori attivi nel mondo sono circa 15-20mila con dimensioni, capacità e tecnologie impiegate che variano a seconda dei paesi e delle necessità. Si stima che dall’acqua dolce prodotta con la desalinizzazione dipendano almeno 300 milioni di persone, anche se le stime variano molto ed è difficile fare calcoli precisi. L’impatto energetico dei dissalatori è però ancora molto alto e di conseguenza il costo di ogni litro di acqua dolce prodotto in questo modo rispetto ai luoghi dove l’acqua dolce è naturalmente disponibile.
    Un operaio al lavoro sui filtri di un impianto di dissalazione a San Diego, California, Stati Uniti (AP Photo/Gregory Bull)
    Gli impianti per dissalare l’acqua sono generalmente più convenienti quando possono essere costruiti direttamente in prossimità delle aree dove scarseggia l’acqua dolce, ma solo in alcune parti del mondo le zone aride si trovano lungo aree costiere. Per le comunità che vivono in luoghi siccitosi lontano dai mari il trasporto dell’acqua deve essere comunque gestito in qualche modo. Ci sono quindi casi in cui è più economico trasportare acqua dolce da una fonte distante rispetto a desalinizzare quella di mare.
    In futuro la desalinizzazione potrebbe riguardare una quantità crescente di persone a causa dell’aumento della salinità di alcune riserve d’acqua soprattutto lungo le aree costiere. L’aumento della temperatura media globale ha reso più intensi i processi di evaporazione in certe aree del mondo, influendo sulla concentrazione dei sali anche nei corsi d’acqua dolce. L’innalzamento dei mari, sempre dovuto al riscaldamento globale, è visto come un altro rischio per la contaminazione delle falde acquifere vicino alle coste che potrebbero aumentare le quantità di sali.
    I più ottimisti sostengono che i problemi energetici legati ai dissalatori potranno essere superati grazie allo sviluppo delle centrali nucleari a fusione, che metteranno a disposizione enormi quantità di energia a una frazione dei prezzi attuali. La fusione porterebbe certamente a una riduzione del costo dell’energia senza paragoni nella storia umana, ma il suo sviluppo procede a rilento e richiederà ancora decenni, ammesso che possa mai portare a qualche applicazione tecnica su larga scala.
    Invece di fare affidamento su tecnologie di cui ancora non disponiamo, gli esperti consigliano di ripensare il modo in cui utilizziamo l’acqua dolce, riducendo il più possibile gli sprechi e ottimizzando i consumi in modo da avere necessità dei dissalatori solo dove non ci sono alternative. Nelle aree esposte stagionalmente alla siccità si dovrebbero invece costruire bacini per l’accumulo e la conservazione dell’acqua piovana, per esempio, insieme a impianti per la purificazione e il riciclo delle acque reflue. LEGGI TUTTO

  • in

    Lo scorso giugno è stato il più caldo mai registrato

    Secondo il Climate Change Service di Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa di osservazione della Terra, il mese di giugno è stato il più caldo mai registrato sulla Terra. La temperatura media globale è stata di 16,66 °C, cioè 0,14 °C più alta del precedente record, del giugno del 2023. Inoltre lo scorso giugno è stato il tredicesimo mese consecutivo considerato il più caldo mai registrato a livello globale rispetto ai mesi corrispondenti degli anni passati. Le stime di Copernicus sono realizzate usando diversi tipi di dati, tra cui le misurazioni dirette della temperatura fatte da reti di termometri presenti sulla terra e in mare e le stime dei satelliti. LEGGI TUTTO

  • in

    Le navi cargo dovrebbero andare più lentamente

    Caricamento playerBuona parte degli oggetti che usiamo ogni giorno, dai cellulari agli abiti passando per le banane, ha attraversato almeno un oceano dal momento in cui è stata prodotta a quello in cui è stata venduta. Ogni giorno migliaia di navi trasportano merci di ogni tipo producendo annualmente tra il 2 e il 3 per cento di tutta l’anidride carbonica che viene immessa nell’atmosfera attraverso le attività umane. È un settore con una forte dipendenza dai combustibili fossili, ma che potrebbe diminuire sensibilmente le proprie emissioni ricorrendo a una soluzione all’apparenza semplice, quasi banale: ridurre la velocità.
    L’idea non è di per sé rivoluzionaria – si conoscono da tempo gli intervalli entro cui mantenersi per ottimizzare i consumi – ma applicarla su larga scala non è semplice soprattutto in un settore dove la velocità viene spesso vista come una priorità e un valore aggiunto. Se si cambia il modo in cui sono organizzati i trasporti marittimi ci sono conseguenze per molti altri settori, che dipendono dalle consegne delle materie prime o dei prodotti finiti. Un ritardo può avere effetti sulla capacità di un’azienda di produrre automobili o di consegnarle in tempo nei luoghi del mondo dove la domanda per le sue auto è più alta, per esempio.
    La necessità di ridurre il rischio di ritardi ha portato a una pratica piuttosto comune nel settore nota come “Sail fast, then wait”, letteralmente: “Naviga veloce, poi aspetta”. Spesso le navi cargo effettuano il più velocemente possibile il proprio viaggio in modo da arrivare quasi sempre in anticipo a destinazione rispetto al momento in cui avranno il loro posto in porto per scaricare le merci. L’attesa in alcuni casi può durare giorni, nei quali le navi restano ferme al largo prima di ricevere l’assegnazione di un posto.
    Il “naviga veloce, poi aspetta” è diventato la norma per molti trasportatori marittimi in seguito all’adozione da parte di molte aziende della strategia “just in time”, che prevede di ridurre il più possibile i tempi di risposta delle aziende alle variazioni della domanda. È un approccio che ha tra gli obiettivi la riduzione al minimo dei tempi di magazzino, rendendo idealmente possibile il passaggio diretto dall’impianto di produzione al cliente finale. Ciò consente di ridurre i costi di conservazione delle merci e i rischi di avere periodi con molti prodotti invenduti, ma comporta una gestione molto più precisa delle catene di rifornimento perché un ritardo di un singolo fornitore o di una consegna può fare inceppare l’intero meccanismo.
    Chi si occupa del trasporto delle merci deve quindi garantire il più possibile la puntualità delle consegne: di conseguenza adotta varie strategie per ridurre i rischi di ritardi dovuti per esempio alle condizioni del mare poco favorevoli o imprevisti burocratici. In molti casi sono i clienti stessi a chiedere garanzie ai trasportatori sul ricorso al “naviga veloce, poi aspetta” per la gestione delle loro merci. Il risultato è in media un maggior consumo di carburante per raggiungere le destinazioni in fretta e una maggiore quantità di emissioni di gas serra, la principale causa del riscaldamento globale.
    Per provare a cambiare le cose e a ridurre consumi ed emissioni del settore, un gruppo di aziende e di istituzioni partecipa a Blue Visby Solution, una iniziativa nata pochi anni fa e che di recente ha avviato le prime sperimentazioni di un nuovo sistema per far rallentare le navi e ridurre i tempi di attesa nei porti. Il sistema tiene traccia delle navi in partenza e in arrivo e utilizza algoritmi e modelli di previsione per stimare l’affollamento nei porti, in modo da fornire alle singole navi indicazioni sulla velocità da mantenere per arrivare al momento giusto in porto. I modelli tengono in considerazione non solo il traffico marittimo, ma anche le condizioni meteo e del mare.
    (Cover Images via ZUMA Press)
    Il sistema è stato sperimentato con simulazioni al computer utilizzando i dati reali sulle rotte e il tempo impiegato per percorrerle di migliaia di navi cargo, in modo da verificare come le modifiche alla loro velocità potessero ridurre i tempi di attesa, i consumi e di conseguenza le emissioni di gas serra. Terminata questa fase di test, tra marzo e aprile di quest’anno Blue Visby ha sperimentato il sistema in uno scenario reale, grazie alla collaborazione con un produttore di cereali australiano che ha accettato di rallentare il trasporto da parte di due navi cargo delle proprie merci in mare.
    Il viaggio delle due navi cargo è stato poi messo a confronto con simulazioni al computer degli stessi viaggi effettuati alla normale velocità. Secondo Blue Visby, i viaggi rallentati hanno prodotto tra l’8 e il 28 per cento in meno di emissioni: l’ampio intervallo è dovuto alle simulazioni effettuate in scenari più o meno ottimistici, soprattutto per le condizioni meteo e del mare. Il rallentamento delle navi ha permesso di ridurre emissioni e consumi, con una minore spesa per il carburante. Parte del risparmio è servita per compensare i maggiori costi operativi legati al periodo più lungo di navigazione, ha spiegato Blue Visby.
    I responsabili dell’iniziativa hanno detto a BBC Future che l’obiettivo non è fare istituire limiti alla velocità di navigazione per le navi cargo, ma offrire un servizio che ottimizzi i loro spostamenti e il tempo che dividono tra la navigazione e la permanenza nei porti o nelle loro vicinanze. Il progetto non vuole modificare la durata di un viaggio, ma intervenire su come sono distribuite le tempistiche al suo interno. Se per esempio in un porto si forma una coda per l’attracco con lunghi tempi di attesa, Blue Visby può comunicare a una nave in viaggio verso quella destinazione di ridurre la velocità ed evitare lunghi tempi di attesa in prossimità del porto.
    La proposta ha suscitato qualche perplessità sia perché per funzionare bene richiederebbe la collaborazione per lo meno delle aziende e dei porti più grandi, sia perché potrebbero sempre esserci navi che decidono di mettere in pratica il “naviga veloce, poi aspetta”, magari per provare ad avvantaggiarsi rispetto a qualche concorrente. I sostenitori di Blue Visby riconoscono questo rischio, ma ricordano anche che i nuovi regolamenti e le leggi per ridurre le emissioni da parte del settore dei trasporti marittimi potrebbero favorire l’adozione del nuovo sistema, che porta comunque a una minore produzione di gas serra.
    (AP Photo/POLFOTO, Rasmus Flindt Pedersen)
    Il nuovo approccio non funzionerebbe comunque per tutti allo stesso modo. È considerato applicabile soprattutto per le navi portarinfuse, cioè utilizzate per trasportare carichi non divisi in singole unità (per esempio cereali o carbone), visto che hanno quasi sempre un solo cliente di riferimento e sono maggiormente coinvolte nella consegna di materie prime. Il sistema è invece ritenuto meno adatto per le navi portacontainer, che di solito coprono quasi sempre le stesse rotte e con i medesimi tempi per ridurre il rischio di girare a vuoto o di rimanere a lungo nei porti.
    Rallentare alcune tipologie di navi cargo potrebbe ridurre le emissioni, ma non può comunque essere considerata una soluzione definitiva al problema delle emissioni prodotte dal trasporto marittimo delle merci. Da tempo si discute della necessità di convertire le navi a carburanti meno inquinanti e di sperimentare sistemi ibridi, che rendano possibili almeno in parte l’impiego di motori elettrici e la produzione di energia elettrica direttamente a bordo utilizzando pannelli solari e pale eoliche.
    Il settore, insieme a quello aereo, è considerato uno dei più difficili da convertire a soluzioni meno inquinanti, anche a causa dell’attuale mancanza di alternative. Oltre alle condizioni meteo e del mare, i trasporti attraverso gli oceani sono inoltre esposti ai rischi legati alla pirateria e agli attacchi terroristici, che portano gli armatori a rivedere le rotte in alcuni casi allungandole e rendendo di conseguenza necessaria una maggiore velocità di navigazione per rispettare i tempi delle consegne. LEGGI TUTTO

  • in

    A giugno non si era mai formato un uragano forte come Beryl

    Caricamento playerNelle prime ore di lunedì un uragano chiamato Beryl ha raggiunto la zona del mar dei Caraibi in cui si trovano le Isole Sopravento Meridionali, di cui fanno parte gli stati di Grenada di Saint Vincent e Grenadine. Finora non ci sono notizie di danni, ma di Beryl si è già molto discusso tra i meteorologi perché è il primo uragano di categoria 4, cioè della seconda categoria più alta nella scala Saffir-Simpson delle tempeste tropicali, a essere registrato nel mese di giugno. Tale primato è probabilmente dovuto alle recenti condizioni meteorologiche degli oceani: le temperature particolarmente alte della superficie dell’acqua dell’Atlantico da un lato e lo sviluppo del fenomeno periodico conosciuto come La Niña nel Pacifico dall’altro.
    La stagione degli uragani nell’oceano Atlantico occidentale va all’incirca dall’inizio di giugno alla fine di novembre. Da quando disponiamo di dati satellitari accurati per tutto il bacino Atlantico, cioè dal 1966, il primo uragano della stagione si è formato, in media, intorno al 26 luglio. E generalmente i primi non raggiungono la categoria 4, come ha fatto invece Beryl il 30 giugno, quando i suoi venti hanno superato la velocità di 209 chilometri orari. Finora il più precoce uragano di categoria 4 che fosse stato registrato era stato l’uragano Dennis, l’8 luglio 2005. Anche quelli di categoria 3 sono sempre stati molto rari a giugno: da quando sono disponibili dati sulla velocità del vento ce n’erano stati solo due, l’uragano Alma del 6 giugno 1966 e l’uragano Audrey del 27 giugno 1957.
    Generalmente il mese in cui si formano più tempeste tropicali e di maggiore intensità nell’Atlantico settentrionale è agosto perché è il periodo dell’anno in cui le acque superficiali dell’oceano sono più calde. La temperatura degli strati superiori dell’acqua influisce sulle tempeste perché più sono caldi, maggiore è l’evaporazione e dunque la quantità di acqua presente nell’atmosfera che si può raccogliere nelle grandi nubi coinvolte nelle tempeste. Per questo gli scienziati dicono spesso, per farsi capire, che il calore degli stati superficiali dell’oceano è il carburante degli uragani.
    Di solito a giugno e a luglio le temperature dell’oceano non sono sufficientemente alte da favorire uragani molto distruttivi, ma nell’ultimo anno nell’Atlantico sono state raggiunte temperature più alte della norma, in parte per via del più generale riscaldamento globale causato dalle attività umane, che non riguarda solo l’atmosfera, in parte per altri fattori che gli scienziati stanno ancora studiando.
    L’altro fattore che contribuisce alla formazione degli uragani insieme alla temperatura degli strati più superficiali dell’acqua sono venti deboli. Infatti, mentre se soffiano venti forti l’evaporazione diminuisce, con poco vento aumenta; l’assenza di vento inoltre non fa disperdere le grosse nubi create dall’alta evaporazione, quelle da cui poi si formano le tempeste. E attualmente nella fascia tropicale dell’Atlantico i venti sono deboli perché si sta sviluppando “La Niña”, uno dei complessi di eventi atmosferici che periodicamente influenzano il meteo di varie parti del mondo.
    La Niña avviene nell’oceano Pacifico meridionale, e come il più noto El Niño (che deve il suo nome, “il bambino” in spagnolo, al Natale) fa parte dell’ENSO, acronimo inglese di “El Niño-Oscillazione Meridionale”, un fenomeno che dipende da variazioni di temperatura nell’oceano e di pressione nell’atmosfera. La Niña è la fase di raffreddamento dell’ENSO e ha tra i suoi vari effetti lo sviluppo di siccità nell’ovest degli Stati Uniti, precipitazioni particolarmente abbondanti in paesi come il Pakistan, la Thailandia e l’Australia, e temperature più basse in molte regioni del Sudamerica e dell’Africa e in India. Un altro effetto è l’indebolimento dei venti sull’Atlantico tropicale, dunque un’intensificazione del numero delle tempeste tropicali e della loro forza.
    Già a maggio la National Oceanic and Atmospheric Administration (NOAA), l’agenzia statunitense che si occupa degli studi meteorologici e oceanici, aveva previsto che la stagione degli uragani di quest’anno sarebbe stata più intensa della media per via delle condizioni meteorologiche. La NOAA ha stimato che si svilupperanno tra le 17 e le 25 tempeste tropicali nel 2024, di cui tra gli 8 e i 13 uragani: in media si registrano 14 tempeste tropicali in un anno nell’Atlantico. Nel 2020, in occasione dell’ultima Niña, c’erano state 30 tempeste tropicali e 14 uragani.
    All’avvicinarsi alle Isole Sopravento Meridionali e a Barbados l’uragano Beryl ha inizialmente perso intensità e la velocità dei suoi venti è diminuita al punto da rientrare nella categoria 3 della scala Saffir-Simpson (con venti di 178–208 chilometri orari); poi però si è nuovamente rafforzato, tornando alla categoria 4. In questa parte dei Caraibi era dall’uragano Ivan del 2004 che non arrivava una tempesta tanto intensa.

    – Leggi anche: Le categorie per classificare gli uragani non bastano più? LEGGI TUTTO

  • in

    8 persone su 10 vorrebbero che i loro governi facessero di più contro la crisi climatica

    Caricamento playerIl Programma delle Nazioni Unite per lo sviluppo (UNDP) ha pubblicato i risultati del Peoples’ Climate Vote 2024, il più grande sondaggio mai condotto dall’ONU sul tema del cambiamento climatico: sono state intervistate più di 75mila persone provenienti da 77 paesi che parlano 87 lingue diverse.
    Secondo i risultati aggregati globali la stragrande maggioranza di loro è insoddisfatta del modo in cui i governi stanno gestendo la crisi climatica: l’80 per cento delle persone intervistate, che dovrebbero essere un campione rappresentativo della popolazione globale, vorrebbe che i loro governi facessero di più per affrontare la crisi climatica, e l’86 per cento ritiene che sarebbe necessario mettere da parte le rivalità nazionali per lavorare a una soluzione comune. In Italia questi valori sono ancora più alti: il 93 per cento delle 900 persone italiane intervistate è d’accordo con entrambe le dichiarazioni.
    Altri risultati interessanti riguardano la cosiddetta “ansia climatica” e la transizione da combustibili fossili a energia rinnovabile. Il 56 per cento degli intervistati ha detto di pensare al cambiamento climatico quotidianamente o settimanalmente, un risultato a cui l’Italia si allinea, e il 53 per cento di essere più preoccupato rispetto all’anno scorso per questo tema: in Italia a rispondere positivamente a questa domanda è stato il 65 per cento degli intervistati. Questi risultati arrivano però fino al 71 per cento nei nove Piccoli Stati insulari in via di sviluppo (SIDS) in cui sono state condotte le interviste: sono quegli stati che rischiano di finire presto sotto il livello del mare e le cui popolazioni si stanno già parzialmente trasferendo in altri paesi. In generale, più persone che vivono in paesi meno sviluppati hanno detto che il cambiamento climatico sta già influenzando alcune importanti scelte di vita, come il luogo dove abitare o lavorare.

    – Leggi anche: Per quanto tempo esisterà ancora Tuvalu?

    Il 72 per cento degli intervistati si è poi detto a favore di una rapida transizione dai combustibili fossili a fonti di energia meno inquinanti. Risultati molto alti si sono registrati in alcuni paesi che sono fra i principali produttori o consumatori di combustibili fossili: in Nigeria era d’accordo l’89 per cento delle persone intervistate (lo stesso risultato dell’Italia e della Turchia); in Brasile era l’81 per cento; in Cina l’80; in Iran il 79 per cento e in Germania, Regno Unito e Arabia Saudita, il 76. Risultati molto bassi in questa categoria sono stati invece registrati in Russia, dove solo il 16 per cento degli intervistati si è detto d’accordo con questa dichiarazione.
    È stato inoltre notato come le donne si siano dimostrate più favorevoli all’impegno pubblico per il contrasto del cambiamento climatico. In cinque grandi paesi (Australia, Canada, Francia, Germania e Stati Uniti) la differenza di genere era tra i 10 e i 17 punti percentuali.

    – Leggi anche: Il cambiamento climatico, le basi

    Infine una domanda del sondaggio riguarda la responsabilità dei paesi più ricchi e con economie più sviluppate (che sono principalmente i paesi europei e gli Stati Uniti) nei confronti di quelli più poveri, che non hanno avuto la possibilità di industrializzarsi quando c’erano molte meno regole sull’inquinamento, e che in molti casi sono i più esposti agli effetti negativi del cambiamento climatico. A livello globale il 79 per cento degli intervistati ha detto che i paesi ricchi dovrebbero aiutare di più i paesi in via di sviluppo.
    Da anni questo tema è tra quelli al centro delle conferenze sul clima delle Nazioni Unite (COP).
    Alla COP28 di Dubai del 2023 i paesi con economie sviluppate si sono impegnati per la prima volta a versare circa 380 milioni di euro in un fondo di compensazione per i danni e le perdite causate dal cambiamento climatico nei paesi più in difficoltà: si tratta di una cifra molto piccola, vista l’entità dei possibili danni. I paesi che hanno preso un impegno maggiore sono quelli dell’Unione Europea, mentre un contributo più piccolo è stato promesso dagli Stati Uniti, che non apprezzano che alcuni paesi, specialmente la Cina che è fra i principali produttori di combustibili fossili al mondo, vogliano ancora definirsi paesi in via di sviluppo.
    Proprio negli Stati Uniti il 64 degli intervistati si è detto favorevole all’aumento degli aiuti ai paesi poveri, mentre il 28 per cento ha sostenuto che i paesi ricchi debbano aiutare meno di quanto non lo stiano facendo adesso; nella media globale, solo il 6 per cento pensa che gli aiuti debbano diminuire. In altri paesi occidentali come la Francia, la Germania e il Regno Unito le persone che sostengono che i paesi ricchi dovrebbero fornire più aiuti sono le stesse degli Stati Uniti, ma quasi nessuno pensa che gli aiuti dovrebbero diminuire: un terzo degli intervistati sostiene piuttosto che dovrebbero rimanere uguali a quelli attuali. In questo quadro l’Italia si trova invece più d’accordo con i paesi in via di sviluppo, dato che oltre il 90 per cento degli intervistati è d’accordo con l’idea che i paesi ricchi forniscano più aiuti; solo il 5 per cento sostiene che questi debbano rimanere invariati e nessuno degli intervistati è d’accordo con una loro diminuzione.

    – Leggi anche: I paesi più ricchi aiuteranno gli altri ad affrontare i danni del cambiamento climatico?

    Secondo la direttrice della sezione dell’UNDP che si occupa dei cambiamenti climatici, Cassie Flynn, i dati sulla volontà di abbandonare l’uso di combustibili fossili sono notevoli, ma in generale questo largo consenso non dovrebbe stupirci: «Gli eventi estremi fanno già parte della nostra vita quotidiana», ha detto Flynn. «Dagli incendi boschivi in Canada alla siccità in Africa orientale, fino alle inondazioni negli Emirati Arabi Uniti e in Brasile, le persone vivono la crisi climatica», ha aggiunto. Proprio in queste settimane per esempio migliaia di persone stanno morendo a causa del caldo in diversi paesi del mondo, specialmente in India, che sta attraversando una delle peggiori ondate di calore della sua storia da oltre un mese, e in Arabia Saudita, dove si è appena concluso lo Hajj, il consueto pellegrinaggio annuale dei fedeli dell’Islam verso la Mecca.

    – Leggi anche: A New Delhi manca l’acqua e fa caldissimo

    Il sondaggio è stato svolto dall’UNDP in collaborazione con l’Università di Oxford, nel Regno Unito, e la società internazionale di sondaggi GeoPoll. I ricercatori dell’Università di Oxford hanno stilato una lista di 15 domande da porre durante le interviste e hanno poi elaborato le risposte, ponderando il campione per renderlo rappresentativo dei profili di età, genere e istruzione della popolazione dei paesi coinvolti. GeoPoll ha condotto le interviste tramite chiamate telefoniche randomizzate al cellulare, ampliando quindi più possibile le persone raggiungibili. La maggior parte dei paesi è rappresentata da un gruppo di intervistati che va dalle 800 alle 1.000 persone (in Italia sono state 900). Il numero di intervistati non è relativo alla grandezza dello stato, dato che per esempio la Cina, con una popolazione di 1,4 miliardi di persone, è rappresentata da 921 persone, circa cento in meno del Buthan, dove la popolazione si aggira intorno alle 790mila persone.
    Secondo gli autori le stime a livello nazionale hanno margini di errore non superiori ai 3 punti percentuali in più o in meno, che diventano molto più bassi quando si tratta di stime globali.
    Un problema piuttosto comune dei sondaggi di questo tipo è il fatto che a rispondere al telefono e ad accettare di partecipare alla ricerca siano spesso persone con un alto livello di istruzione e che sono già più informate della media sul tema. L’UNDP ha però tenuto a specificare in questo caso che oltre il 10 per cento del campione totale comprendeva persone che non sono mai andate a scuola. Di questi 9.321 intervistati, 1.241 erano donne over 60 che non avevano mai neanche frequentato le scuole elementari, uno dei gruppi più difficili da raggiungere.
    Una prima edizione del sondaggio, che aveva coinvolto 50 paesi, era stata realizzata nel 2021 ma le persone erano state raggiunte attraverso annunci pubblicitari in famose app di gioco per cellulari, che escludevano intere fasce della popolazione anche solo per il fatto che per usare queste app bisognava essere connessi a internet. I dati delle due ricerche non sono quindi comparabili. LEGGI TUTTO

  • in

    In California vogliono salvare una popolazione di puma con un cavalcavia

    Caricamento playerIn California l’autostrada 101, che da Los Angeles porta a nord verso San Francisco, è nota per l’alto numero di animali che vi vengono investiti quotidianamente. Per affrontare il problema e permettere alla fauna selvatica di spostarsi più liberamente fra due riserve naturali, una trentina di chilometri a nord-ovest di Hollywood è in costruzione quello che dovrebbe diventare il più grande attraversamento stradale per animali selvatici al mondo, il Wallis Annenberg Wildlife Crossing.
    La frammentazione dell’habitat naturale, dovuta all’espansione delle aree urbane e alla costruzione di strade, ha causato grossi problemi a molte specie di animali selvatici che abitano nella zona di Los Angeles. L’attraversamento in costruzione, in pratica un grosso cavalcavia coperto di terriccio e piante locali, dovrebbe rendere più facili e sicuri gli spostamenti della fauna selvatica fra l’area protetta delle montagne di Santa Monica e quella delle Simi Hills, appena a nord, aree che sono divise dall’autostrada 101.

    Fra gli animali messi più in difficoltà dalla presenza dell’autostrada ci sono i puma. Questi grossi felini carnivori abitualmente si muovono in un’area di più di 250 chilometri quadrati, ma gli spostamenti della popolazione che abita nelle montagne di Santa Monica sono di fatto bloccati dall’autostrada 101 a nord e dalla 405 a est. La limitazione ha causato un aumento degli accoppiamenti fra puma consanguinei, che ha portato a sua volta a una maggiore diffusione di alcuni problemi di salute. Secondo il sito web del progetto, la riduzione della diversità genetica fra i puma di Santa Monica potrebbe portarli all’estinzione fra qualche decina di anni.
    Gli sforzi per la costruzione del Wallis Annenberg Wildlife Crossing, che ha un costo stimato attorno ai 90 milioni di dollari, hanno ricevuto una grossa spinta proprio dalla storia di un esemplare di puma in particolare (negli Stati Uniti chiamati solitamente leoni di montagna o coguari), diventato una sorta di celebrità locale. Nato nelle montagne di Santa Monica, il puma noto come P-22 si stanziò dalle parti di Hollywood attorno al 2012, dopo aver attraversato decine di chilometri e le autostrade 101 e 405. È un viaggio molto rischioso per un puma, e infatti una volta arrivato in città era rimasto bloccato e isolato dal resto della sua specie.
    Per una decina di anni P-22 visse in un parco cittadino, senza creare grossi problemi agli umani (è molto raro che i puma attacchino le persone), a parte un’occasione in cui probabilmente si mangiò un koala dello zoo cittadino, e un’altra in cui cercò di stabilirsi nello spazio sotto una villetta, venendo poi scacciato. Al contrario, la sua sopravvivenza in un ambiente urbano per molti versi ostile era associata dai residenti umani di Los Angeles alle proprie esperienze di sopravvivenza in città. P-22 divenne una specie di mascotte cittadina: fra le altre cose dopo la sua morte fu organizzato un evento di commemorazione a cui parteciparono migliaia di persone e diverse celebrità e politici californiani. Il puma venne abbattuto alla fine del 2022, anche per via delle gravi ferite riportate dopo essere stato investito da un’auto.

    La sua storia, dall’attraversamento di due autostrade per arrivare in città all’investimento poco prima della morte, e l’affetto che ha suscitato fra gli abitanti di Los Angeles verso i puma, hanno contribuito a dare una grossa spinta al progetto dell’attraversamento per animali selvatici sull’autostrada 101. Dopo la sua morte l’opinione pubblica cittadina aveva espresso molto favore per quelle misure, come l’attraversamento, che facilitassero la coesistenza fra le attività umane e le specie selvatiche.

    – Leggi anche: Non è così insolito trovare un puma nel tuo giardino, in California

    La costruzione del Wallis Annenberg Wildlife Crossing è iniziata nel 2022: a maggio 2024 è stata completata la posa delle 82 travi di cemento che costituiscono la sua struttura, e dovrebbe finire nel 2026. Passa a qualche metro di altezza sopra otto corsie stradali, è lungo circa 50 metri e largo 60. Oltre agli spostamenti dei puma, faciliterà anche quelli delle linci rosse, dei cervi muli e di decine di specie di rettili e anfibi.
    Ora le travi saranno coperte di terra: il progetto prevede che vi sia piantato più di un milione di piante locali, e che sia popolato da ecosistemi di funghi e di microbi analoghi a quelli che si trovano nel terreno delle zone circostanti. Per confondere il passaggio nell’ambiente naturale, e invogliare gli animali a passare da lì anziché attraversare la strada, anche nell’area adiacente al passaggio saranno piantati degli alberi.
    Rorie Skei, vicedirettrice della Santa Monica Mountains Conservancy, un’agenzia statale coinvolta in progetti di tutela ambientale nella zona, ha detto al Washington Post che il Wallis Annenberg Wildlife Crossing «è molto costoso, ma è praticamente un prototipo», uno schema per progetti futuri. Secondo Skei infatti nel tempo «potremo costruire attraversamenti più economici».
    La struttura in costruzione in California è per molti versi all’avanguardia, ma non è certo la prima del suo genere. I primi attraversamenti stradali per la fauna furono costruiti in Europa negli anni Sessanta, e dagli anni Settanta ce ne sono anche negli Stati Uniti. I loro benefici non riguardano solo gli animali selvatici, ma anche gli esseri umani: nei soli Stati Uniti ci sono circa un milione di scontri fra veicoli e animali ogni anno, che causano 26mila feriti e 200 morti, e danni economici per 10 miliardi di dollari.

    – Leggi anche: Il gran traffico di un sovrappassaggio per animali selvatici su un’autostrada dello Utah LEGGI TUTTO

  • in

    Forse torneremo a mangiare le ostriche solo nei mesi “con la R”

    Caricamento playerFino a qualche decennio fa in Francia si diceva che le ostriche vanno mangiate solo nei mesi “con la R” nel nome, che in francese sono tutti tranne maggio, giugno, luglio e agosto. In italiano funziona, ma va aggiunto ai mesi buoni gennaio, che in francese si dice janvier. D’estate infatti le ostriche selvatiche si riproducono e per questo producono uova e sperma, che in ambito culinario sono chiamati “latte”: una sostanza lattiginosa che ingrossa il corpo dei molluschi e ne modifica il gusto, rendendoli sgradevoli anche per molte delle persone a cui piacciono. Il detto era diventato meno significativo negli ultimi decenni con la diffusione delle ostriche triploidi, una varietà sterile ottenuta con un processo di selezione artificiale che non produce “latte” nemmeno d’estate ed è allevata in gran parte del mondo, Italia compresa.
    Tuttavia di recente negli Stati Uniti si è visto che le triploidi sono più vulnerabili alle ondate di calore marino: uno studio pubblicato l’anno scorso sulla rivista Global Change Biology dice che le temperature più alte della media registrate nell’estate del 2021 lungo le coste dell’oceano Pacifico occidentale causarono una moria di ostriche molto più grave tra le triploidi che tra le altre popolazioni di ostriche. Per questo, dato che anche le ondate di calore marino sono favorite dal cambiamento climatico in atto, c’è chi si sta chiedendo se in futuro non torneremo a mangiare questi molluschi solo nei mesi con la R.
    Le ostriche triploidi, chiamate anche “ostriche quattro stagioni”, vennero selezionate dalla fine degli anni Settanta negli Stati Uniti a partire da due specie di ostriche originarie delle coste asiatiche del Pacifico, e in particolare da quella generalmente chiamata Crassostrea gigas («generalmente» perché sulla sua classificazione scientifica non c’è unanimità).
    Devono la sterilità e il loro nome al fatto di avere tre, e non due, cromosomi sessuali. Per ottenerle si sfrutta una caratteristica comune dei molluschi bivalvi: sottoponendo le loro uova a forti sbalzi di temperatura, o esponendole a certe sostanze, come la caffeina, si possono ottenere individui con un numero di cromosomi sessuali superiore a due. In particolare si possono ottenere molluschi maschi con quattro cromosomi sessuali (tetraploidi) e fertili, che accoppiati con femmine con due cromosomi (diploidi), generano individui con tre cromosomi, non fertili.

    – Leggi anche: Non siamo così d’accordo su cosa sia davvero una specie

    Le triploidi sono vantaggiose per l’ostricoltura perché crescono in fretta e hanno lo stesso sapore tutto l’anno, ragioni per cui sono state adottate da tantissimi ostricultori del mondo. Il primo brevetto statunitense risale al 1995, al 2007 invece quello delle ostriche triploidi francesi, selezionate dall’Istituto di ricerca francese per lo sfruttamento del mare (Ifremer). In anni recenti circa la metà delle ostriche prodotte nel nord-ovest degli Stati Uniti era triploide, e anche in Francia, il primo paese europeo per produzione di ostriche, una buona parte della produzione è “quattro stagioni”.
    La diffusione delle triploidi ha permesso di estendere i periodi dell’anno in cui si mangiano le ostriche e fatto sviluppare il consumo estivo, che negli Stati Uniti è diventato quello principale per questi molluschi.
    Gli effetti delle ondate di calore marino degli ultimi anni però rischiano di mettere in crisi la produzione e dunque questa usanza, come racconta un articolo pubblicato sulla rivista statunitense Hakai per cui sono stati intervistati scienziati e ostricultori. Uno è Matthew George, che lavora per il dipartimento per il Pesce e la Natura dello stato di Washington ed è il primo autore dello studio pubblicato su Global Change Biology. In laboratorio George e i suoi collaboratori hanno verificato che se sottoposte a stress termici le ostriche triploidi muoiono in quantità significativamente maggiori delle diploidi.
    A causa delle morie vari ostricultori statunitensi stanno riducendo la propria produzione di triploidi, o ci stanno rinunciando. C’entra anche il costo più elevato del “seme” delle ostriche triploidi, cioè delle larve degli animali, che gli ostricultori generalmente acquistano da aziende specializzate. Vari ostricultori hanno detto ad Hakai di essere passati dal 70 per cento di triploidi nella propria produzione al 20 per cento.
    Dato che però ora negli Stati Uniti le ostriche sono maggiormente richieste d’estate nel settore dell’ostricoltura si sta pensando a nuove strategie, che potrebbero riguardare anche la Francia perché anche in Europa ci sono stati effetti nefasti sulle produzioni di ostriche per via delle ondate di calore. Una possibilità è fare ricerca per provare a ottenere ostriche triploidi più resistenti, come hanno cominciato a fare cinque anni fa l’azienda Taylor Shellfish Farms e alcuni genetisti del dipartimento dell’Agricoltura statunitense. L’altra è usare gli strumenti del marketing, o per tentare di aumentare la domanda nei mesi con la R (la via più percorsa in Francia finora), o per proporre ai consumatori le ostriche lattiginose, ad esempio evitando di menzionare uova e sperma.
    Infatti al di là del futuro delle ostriche quattro stagioni, ci si potrebbe abituare a mangiare le ostriche lattiginose. Sono edibili tanto quanto le altre, anche se il gusto è un po’ diverso.
    È peraltro possibile che in origine la “regola” sui mesi con la R non fosse dovuta a una questione di sapore, ma ad altre ragioni. Non si sa con esattezza quando e come sia nato il detto. Nella zona di Arcachon, una località della Gironda nota per la produzione di ostriche, si dice che fu coniato all’inizio del Novecento quando l’ostricoltura francese venne danneggiata da un virus o da un parassita che sterminò quasi interamente la popolazione di Ostrea edulis, la specie di ostrica locale. In quel periodo si sarebbe evitato di mangiare le ostriche nei mesi estivi per favorirne la riproduzione e così la crescita del loro numero.
    In Normandia, un’altra regione francese dove si allevano ostriche, il modo di dire viene ricondotto a un periodo precedente e cioè al Seicento, quando servivano quattro giorni di viaggio per fare arrivare le ostriche alla corte del re a Parigi. Le temperature estive impedivano di conservarle tanto a lungo e dunque era sconsigliato mangiarle in quel periodo. LEGGI TUTTO

  • in

    Forse è stato trovato un modo per ridurre le emissioni di gas serra causate dal cemento

    Un gruppo di ricerca in ingegneria dell’Università di Cambridge, nel Regno Unito, ha sviluppato un metodo per riciclare il cemento su larga scala, un’innovazione tecnologia che potrebbe ridurre in modo significativo le emissioni di gas serra a cui si deve il cambiamento climatico.Il cemento è una sostanza fondamentale e attualmente insostituibile per il funzionamento della società contemporanea: è l’ingrediente fondamentale per la realizzazione di strade, grandi infrastrutture e case perché mischiato a ghiaia, sabbia e acqua dà il calcestruzzo con cui le si costruisce. La sua produzione però causa ingenti quantità di anidride carbonica (CO2), tra il 3 e il 4 per cento del totale annuale di emissioni di gas serra secondo le stime dell’istituto di ricerca ambientale World Resources Institute. Questa quantità potrebbe diminuire se invece di produrre nuovo cemento si riuscisse a riutilizzare quello proveniente da edifici demoliti.
    La produzione del cemento causa grandi emissioni per due ragioni diverse. La prima è quella che riguarda la maggior parte dei processi industriali: per portarli avanti serve molta energia che si ottiene, nella maggior parte dei casi, bruciando combustibili fossili, di conseguenza emettendo anidride carbonica. Il cemento in particolare si fabbrica scaldando calcare mischiato ad argilla a una temperatura di almeno 1450 °C, che spesso viene raggiunta bruciando carbone, il più inquinante dei combustibili fossili.
    La seconda ragione per cui al cemento si devono molte emissioni è legata alle caratteristiche chimiche proprie di questa sostanza. Il calcare da cui è prodotta contiene calcio (l’elemento fondamentale del cemento), carbonio e ossigeno: la combustione crea da un lato ossido di calcio, dall’altro anidride carbonica. Complessivamente, se si usa il carbone, per ogni tonnellata di cemento nuovo si emette una tonnellata di CO2. E nel mondo ogni anno sono prodotti miliardi di tonnellate di cemento. Se l’industria del cemento fosse un paese, sarebbe il terzo per emissioni annuali di anidride carbonica al mondo dopo Cina e Stati Uniti.
    Una fabbrica di cemento di Cemex e la cava da cui si ottiene il calcare che utilizza, a Rüdersdorf, in Germania, il 10 agosto 2023 (Sean Gallup/Getty Images)
    La tecnologia sviluppata dai ricercatori dell’Università di Cambridge – Cyrille F. Dunant, Shiju Joseph, Rohit Prajapati e Julian M. Allwood – è spiegata in un articolo pubblicato mercoledì sulla prestigiosa rivista scientifica Nature. In breve, prevede di ricavare nuovo cemento da edifici demoliti. Per farlo i detriti ottenuti dalle demolizioni devono essere ridotti in polvere e successivamente esposti ad altissime temperature. Il gruppo di ricerca ha scoperto che lo si può fare in modo efficace nei forni già usati per riciclare l’acciaio, con vantaggi vicendevoli per entrambe le produzioni.
    Infatti nel processo di riciclo dell’acciaio si usano delle sostanze che fanno sì che il prodotto finito sia resistente alla corrosione. Tali sostanze sono praticamente le stesse che si trovano nei detriti contenenti il cemento. Aggiungendoli, una volta polverizzati, nei forni elettrici ad arco che si usano per ottenere l’acciaio riciclato si può ottenere non solo l’acciaio riciclato, ma anche una sostanza che, se raffreddata velocemente, è cemento riciclato. L’intero procedimento consente di evitare le emissioni dovute alla produzione di nuovo cemento attraverso il calcare e di ridurre quelle legate al processo industriale perché si sfrutta la produzione di un altro materiale.
    I ricercatori hanno coniato l’espressione “cemento elettrico” per indicare questo cemento riciclato, a patto che sia prodotto (insieme all’acciaio riciclati) usando forni elettrici ad arco, che possono essere alimentati con energia prodotta da fonti rinnovabili.
    Dunant, il primo autore dell’articolo pubblicato su Nature, ha detto a BBC che in futuro questa scoperta potrebbe permettere di produrre cemento senza emissioni, nel caso in cui si riesca ad applicare il metodo su scala industriale in modo concorrenziale. Per ora il procedimento è stato testato al Materials Processing Institute di Middlesbrough, in Inghilterra, dove entro la fine del mese si proverà ad aumentare la scala dell’esperimento producendo 60 tonnellate di cemento riciclato in due ore.

    – Leggi anche: Servono soluzioni per l’acciaio, il cemento e l’ammoniaca LEGGI TUTTO