More stories

  • in

    In Europa centrale alluvioni come quelle di settembre sono diventate più probabili

    Caricamento playerLe piogge intense che tra il 12 e il 15 settembre hanno causato esondazioni dei fiumi e grossi danni tra la Polonia e la Repubblica Ceca, in Austria e in Romania sono state eccezionali perché hanno interessato una regione molto vasta dell’Europa centrale. Un’analisi preliminare delle statistiche meteorologiche continentali indica che la probabilità che si verifichino fenomeni del genere è raddoppiata a causa del cambiamento climatico in atto.
    Lo studio è stato fatto dal World Weather Attribution (WWA), un gruppo di ricerca che riunisce scienziati esperti di clima che lavorano per diversi autorevoli enti di ricerca del mondo e che collaborano – a titolo gratuito – affinché ogni volta che si verifica un evento meteorologico estremo particolarmente disastroso la comunità scientifica possa dare una risposta veloce alla domanda “c’entra il cambiamento climatico?”. Nel caso delle recenti alluvioni in Europa centrale, che hanno causato la morte di 26 persone, ci sono larghi margini di incertezza ma il gruppo di ricerca ha concluso che un ruolo del cambiamento climatico ci sia.
    Il WWA, creato nel 2015 da Friederike Otto e Geert Jan van Oldenborgh, pratica quella branca della climatologia relativamente nuova che è stata chiamata “scienza dell’attribuzione”: indaga i rapporti tra il cambiamento climatico ed eventi meteorologici specifici, una cosa più complicata di quello che si potrebbe pensare. Per poter dare risposte in tempi brevi, gli studi del WWA sono pubblicati prima di essere sottoposti al processo di revisione da parte di altri scienziati competenti (peer review) che nella comunità scientifica garantisce il valore di una ricerca, ma che richiederebbe mesi o anni di attesa. Tuttavia i metodi usati dal WWA sono stati certificati come scientificamente affidabili proprio da processi di peer review e i più di 50 studi di attribuzione che ha realizzato finora sono poi stati sottoposti alla stessa verifica e pubblicati su riviste scientifiche senza grosse modifiche.

    – Leggi anche: Come mai Vienna non è finita sott’acqua

    Le alluvioni di metà settembre in Europa centrale sono state causate dalla tempesta Boris che poi ha provocato esondazioni anche in alcune zone della Romagna e dell’Emilia orientale. Le misurazioni della quantità di acqua piovuta in un giorno nel corso del fenomeno hanno fatto registrare dei record in varie località. Per verificare se fosse possibile ricondurre il fenomeno al cambiamento climatico causato dalle attività umane gli scienziati del WWA hanno confrontato le misure delle precipitazioni dei giorni in cui complessivamente è piovuto di più, quelli tra il 12 e il 15 settembre, con le statistiche sulle precipitazioni massime annuali su archi di quattro giorni.
    Hanno anche utilizzato le simulazioni climatiche, cioè programmi simili a quelli usati per le previsioni del tempo che mostrano quali eventi meteorologici potrebbero verificarsi in diversi scenari climatici futuri.
    Le conclusioni dello studio dicono che il cambiamento climatico non ha reso più probabili tempeste con caratteristiche generali analoghe a quelle di Boris (che sono piuttosto rare e di cui questa è stata la più intensa mai registrata), ma che in generale quattro giorni consecutivi piovosi come quelli che ci sono stati sono diventati più probabili in Europa centrale rispetto all’epoca preindustriale. Hanno anche stimato che la quantità di pioggia di tali eventi sia aumentata del 10 per cento, da allora. Secondo i modelli climatici basati su un ulteriore aumento delle temperature medie globali, di 2 °C rispetto all’epoca preindustriale invece che degli attuali 1,3 °C, in futuro sia la probabilità che l’intensità di questi eventi aumenterà ancora.
    Lo studio ricorda che comunque i danni delle alluvioni recenti sono dovuti anche allo scarso adattamento delle infrastrutture fluviali a eventi meteorologici estremi rispetto alle statistiche storiche. Tuttavia è stato anche osservato che rispetto a grandi alluvioni passate la situazione di emergenza probabilmente è stata gestita meglio: nel 2002 morirono 232 persone quando vaste aree dell’Austria, della Germania, della Repubblica Ceca, della Romania, della Slovacchia e dell’Ungheria furono interessate da un’alluvione, e nel 1997 ci furono almeno 100 morti per un’alluvione più ridotta in Germania, Polonia e Repubblica Ceca. Ancora nel luglio del 2021, la grande alluvione in Germania e Belgio causò la morte di più di 200 persone.
    In generale, la climatologia ha mostrato che il riscaldamento globale ha reso e renderà più frequenti le alluvioni, ma questo non vale per tutte le parti del mondo. In altre zone si prevede invece un aumento della frequenza di altri fenomeni meteorologici estremi, come le siccità. In certe parti del mondo inoltre è prevista una più alta frequenza di alluvioni in una specifica stagione dell’anno e meno precipitazioni nelle altre: l’Italia ad esempio ha un territorio morfologicamente complesso e diverso nelle sue parti, per cui le conseguenze del riscaldamento globale potrebbero essere diverse da regione a regione.

    – Leggi anche: Gli abitanti di Borgo Durbecco devono rifare tutto, di nuovo LEGGI TUTTO

  • in

    Perché è piovuto così tanto, sull’Europa e non solo

    Caricamento playerL’alluvione in Emilia-Romagna è solo uno degli effetti più recenti della tempesta Boris, che nell’ultima settimana ha causato grandi danni in vaste aree dell’Europa centrale, dalla Romania all’Austria, dove si stima siano morte circa 20 persone. Non è insolito che tra la fine dell’estate e l’inizio dell’autunno ci siano giornate piovose, ma l’intensità delle piogge e la presenza di altre forti perturbazioni nelle settimane scorse in altre aree dell’emisfero boreale (il nostro) sono un’ulteriore indicazione di come stia cambiando il clima, soprattutto a causa del riscaldamento globale. Oltre all’intensità, le tempeste sono sempre più frequenti e ci dovremo confrontare con i loro costosi effetti, in tutti i termini.
    Attribuire con certezza un singolo evento atmosferico al riscaldamento globale non è semplice, soprattutto per l’alto numero di variabili coinvolte. I gruppi di ricerca mettono a confronto ciò che è accaduto in un determinato periodo di tempo con cosa ci si sarebbe dovuti attendere (basandosi sulle simulazioni e sui modelli riferiti ai dati delle serie storiche) e a seconda delle differenze e di altri fattori indicano quanto sia probabile che un certo evento sia dipeso dal cambiamento climatico. Questi studi di attribuzione richiedono tempo per essere effettuati e non sono quindi ancora disponibili per Boris, ma le caratteristiche della tempesta rispetto a quanto osservato in passato e la presenza di altre grandi perturbazioni tra Stati Uniti, Africa e Asia stanno già fornendo qualche indizio.
    La tempesta Boris si è per esempio formata alla fine dell’estate più calda mai registrata sulla Terra, secondo i dati raccolti dal Climate Change Service di Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa dell’osservazione satellitare e dello studio del nostro pianeta. L’estate del 2024 è stata di 0,69 °C più calda rispetto alla media del periodo 1991-2020 e ha superato di 0,03 °C il record precedente, che era stato stabilito appena l’estate precedente (il 2023 è stato l’anno più caldo mai registrato).
    Le temperature estive particolarmente alte hanno contribuito a produrre una maggiore evaporazione in alcune grandi masse d’acqua come il mar Mediterraneo e il mar Nero, con la produzione di fronti di aria umida provenienti da sud che si sono mescolati con l’aria a una temperatura inferiore proveniente dal Nord Europa. L’incontro tra queste masse di aria con temperatura e umidità differenti hanno favorito la produzione dei sistemi nuvolosi che hanno poi portato le grandi piogge dell’ultima settimana nell’Europa centrale e negli ultimi giorni in parte del versante adriatico dell’Italia.
    Un allagamento provocato dall’esondazione del fiume Lamone a Bagnacavallo (Fabrizio Zani/ LaPresse)
    La piogge sono state persistenti e la perturbazione si è dissipata lentamente a causa della presenza di due aree di alta pressione – solitamente associata al bel tempo – che l’hanno circondata sia a est sia a ovest, rendendo più lenti i movimenti lungo i suoi margini. Non è un fenomeno di per sé insolito, ma in questo caso particolare ha interessato un’area geografica molto ampia per diversi giorni, portando forti piogge su fiumi e laghi e saturando il terreno, con la conseguente formazione di grandi alluvioni.
    Le analisi condotte finora hanno evidenziato condizioni nell’atmosfera che hanno interessato la corrente a getto che fluisce da est a ovest. Le correnti a getto possono essere considerate come dei grandi fiumi d’aria che attraversano l’atmosfera e, proprio come i corsi d’acqua, possono produrre anse e rientranze che determinano i cambiamenti nella direzione del vento e dei movimenti delle nuvole. Grandi zone di alta e bassa pressione hanno deviato sensibilmente la corrente a getto, riducendo la mobilità di alcune masse d’aria sopra l’Europa e altre aree del nostro emisfero.

    È possibile che tra i fattori che hanno determinato questa situazione ci siano ancora una volta le alte temperature dell’estate, che hanno portato gli oceani a scaldarsi più del solito. La temperatura media della superficie marina a livello globale è stata di quasi 1 °C superiore ai valori medi di riferimento del secolo scorso (in alcune zone dell’Atlantico si sono raggiunti 2,53 °C). Gli oceani accumulano energia scaldandosi ed è poi questa ad alimentare parte dei meccanismi atmosferici che portano a perturbazioni intense e spesso persistenti.
    (NOAA)
    Uno studio di attribuzione condotto sulle alluvioni di luglio 2021 in Europa, che avevano interessato soprattutto la Germania e il Belgio, aveva per esempio concluso che il riscaldamento globale causato dalle attività umane avesse reso più probabili quegli eventi atmosferici. Anche in quel caso la tempesta si era formata soprattutto in seguito all’aria calda e umida proveniente dal Mediterraneo, che da diversi anni nella stagione calda fa registrare temperature superficiali sopra la media.
    Le maggiori conoscenze sui fenomeni di questo tipo, maturate soprattutto negli ultimi anni, hanno permesso ai governi di avere informazioni più tempestive sull’evoluzione delle condizioni atmosferiche per fare prevenzione e mettere per lo meno in sicurezza la popolazione. La vastità delle alluvioni in Europa ha comportato una quantità relativamente ridotta di incidenti mortali, ma lo stesso non è avvenuto in Africa dove almeno mille persone sono morte nelle ultime settimane a causa delle forti piogge e delle alluvioni.
    Nell’Africa centrale e occidentale ci sono circa 3 milioni di sfollati a causa di una stagione delle piogge molto più intensa del solito, che secondo alcune previsioni porterà cinque volte la quantità di piogge che cadono in media a settembre nell’area. In questo caso il probabile nesso è con il progressivo aumento della temperatura media nel Sahel, l’ampia fascia di territorio che si estende da nord a sud tra il deserto del Sahara e la savana sudanese, e da ovest a est dall’oceano Atlantico al mar Rosso. Le alluvioni hanno interessato finora 14 paesi, causando grandi danni soprattutto alle piantagioni e peggiorando le condizioni già difficili di approvvigionamento di cibo per le popolazioni locali.
    Il Sahel, evidenziato in azzurro (Flockedereisbaer via Wikimedia)
    Lungo la costa orientale degli Stati Uniti forti piogge a inizio settimana hanno causato alluvioni e danni tra North Carolina e South Carolina. In alcune zone sono caduti 45 centimetri di pioggia in appena 12 ore, secondo le prime rilevazioni, che se confermate porterebbero a uno degli eventi atmosferici più estremi per quelle zone degli ultimi secoli. Le piogge sono state causate da una perturbazione che si era formata sull’Atlantico, ma senza energia sufficiente per diventare un uragano.
    Nelle ultime settimane anche in Asia ci sono state forti piogge, con un tifone che ha portato forti venti e temporali a Shanghai all’inizio della settimana, tali da rendere necessaria la sospensione dei voli aerei e l’interruzione di varie linee di servizio del trasporto pubblico in un’area metropolitana in cui vivono circa 25 milioni di persone. In precedenza c’erano state altre forti tempeste su parte della Cina, del Giappone e del Vietnam, con alluvioni, grandi danni e decine di morti.
    Naturalmente questi eventi atmosferici hanno avuto caratteristiche ed evoluzioni diverse e non sono strettamente legati l’uno all’altro, anche perché riguardano luoghi distanti tra loro e con differenti caratteristiche geografiche. In molte zone dell’emisfero boreale il passaggio dall’estate all’autunno è da sempre caratterizzato da tempeste, uragani e tifoni, ma le serie storiche e i dati raccolti indicano una maggiore frequenza di eventi estremi e con forti conseguenze per la popolazione.
    I modelli basati anche su quei dati indicano un aumento dei fenomeni di questo tipo, ma gli eventi atmosferici che si sono verificati negli ultimi anni hanno superato alcuni dei modelli più pessimistici rivelandosi quindi più estremi del previsto. La temperatura media globale è del resto di 1,29 °C superiore rispetto al periodo preindustriale, quando con le attività umane si immettevano molti meno gas serra rispetto a quanto avvenga oggi. Se questa tendenza dovesse mantenersi, e al momento non ci sono elementi per ritenere il contrario, entro la fine del 2032 si potrebbe raggiungere la soglia degli 1,5 °C decisi dall’Accordo di Parigi come limite massimo per evitare conseguenze ancora più catastrofiche legate al riscaldamento globale.
    (Copernicus)
    Già nel 2021 il Gruppo intergovernativo sul cambiamento climatico delle Nazioni Unite aveva segnalato in un proprio rapporto che: «L’impatto umano, in particolare legato alla produzione di gas serra, è probabilmente il principale fattore dell’intensificazione osservata su scala globale delle precipitazioni intense al suolo». Oltre a mostrare i primi indizi concreti sull’influenza delle attività umane per la maggiore intensificazione delle precipitazioni su Europa, Asia e Nordamerica, il rapporto aveva segnalato che le «precipitazioni diventeranno in genere più frequenti e più intense all’aumentare del riscaldamento globale». LEGGI TUTTO

  • in

    Come facciamo a calcolare la temperatura media della Terra

    Negli ultimi anni sono stati costantemente superati record di temperatura massima di vario genere: oltre alle temperature più alte mai misurate in specifiche località di varie parti del mondo, escono spesso nuovi dati che ci dicono ad esempio che un certo mese di aprile o un certo mese di giugno, o l’anno scorso, sono stati i più caldi mai registrati tenendo conto delle temperature medie mondiali. A queste notizie ci siamo forse abituati, ma forse non tutti sanno in che modo vengono calcolate le temperature medie dell’intero pianeta, una cosa tutt’altro che semplice.Giulio Betti, meteorologo e climatologo del Consiglio nazionale delle ricerche (CNR) e del Consorzio LaMMA, spesso intervistato dal Post e su Tienimi Bordone, spiega come si fa nel suo libro uscito da poco, Ha sempre fatto caldo! E altre comode bugie sul cambiamento climatico, che con uno stile divulgativo rispiega vari aspetti non banali del cambiamento climatico e smonta le obiezioni di chi nega che stia accadendo – o che sia causato dall’umanità. Pubblichiamo un estratto del libro.
    ***
    L’essere umano si è evoluto insieme alla sua più grande ossessione: misurare e quantificare qualsiasi cosa, dalle particelle subatomiche, i quark e i leptoni (10-18 metri), all’intero universo osservabile, il cui diametro è calcolato in 94 miliardi di anni luce. Si tratta di misurazioni precise e molto attendibili, alle quali si arriva attraverso l’uso di supertelescopi, come il James Webb, e di acceleratori di particelle. Cosa volete che sia, quindi, per un animale intelligente come l’uomo, nel fantascientifico 2024, ottenere una stima attendibile e verificabile della temperatura terrestre?
    Effettivamente è ormai un processo consolidato e routinario, quasi “banale” rispetto ad altri tipi di misurazioni dalle quali dipendono centinaia di processi e attività che la maggior parte di noi ignora. Ma come funziona?
    Partiamo dalla base: la rilevazione del dato termico, demandata alle mitiche stazioni meteorologiche, meglio note come centraline meteo. Queste sono disseminate su tutto il globo, sebbene la loro densità vari molto da zona a zona. In Europa e in Nord America, ad esempio, il numero di stazioni meteorologiche attive è più elevato che in altre aree, sebbene ormai la copertura risulti ottimale su quasi tutte le terre emerse.
    Quando parliamo di “stazioni meteorologiche”, infatti, ci riferiamo alle centraline che registrano temperatura e altri parametri meteorologici nelle zone continentali, mentre quelle relative ai mari utilizzano strumenti differenti e più variegati.
    I dati meteorologici su terra provengono da diversi network di stazioni, il più importante dei quali, in termini numerici, è il GHCN (Global Historical Climatology Network) della NOAA che conta circa 100.000 serie termometriche provenienti da altrettante stazioni; ognuna di esse copre diversi periodi temporali, cioè non tutte iniziano e finiscono lo stesso anno. La lunghezza delle varie serie storiche, infatti, può variare da 1 a 175 anni. Di queste 100.000 stazioni meteorologiche, oltre 20.000 contribuiscono alle osservazioni quotidiane in tempo reale; il dato raddoppia (40.000) nel caso del network della Berkeley Earth. Alla NOAA e alla Berkeley Earth si aggiungono altre reti di osservazione globale, quali il GISTEMP della NASA, il JMA giapponese, e l’HadCRUT dell’Hadley Center-University of East Anglia (UK).
    Oltre ai cinque principali network citati si aggiungono le innumerevoli reti regionali e nazionali i cui dati contribuiscono ad alimentare il flusso quotidiano diretto verso i centri globali.
    Le rilevazioni a terra, però, sono soltanto una parte delle osservazioni necessarie per ricostruire la temperatura del nostro pianeta, a queste infatti va aggiunta la componente marina, che rappresenta due terzi dell’intera superficie del mondo.
    I valori termici (e non solo) di tutti gli oceani e i mari vengono rilevati ogni giorno grazie a una capillare e fitta rete di osservazione composta da navi commerciali, navi oceanografiche, navi militari, navi faro (light ships), stazioni a costa, boe stazionarie e boe mobili.
    Parliamo, come facilmente intuibile, di decine di migliaia di rilevazioni in tempo reale che vanno ad alimentare diversi database, il più importante dei quali è l’ICOADS (International Comprehensive Ocean-Atmosphere Data Set). Quest’ultimo è il frutto della collaborazione tra numerosi centri di ricerca e monitoraggio internazionali (NOC, NOAA, CIRES, CEN, DWD e UCAR). Tutti rintracciabili e consultabili sul web. I dati raccolti vengono utilizzati per ricostruire lo stato termico superficiale dei mari che, unito a quello delle terre emerse, fornisce un valore globale univoco e indica un eventuale scarto rispetto a uno specifico periodo climatico di riferimento.
    Come nel caso delle stazioni a terra, anche per le rilevazioni marine esistono numerosi servizi nazionali e regionali. Tra gli strumenti più moderni ed efficaci per il monitoraggio dello stato termico del mare vanno citati i galleggianti del progetto ARGO. Si tratta di una collaborazione internazionale alla quale partecipano 30 nazioni con quasi 4000 galleggianti di ultima generazione. Questi ultimi sono progettati per effettuare screening verticali delle acque oceaniche e marine fino a 2000 metri di profondità; la loro distribuzione è globale ed essi forniscono 12.000 profili ogni mese (400 al giorno) trasmettendoli ai satelliti e ai centri di elaborazione. I parametri rilevati dai sensori includono, oltre alla temperatura alle diverse profondità, anche salinità, indicatori biologici, chimici e fisici.
    I dati raccolti da ARGO contribuiscono ad alimentare i database oceanici che vanno a completare, insieme alle osservazioni a terra, lo stato termico del pianeta.Ma cosa avviene all’interno di questi mastodontici database che, tra le altre cose, sono indispensabili per lo sviluppo dei modelli meteorologici? Nonostante la copertura di stazioni meteorologiche e marine sia ormai capillare, restano alcune aree meno monitorate, come ad esempio l’Antartide o alcune porzioni del continente africano; in questi casi si ricorre alla tecnica dell’interpolazione spaziale, che, in estrema sintesi, utilizza punti aventi valori noti (in questo caso di temperatura) per stimare quelli di altri punti. La superficie interpolata è chiamata “superficie statistica” e il metodo risulta un valido strumento anche per precipitazioni e accumulo nevoso, sebbene quest’ultimo sia ormai appannaggio dei satelliti.
    Oltre all’interpolazione si utilizza anche la tecnica della omogeneizzazione, che serve per eliminare l’influenza di alterazioni di rilevamento che possono subire le stazioni meteorologiche nel corso del tempo, tra le quali lo spostamento della centralina o la sua sostituzione con strumentazione più moderna. Ovviamente, dietro queste due tecniche, frutto della necessità di ottenere valori il più possibile corretti e attendibili, esiste un universo statistico molto complesso, che per gentilezza vi risparmio.
    Tornando a monte del processo, vale a dire allo strumento che rileva il dato, si incappa nel più classico dei dubbi: ma la misurazione è attendibile? Se il valore di partenza è viziato da problemi strumentali o di posizionamento, ecco che tutto il processo va a farsi benedire.
    Per quanto sia semplice insinuare dubbi sull’osservazione, è bene sapere che tutte le centraline meteorologiche ufficiali devono soddisfare i requisiti imposti dall’Organizzazione Mondiale della Meteorologia e che il dato fornito deve sottostare al “controllo qualità”.
    Se il signor Tupato da Castelpippolo in Castagnaccio [nota: Tupato in lingua maori significa “diffidente”] asserisce che le rilevazioni termiche in città sono condizionate dall’isola di calore e quindi inattendibili, deve sapere che questa cosa è nota al mondo scientifico da decenni e che, nonostante la sua influenza a livello globale sia pressoché insignificante, vi sono stati posti rimedi molto efficaci.
    Partiamo dall’impatto delle isole di calore urbano sulle serie storiche di temperatura. Numerosi studi scientifici (disponibili e consultabili online da chiunque, compreso il signor Tupato) descrivono le tecniche più note per la rimozione del segnale di riscaldamento cittadino dalle osservazioni. Tra queste, il confronto tra la serie termica di una località urbana e quella di una vicina località rurale; l’eventuale surplus termico della serie relativa alla città viene rimosso, semplicemente.Un altro metodo è quello di dividere le varie città in categorie legate alla densità di popolazione e correggere lo scostamento termico di quelle più popolate con le serie di quelle più piccole.
    In alcuni casi si è ricorso alla rilocalizzazione in aree rurali limitrofe delle stazioni meteorologiche troppo condizionate dall’isola di calore urbana, in questo caso il correttivo viene applicato dopo almeno un anno di confronto tra il vecchio e il nuovo sito.
    Poiché gli scienziologi del clima sono fondamentalmente dei maniaci della purezza dei dati e sono soliti mangiare pane e regressioni lineari, negli ultimi anni l’influenza delle isole di calore urbane viene rimossa anche attraverso l’utilizzo dei satelliti (con una tecnica chiamata remote sensing). Insomma, una faticaccia, alla quale si aggiunge anche il controllo, per lo più automatico, della presenza di errori sistematici o di comunicazione nei processi di osservazione e trasferimento dei dati rilevati.
    Tutto questo sforzo statistico e computazionale viene profuso per rimuovere il contributo delle isole di calore urbane dalle tendenze di temperatura globale che, all’atto pratico, è praticamente nullo. L’impatto complessivo delle rilevazioni provenienti da località urbane che alimentano i dataset globali è, infatti, insignificante, in quanto la maggior parte delle osservazioni su terra è esterna all’influenza delle isole di calore e si somma alla mole di dati provenienti da mari e oceani che coprono, lo ricordo, due terzi della superficie del pianeta.Quindi, anche senza la rimozione del segnale descritta in precedenza, l’influenza delle isole di calore urbane sulla temperatura globale sarebbe comunque modestissima. Se poi il signor Tupato vuol confrontare l’andamento delle curve termiche nel tempo noterà che non ci sono sostanziali differenze tra località rurali e località urbane: la tendenza all’aumento nel corso degli anni è ben visibile e netta in entrambe le categorie.
    Infine, l’aumento delle temperature dal 1880 a oggi è stato maggiore in zone scarsamente urbanizzate e popolate come Polo Nord, Alaska, Canada settentrionale, Russia e Mongolia, mentre è risultato minore in zone densamente abitate come la penisola indiana.
    Ecco che tutto questo ragionamento si conclude con un’inversione del paradigma: l’isola di calore urbana non ha alcun impatto sull’aumento della temperatura globale, ma l’aumento della temperatura globale amplifica l’isola di calore urbana. Durante le ondate di calore, infatti, le città possono diventare molto opprimenti, non tanto di giorno, quanto piuttosto nelle ore serali e notturne, quando la dispersione termica rispetto alle zone rurali risulta molto minore. La scarsa presenza di verde e le numerose superfici assorbenti rallentano notevolmente il raffreddamento notturno, allungando così la durata del periodo caratterizzato da disagio termico. Nelle zone di campagna o semirurali, al contrario, per quanto alta la temperatura massima possa essere, l’irraggiamento notturno è comunque tale da garantire almeno alcune ore di comfort.
    © 2024 Aboca S.p.A. Società Agricola, Sansepolcro (Ar)
    Giulio Betti presenterà Ha sempre fatto caldo! a Milano, insieme a Matteo Bordone, il 16 novembre alle 16, alla Centrale dell’Acqua, in occasione di Bookcity. LEGGI TUTTO

  • in

    La statistica falsa sull’80% della biodiversità protetta dagli indigeni

    Caricamento playerChi si interessa di ambiente potrebbe aver sentito dire che l’80 per cento della biodiversità del pianeta si trova nelle terre abitate dalle popolazioni indigene, che secondo le stime più diffuse comprendono oltre 370 milioni di persone in circa 70 paesi. Negli ultimi vent’anni questa statistica è circolata sia su pubblicazioni autorevoli che tra i gruppi ambientalisti e sui media, ma in base a uno studio pubblicato a inizio settembre sulla rivista Nature è sbagliata. Per quanto sia sicuro che le popolazioni indigene abbiano un ruolo essenziale nella tutela degli ecosistemi naturali, non ci sono prove scientifiche che sostengono quella statistica, che peraltro è di per sé problematica: la biodiversità infatti non è qualcosa che si possa quantificare con precisione.
    Lo studio è stato realizzato da tredici scienziati provenienti principalmente dall’Università autonoma di Barcellona e dall’Università australiana Charles Darwin, tre dei quali si identificano come persone indigene. Il gruppo ha usato le piattaforme Google Scholar e Web of Science per individuare i testi in cui comparivano le parole “indigeni”, “80 per cento” e “biodiversità”, oppure loro variazioni, come “ottanta per cento” o “diversità biologica”: ha così trovato 384 risultati che hanno formulazioni leggermente diverse dello stesso concetto, tra cui 186 articoli scientifici rivisti da altri esperti con la cosiddetta peer review e pubblicati anche su riviste molto prestigiose, come The Lancet e la stessa Nature.
    Il primo riferimento riscontrato dai ricercatori risale al 2002, quando la Commissione dell’ONU per lo sviluppo sostenibile diceva che le popolazioni indigene «si prendevano cura dell’80 per cento della biodiversità del mondo nelle terre e nei territori ancestrali». Da allora la statistica è stata usata in moltissime occasioni per sottolineare il ruolo delle popolazioni indigene nella conservazione dell’ambiente e come potrebbe essere preso a modello, per esempio in un rapporto del 2009 della FAO, l’organizzazione delle Nazioni Unite per l’alimentazione e l’agricoltura. È circolata così tanto e su fonti così autorevoli che nel 2020 la piattaforma online di fact checking Gigafact l’ha “dichiarata” vera; nel 2022 l’ha citata anche il noto regista James Cameron per pubblicizzare Avatar – La via dell’acqua, che come il primo film del 2009 parla di una civiltà di umanoidi blu in perfetta simbiosi con la natura.
    Il leader indigeno Raoni Metuktire in posa per una foto a Belem, nello stato brasiliano di Pará, il 5 agosto del 2023 (REUTERS/ Ueslei Marcelino)
    Stephen Garnett e Álvaro Fernández-Llamazares, due degli autori, hanno spiegato in un articolo pubblicato su The Conversation che la statistica sembra derivare da interpretazioni errate di studi precedenti, oppure ancora da sintesi affrettate. In base alle analisi dei ricercatori l’affermazione cominciò a diffondersi in particolare dopo la pubblicazione di un rapporto della Banca Mondiale nel 2008. Il fatto è che la fonte citata dalla Banca Mondiale è una pubblicazione del 2005 di un’organizzazione non profit di Washington DC (World Resources Institute), in cui però si parlava di sette popolazioni indigene delle Filippine che «gestivano oltre l’80 per cento della biodiversità originale» di una foresta.
    La fonte del rapporto della FAO invece non è chiara, ma sempre secondo lo studio potrebbe arrivare dall’edizione del 2001 dell’Enciclopedia della Biodiversità, dove comunque si diceva una cosa diversa: cioè che «quasi l’80 per cento delle regioni naturali terrestri è abitato da una o più popolazioni indigene», e non che «circa l’80 per cento della biodiversità restante sul pianeta si trova nei territori delle popolazioni indigene», come detto dalla FAO. In ogni caso quando la statistica comparve per la prima volta la superficie delle terre e delle acque di pertinenza delle popolazioni indigene non era ancora stata mappata, e per questo non sarebbe stato possibile determinare nemmeno quale percentuale di biodiversità contenesse.
    Un grafico dei testi che citano la statistica in base ai dati raccolti nello studio (dal sito di Nature)
    Per gli scienziati dire che l’80 per cento della biodiversità si trova nei territori delle popolazioni indigene non ha comunque basi scientifiche perché si parte da due presupposti sbagliati, ovvero che la biodiversità si possa suddividere in singole unità misurabili e che queste unità si possano mappare con precisione. Nessuna delle due cose però si può definire in maniera accurata.
    Intanto la Convenzione sulla diversità biologica – cioè il trattato per lo sviluppo di strategie per la tutela dell’ambiente firmato da quasi 200 paesi nel 1992 – definisce la biodiversità come le diversità nell’ambito delle specie, tra le specie e tra gli ecosistemi, quindi è difficile da descrivere con criteri univoci. In più anche i tentativi di definire la biodiversità in base alla quantità di specie presenti e di loro individui sono per necessità delle approssimazioni.
    Come ha spiegato al Guardian Erle Ellis, scienziato ambientale all’Università del Maryland, i modelli statistici impiegati per descrivere un fenomeno in biologia sono utili ma non affidabili, soprattutto su ampia scala. Gli autori dello studio di Nature ricordano inoltre che le informazioni sulla quantità e sulla distribuzione geografica delle specie sono necessariamente incomplete, visto che moltissime non sono ancora state studiate e descritte: quelle relative ai territori abitati dalle popolazioni indigene, remoti se non inesplorati, lo sono a maggior ragione.

    – Leggi anche: Non è facile capirsi su chi siano gli “indigeni”

    Lo studio ha richiesto cinque anni di lavoro ed è stato svolto anche attraverso discussioni negli eventi dedicati al tema e ricerche sul campo. I leader di alcune popolazioni indigene sentiti dai ricercatori hanno confermato di non avere prove a sostegno di questa statistica, mentre altri ne hanno preso le distanze. Solo due dei testi esaminati la mettevano in dubbio, dicono i ricercatori: uno di questi era una pubblicazione del Consorzio ICCA, un’organizzazione internazionale che promuove il riconoscimento dei territori delle popolazioni indigene e delle comunità locali.
    Secondo Garnett e Fernández-Llamazares ci sono «ampie prove per dire che le popolazioni indigene e i loro territori sono essenziali per la biodiversità del mondo», ma «la reale portata del loro contributo non può essere quantificata in un solo numero». A detta dei ricercatori l’affermazione sull’80 per cento rischia non solo di vanificare la solidità degli studi scientifici, ma anche di danneggiare l’obiettivo per cui viene citata, ovvero comprendere e sostenere le conoscenze dei popoli indigeni sul tema della conservazione della biodiversità e tutelare i loro diritti.
    Per valutare l’impatto delle popolazioni indigene nella tutela della biodiversità in un certo ecosistema o in una certa regione, serve anche e soprattutto prendere in considerazione le relazioni culturali, storiche e sociali stabilite tra i popoli indigeni e l’ambiente circostante, dicono i ricercatori: e questo può avvenire solo riconoscendo i loro territori e le loro comunità, coinvolgendoli nei processi decisionali e finanziando prima di tutto le loro iniziative.
    Sempre a detta di Garnett e Fernández-Llamazares citare una statistica sbagliata, al contrario, può implicare il rischio di snobbare gli appelli delle popolazioni indigene in tema di ambiente e lasciar sottendere che la conoscenza sui loro territori sia completa ed esaustiva, quando non lo è. Inoltre, come è successo a un evento internazionale a cui hanno partecipato i ricercatori, le espone a critiche sulla qualità della loro gestione da parte di chi collega il fatto che tutelerebbero una percentuale elevatissima di biodiversità al declino di molte specie.

    – Leggi anche: L’importanza dell’erba alta LEGGI TUTTO

  • in

    In Austria centinaia di rondini sono morte per il maltempo e il freddo

    Caricamento playerIn Austria il maltempo e l’abbassamento delle temperature legati alla tempesta Boris hanno fatto danni anche tra gli uccelli migratori che si trovavano ancora nel paese, in particolare le rondini: sia a Vienna che in altre località sono state trovate centinaia di uccelli morti. Il freddo improvviso e i venti provenienti da sud li hanno bloccati a nord delle Alpi, poi le piogge intense e prolungate li hanno indeboliti, perché non hanno consentito loro di mangiare. Le diverse specie di rondini infatti mangiano gli insetti che catturano in volo e durante i temporali più forti non riescono a volare e non possono trovarne.

    L’organizzazione Tierschutz Austria, che si occupa di protezione degli animali, sta cercando di soccorrere quante più rondini possibili e attraverso i propri canali sui social network ha invitato chiunque abbia recuperato rondini cadute a terra a portarle alla propria sede per ospitarle in condizioni che ne permettano la sopravvivenza. La specie più interessata è il balestruccio (Delichon urbicum), che sverna in Africa a sud del deserto del Sahara; le rondini comuni (Hirundo rustica) infatti avevano già cominciato la migrazione, ha detto Stephan Scheidl di Tierschutz Austria a ORF News, il sito di notizie della radiotelevisione pubblica.
    Nelle condizioni di maltempo molte rondini si radunano sotto i tetti o i cornicioni dei palazzi nel tentativo di scaldarsi stando vicine, per questo gli uccelli morti sono stati spesso trovati vicini. Alcuni non sono riusciti a ripararsi a causa dei dissuasori per piccioni usati nelle città.

    In passato era già successo che delle condizioni meteorologiche simili a quelle di questi giorni impedissero alle rondini di migrare. Nel 1974 per cercare di salvare la vita a centinaia di rondini la NABU, un’organizzazione tedesca analoga alla LIPU, ne organizzò il trasporto in treno e su un aereo di linea Lufthansa, ma solo pochi uccelli sopravvissero.
    La tempesta Boris ha causato alluvioni in vari paesi dell’Europa centrale – Romania, Polonia, Repubblica Ceca e Austria – e la morte di almeno 15 persone. Per quanto riguarda le rondini non esiste al momento una stima precisa di quante siano morte. LEGGI TUTTO

  • in

    Il grande tsunami che non ha visto nessuno

    Caricamento playerA settembre del 2023 le stazioni di rilevamento dei terremoti in buona parte del mondo registrarono una strana attività sismica diversa da quelle solitamente rilevate, e che durò per circa nove giorni. Il fenomeno era così singolare e insolito da essere classificato come un “oggetto sismico non identificato” (USO), un po’ come si fa con gli avvistamenti aerei di oggetti difficili da definire, i famosi UFO. Dopo circa un anno, quel mistero è infine risolto e lo studio del fenomeno ha permesso di scoprire nuove cose sulla propagazione delle onde sismiche nel nostro pianeta, sugli tsunami, sugli effetti del cambiamento climatico e sulla perdita di enormi masse di roccia e ghiaccio.
    L’onda sismica era stata rilevata dai sismometri a partire dal 16 settembre 2023 e aveva una forma particolare, più semplice e uniforme di quelle che solitamente si registrano in seguito a un terremoto. Era una sorta di rumore di fondo ed era stata registrata in diverse parti del mondo: i sensori delle stazioni di rilevamento sono molto sensibili e la Terra dopo un terremoto “risuona”, dunque si possono rilevare terremoti anche a grande distanza da dove sono avvenuti. Nei giorni in cui l’onda continuava a essere rilevata e poi ancora nelle settimane seguenti, iniziarono a emergere alcuni indizi su quale potesse essere la causa dell’USO. Il principale indiziato era un fiordo dove si era verificata una grande frana che aveva portato a un’onda anomala e a devastazioni a diversi chilometri di distanza.
    Tutto aveva avuto infatti inizio in una delle aree più remote del pianeta lungo la costa orientale della Groenlandia, più precisamente dove inizia il fiordo Dickson. È un’insenatura lunga circa 40 chilometri con una forma particolare a zig zag, che termina con una curva a gomito qualche chilometro prima di immettersi nel fiordo Kempes, più a oriente. Niente di strano o singolare per una costa frastagliata e intricatissima, con centinaia di fiordi, come quella della Groenlandia orientale.

    Sulla costa, qualche chilometro prima della curva a gomito, c’era un rilievo di circa 1.200 metri affacciato su parte del ghiacciaio sottostante che raggiunge poi l’insenatura. A causa dell’aumento della temperatura, il ghiacciaio non era più in grado di sostenere il rilievo, che a settembre dello scorso anno era quindi collassato producendo un’enorme slavina con un volume stimato intorno ai 25 milioni di metri cubi di detriti (circa dieci volte la Grande Piramide di Giza in Egitto).
    Questa grande massa di ghiaccio e rocce si tuffò nel fiordo spingendosi fino a 2 chilometri di distanza e producendo uno tsunami che raggiunse un’altezza massima stimata di 200 metri. A causa della particolare forma a zig-zag del fiordo, l’onda non raggiunse l’esterno dell’insenatura e continuò a infrangersi al suo interno per giorni, producendo uno sciabordio (più precisamente una “sessa”) che fu poi rilevato dai sismometri incuriosendo infine alcuni esperti di terremoti in giro per il mondo.

    Come ha spiegato il gruppo di ricerca che ha messo insieme tutti gli indizi in uno studio pubblicato su Science, con la collaborazione di 68 sismologi in 15 paesi diversi, dopo pochi minuti dalla prima grande onda lo tsunami si ridusse a circa 7 metri e nei giorni seguenti sarebbe diventato di pochi centimetri, ma sufficienti per produrre onde sismiche rilevabili a causa della grande massa d’acqua coinvolta. Per pura coincidenza nelle settimane prima del collasso del rilievo un gruppo di ricerca aveva collocato alcuni sensori nel fiordo per misurarne la profondità, inconsapevole sia del rischio che stava correndo in quel tratto dell’insenatura sia di creare le condizioni per raccogliere dati che sarebbero stati utili per analizzare lo tsunami che si sarebbe verificato poco tempo dopo.
    Per lo studio su Science, il gruppo di ricerca internazionale ha infatti realizzato un proprio modello al computer per simulare l’onda anomala e ha poi confrontato i dati della simulazione con quelli reali, trovando molte corrispondenze per confermare le teorie iniziali sulle cause dell’evento sismico. L’andamento stimato dell’onda, compresa la sua riduzione nel corso del tempo, corrispondeva alle informazioni che potevano essere dedotte dalle rilevazioni sismiche.
    La ricerca ha permesso di approfondire le conoscenze sulla durata e sulle caratteristiche che può assumere uno tsunami in certe condizioni di propagazione, come quelle all’interno di un’insenatura. Lo studio di questi fenomeni riguarda spesso grandi eventi sismici, come quello che interessò il Giappone nel 2011, e che tendono a esaurirsi in alcune ore in mare aperto. L’analisi di fenomeni su scala più ridotta, ma comunque rilevante per la loro portata, può offrire nuovi elementi per comprendere meglio in generale sia gli tsunami sia le cause di alcuni eventi insoliti.

    La frana è stata inoltre la più grande a essere mai stata registrata nella Groenlandia orientale, hanno detto i responsabili della ricerca. Le onde hanno distrutto un’area un tempo abitata da una comunità Inuit, che si era stabilita nella zona circa due secoli fa. Il fatto che l’area fosse rimasta pressoché intatta fino allo scorso settembre indica che nel fiordo non si verificavano eventi di grande portata da almeno duecento anni.
    Su Ella, un’isola che si trova a circa 70 chilometri da dove si è verificata la frana, lo tsunami ha comunque causato la distruzione di parte di una stazione di ricerca. L’isola viene utilizzata da scienziati e dall’esercito della Danimarca, che ha sovranità sulla Groenlandia, ma era disabitata al momento dell’ondata.
    In un articolo di presentazione della loro ricerca pubblicato sul sito The Conversation, gli autori hanno ricordato che l’evento iniziale si è verificato in pochi minuti, ma che le sue cause sono più antiche: «Sono stati decenni di riscaldamento globale ad avere fatto assottigliare il ghiacciaio di diverse decine di metri, facendo sì che il rilievo soprastante non fosse più stabile. Al di là della particolarità di questa meraviglia scientifica, questo evento mette in evidenza una verità più profonda e inquietante: il cambiamento climatico sta riplasmando il nostro pianeta e il nostro modo di fare scienza in modi che solo ora iniziamo a comprendere».
    Il gruppo di ricerca ha anche segnalato come fino a qualche anno fa sarebbe apparsa assurda l’ipotesi che una sessa potesse durare per nove giorni, «così come un secolo fa il concetto che il riscaldamento globale potesse destabilizzare dei versanti nell’Artico, portando a enormi frane e tsunami. Eventi di questo tipo vengono ormai registrati annualmente proprio a causa dell’aumento della temperatura media globale, delle estati artiche con temperature spesso al di sopra della media e a una maggiore presenza del ghiaccio stagionale rispetto a un tempo. LEGGI TUTTO

  • in

    Le tartarughe del Mediterraneo nidificano sempre più a nord e a ovest

    Tra il 27 e il 30 agosto sulla spiaggia di Laigueglia, in Liguria, sono nate 92 tartarughe marine della specie Caretta caretta, la più diffusa nel mar Mediterraneo, da una buca nella sabbia scavata alla fine di giugno. In questi mesi il nido era stato osservato con grande attenzione da un gruppo di studiosi e volontari, non solo per proteggere lo sviluppo delle uova, ma anche per l’eccezionalità del luogo in cui erano state deposte. Infatti finora ci sono stati solo cinque casi noti di nidificazioni di tartarughe Caretta caretta in Liguria: uno nel 2021, uno nel 2022 e tre quest’estate. Secondo vari studiosi l’aumento delle temperature sta spingendo le tartarughe del Mediterraneo a spostarsi verso nord e verso ovest per nidificare, per cui nei prossimi anni i nidi nella regione, e in Italia in generale, potrebbero aumentare.Storicamente le Caretta caretta sono le uniche tartarughe marine che nidificano in Italia. Gli animali adulti si trovano un po’ in tutto il Mediterraneo, ma la deposizione delle uova – tra la fine di maggio e l’inizio di agosto – avviene generalmente nella regione più orientale del bacino e principalmente in Grecia e in Turchia. Il requisito indispensabile delle spiagge affinché una tartaruga ci possa deporre le uova è che siano sabbiose: le femmine adulte devono poter scavare una buca e deporvi in sicurezza le uova. La temperatura della sabbia, che si scalda molto durante il giorno, permette poi l’incubazione delle uova.
    Anche le spiagge sabbiose italiane sono frequentate dalle Caretta caretta, ma fino a poco tempo fa i nidi si trovavano soprattutto in Sicilia, Calabria, Campania e Puglia, non più a nord. Dal 2013 però sono osservati nidi in Toscana, lungo le coste del Tirreno, e più di recente in Liguria e, sull’Adriatico, ancora più a nord, in provincia di Rovigo e di Venezia. E anche nelle regioni in cui i nidi erano fatti da tempo, le nidificazioni osservate sono aumentate. Da maggio al 20 agosto di quest’anno ce ne sono state almeno 531, secondo i dati raccolti da Tartapedia, un’associazione di esperti e appassionati di tartarughe che portano avanti un monitoraggio nazionale. Negli ultimi vent’anni inoltre sono stati trovati sempre più spesso dei nidi anche sulle coste spagnole, ben più a ovest.

    L’attenzione alle tartarughe marine, anche da parte di chi lavora sulle spiagge o le frequenta per fare il bagno, «è sicuramente cresciuta», spiega la biologa Chiara Mancino, ricercatrice dell’Università La Sapienza di Roma che studia questi animali, ma anche escludendo gli effetti di tale sensibilizzazione sulle segnalazioni di nidi si osserva un aumento del loro numero verso l’ovest del Mediterraneo.
    Mancino lo ha verificato insieme ad alcuni colleghi con uno studio pubblicato nel 2022: negli anni Sessanta il centro della distribuzione spaziale dei nidi di Caretta caretta era a sud-est dell’isola di Creta, nel mar Egeo, stando alle osservazioni scientifiche; già negli anni Settanta questo punto ideale si era spostato verso ovest, nel mar Ionio, e nell’ultimo decennio è arrivato vicino alla Sicilia. Le zone con maggior densità di nidi sono tuttora nel Mediterraneo orientale ma, è sicuramente in corso un ampliamento della regione di nidificazione verso nord e verso ovest.
    «È una conoscenza comune che le tartarughe depongono le uova dove sono nate», aggiunge Mancino, «e per questo molte volte mi è stato chiesto se il fatto che oggi ci siano nidi in Liguria non significhi che c’erano anche anni fa: in realtà non è detto, è stato dimostrato che la “filopatria”, la tendenza a tornare nel luogo di nascita, è influenzata anche dai cambiamenti ambientali».
    Secondo vari biologi che studiano le Caretta caretta infatti l’ampliamento dell’areale di riproduzione delle tartarughe è probabilmente dovuto al cambiamento climatico. In tutto il mondo i suoi effetti hanno già varie ripercussioni sulla vita delle tartarughe marine, così come altri effetti delle attività umane. Ad esempio l’innalzamento del livello del mare riduce le spiagge sabbiose adatte per la deposizione delle uova, che già spesso sono diventate inospitali per le tartarughe a causa degli stabilimenti balneari e dell’illuminazione notturna, che le disturba. Gli eventi meteorologici estremi inoltre contribuiscono ad aumentare l’erosione delle spiagge.
    Ci sono poi dei problemi legati alla temperatura media della sabbia, che sta aumentando insieme a quella dell’atmosfera e dell’acqua del mare. Nei rettili la temperatura in cui si sviluppano gli embrioni nelle uova influenza il sesso dei nascituri, e più è alta più femmine nascono: questo potrebbe creare degli squilibri demografici nelle popolazioni di tartarughe e potenzialmente causare una riduzione del loro numero a lungo andare. E se le temperature aumentano troppo può anche succedere che le uova non si schiudano proprio.
    Lo studio di Mancino del 2022 ha trovato un legame tra l’ampliamento della regione in cui le Caretta caretta nidificano e l’aumento della temperatura media dell’acqua del Mediterraneo. Le spiagge più adatte per la deposizione delle uova, stando ai dati di cui disponiamo, sono quelle dove la temperatura superficiale dell’acqua del mare è di 25 °C. Le spiagge sabbiose dell’est del bacino mediterraneo continuano a essere adatte per i nidi, e quelle disponibili sono praticamente tutte usate; l’aumento delle temperature intanto sta rendendo più accoglienti le spiagge italiane e spagnole. Mancino continua a spiegare: «Può darsi che la popolazione delle tartarughe sia aumentata al punto da non trovare più spazio nel bacino orientale e si stia espandendo verso ovest dato che le condizioni attuali lo consentono. Ma questa ipotesi dobbiamo ancora verificarla».
    Le Caretta caretta non sono le uniche tartarughe del Mediterraneo di cui sono stati osservati dei nidi in località nuove negli ultimi anni. Proprio nel luglio del 2024 un gruppo di volontari del WWF di Vibo Valentia ha visto una tartaruga verde tentare di nidificare su una spiaggia della costa ionica della Calabria. Le tartarughe verdi (secondo la nomenclatura scientifica Chelonia mydas) sono l’altra specie di tartarughe marine presenti e nidificanti nel Mediterraneo, ma nidificano sulle spiagge più orientali, in particolare di Turchia, Siria, Libano, Israele ed Egitto: finora mai in Italia.
    Secondo un altro studio a cui ha lavorato Mancino, pubblicato a dicembre su Scientific Reports di Nature, ulteriori aumenti delle temperature dovuti al riscaldamento globale renderanno altre regioni del Mediterraneo più accoglienti dal punto di vista climatico anche per i nidi delle tartarughe verdi. Si tratta però di aree più antropizzate, cioè sfruttate e frequentate dalle persone, dunque potenzialmente insidiose per i nidi e le tartarughe appena nate.
    Inoltre anche se l’ampliamento dell’area di riproduzione potrebbe facilitare un aumento del numero di tartarughe marine nel Mediterraneo, e quindi in un certo senso si può dire che il cambiamento climatico le stia favorendo, le temperature più alte nell’est del bacino potrebbero avere l’effetto opposto. In Turchia è stato osservato che tra le nuove nate le femmine sono più numerose dei maschi e quando le temperature aumentano eccessivamente le uova non si sviluppano correttamente e non nasce nessuna tartaruga.
    «Poi bisogna vedere se le nuove spiagge trovate dalle tartarughe sono davvero idonee», aggiunge Mancino: «Può darsi che il successo di schiusa sia bassissimo, è quello che sto studiando ora».
    Per chi si occupa di studiare le tartarughe marine e difenderle dalle minacce alla loro sopravvivenza dovute alle attività umane l’ampliamento del loro territorio di nidificazione rappresenta una sfida, perché richiede di mettere a conoscenza delle buone abitudini per non danneggiare i nidi nuove comunità di persone. Nel caso dei nidi di Laigueglia, Arma di Taggia e Alassio, le tre località liguri dove sono state osservate le nidificazioni di quest’anno, gli scienziati dell’Acquario di Genova e dell’Agenzia regionale per la protezione dell’ambiente ligure (ARPAL) hanno collaborato coi gestori degli stabilimenti balneari dove sono stati trovati i nidi, isolando una porzione della spiaggia. Se in futuro i nidi aumenteranno «bisognerà fare tanta sensibilizzazione», conclude Mancino. LEGGI TUTTO

  • in

    Produrre cibo dalla plastica, o almeno provarci

    Ogni anno vengono prodotti oltre 400 milioni di tonnellate di rifiuti derivanti dall’impiego dei vari tipi di plastica usati per gli imballaggi, i contenitori, gli abiti sintetici e molti altri prodotti. Una percentuale crescente di questi rifiuti viene riciclata, ma l’impatto della plastica è ancora oggi una delle principali preoccupazioni legate alla contaminazione degli ecosistemi e alla tutela della nostra salute. Mentre si fatica a concordare nuovi trattati internazionali per ridurre la produzione e gli sprechi di plastica c’è chi sta sperimentando una via alternativa un po’ più creativa: renderla commestibile.L’idea non è completamente nuova, ma negli ultimi anni ha avuto qualche maggiore attenzione in seguito a una iniziativa della Defense Advanced Research Projects Agency (DARPA), l’agenzia del dipartimento della Difesa degli Stati Uniti che si occupa dello sviluppo di nuove tecnologie da utilizzare in ambito militare. Nel 2019, la DARPA invitò i gruppi di ricerca interessati a proporre nuovi sistemi per ridurre la quantità di rifiuti prodotti dai soldati quando sono in guerra o lavorano per dare sostegno alla popolazione in seguito a emergenze e disastri naturali. L’agenzia era interessata a trovare sistemi per convertire gli imballaggi in nuovi prodotti, possibilmente sul posto, in modo da ridurre la produzione di rifiuti e rendere meno onerosa la loro gestione.
    La richiesta portò alla presentazione di progetti da vari centri di ricerca e al finanziamento da parte della DARPA di alcuni di quelli più promettenti. Uno di questi è gestito dalla Michigan Technological University (MTU) e consiste nell’impiegare sostanze e microorganismi per degradare la plastica e trasformarla in qualcos’altro. Il sistema per ora è dedicato a ricavare materiale organico che sia commestibile, mentre solo in un secondo momento si penserà ai modi in cui utilizzarlo.
    La plastica viene triturata e successivamente inserita in un reattore dove viene aggiunto l’idrossido di ammonio (il composto chimico che in soluzione acquosa chiamiamo ammoniaca) ad alta temperatura. Non tutta la plastica è uguale, la parola stessa è un termine ombrello che usiamo per riferirci a materiali molto diversi tra loro, di conseguenza non tutto ciò che viene sottoposto al trattamento reagisce allo stesso modo.

    Alcuni tipi di plastica come il polietilene tereftalato (PET), il materiale con cui sono solitamente fatte le bottiglie, si disgrega dopo questo primo passaggio, mentre altre plastiche hanno necessità di ulteriori trattamenti ad alte temperature e in assenza di ossigeno, che vengono effettuati in un reattore a parte. Le plastiche di questo tipo possono essere convertite in carburante oppure in sostanze lubrificanti, entrambe utili in un ipotetico scenario in cui il processo possa essere eseguito direttamente sul campo dai soldati come richiesto dalla DARPA.
    Ciò che si è ottenuto dal PET con il passaggio nel reattore viene invece dato in pasto a colonie di batteri, in grado di nutrirsi della plastica, che ha tra i propri componenti anche composti organici. Come ha raccontato al sito Undark, il gruppo di ricerca della MTU inizialmente riteneva che trovare i batteri più adatti per nutrirsi della plastica processata avrebbe richiesto molto tempo, ma le cose sono andate diversamente. In breve tempo, il gruppo di ricerca ha infatti notato che i batteri che normalmente degradano il compost (fatto per lo più di rifiuti e scarti alimentari) si adattano facilmente alla plastica trattata nel reattore. L’ipotesi è che la struttura a livello molecolare di alcuni composti delle piante abbia alcune caratteristiche in comune con ciò che viene processato con l’idrossido di ammonio, favorendo il banchetto dei batteri.
    Dopo che i batteri hanno consumato e trasformato la plastica, la poltiglia che si ottiene viene fatta essiccare fino a ottenere una polvere che contiene i principali macronutrienti: proteine, carboidrati e grassi. Il gruppo di ricerca ne ha elencato le caratteristiche in uno studio pubblicato lo scorso anno sulla rivista Trends in Biotechnology, ma il passaggio dal bidone della plastica alle razioni dei soldati o dei piatti in qualche ristorante non sarà così immediata.
    Da tempo si discute sull’opportunità di utilizzare particolari batteri e altri microrganismi come fonte di proteine e di altre sostanze nutrienti. La loro coltivazione richiede meno risorse e acqua rispetto a ciò che viene coltivato nei campi e per questo c’è chi sostiene che potrebbero affiancare la produzione di cibo più tradizionale riducendo l’impatto ambientale dell’intera catena alimentare. Le stime variano sensibilmente, ma si ritiene che circa un terzo di tutte le emissioni di gas serra sia prodotto dal settore alimentare.
    La polvere ottenuta dal processo messo a punto dalla MTU è stata testata senza trovare per ora sostanze note per essere tossiche. Il preparato è stato dato in pasto ad alcuni nematodi (vermi cilindrici) senza conseguenze e sono stati avviati test sui ratti, per effettuare osservazioni in periodi di tempo più lunghi rispetto alle settimane di vita dei nematodi. I risultati dai test sui ratti saranno essenziali per procedere con una prima richiesta alla Food and Drug Administration (FDA), l’agenzia governativa statunitense che tra le altre cose si occupa di sicurezza alimentare, per dichiarare il consumo della plastica trasformata in cibo sicuro per gli esseri umani.
    Non è comunque ancora detto che la sperimentazione porti a qualche risultato concreto, come del resto spesso avviene con i progetti finanziati dalla DARPA. L’agenzia è nota per promuovere iniziative di ricerca molto ambiziose se non impossibili da realizzare, confidando che almeno alcune delle sperimentazioni avviate portino da qualche parte. Il cibo dalla plastica potrebbe rivelarsi molto utile per migliorare la gestione della logistica, considerato che il trasferimento di cibo e rifornimenti è uno degli aspetti più onerosi per gli eserciti soprattutto se attivi in territori lontani dal loro paese, come avviene quasi sempre nel caso degli Stati Uniti.
    Se dovesse rivelarsi sicuro e affidabile, il sistema per convertire alcuni tipi di plastica in cibo potrebbe essere adottato in futuro per scopi civili, ma lo stesso gruppo di ricerca della MTU ha qualche dubbio in proposito. Stephen Techtmann, uno dei responsabili del progetto, ha detto sempre a Undark che potrebbe essere molto difficile convincere le persone a mangiare qualcosa che è stato ottenuto mettendo all’ingrasso dei batteri con la plastica, mentre ci potrebbero essere maggiori opportunità in particolari circostanze legate a strette necessità di sopravvivenza nelle emergenze: «Penso ci possa essere qualche preoccupazione in meno sul fattore disgusto nel caso in cui si tratti di un: “Questo mi terrà in vita per un altro paio di giorni”».
    I batteri sono comunque strettamente legati alla nostra alimentazione, come alcuni tipi di funghi e altri microrganismi. Li ingeriamo quando mangiamo un vasetto di yogurt, assaggiamo un formaggio o proviamo del kimchi e altri cibi fermentati. Oltre a rendere più semplici e sicuri da conservare alcuni elementi, contribuiscono alla salute del microbiota, cioè l’insieme dei microrganismi che vivono nel nostro intestino e che ci aiutano a digerire gli alimenti e a regolare numerose altre attività dell’organismo. Naturalmente non tutti i batteri sono commestibili (alcuni possono causare gravi danni) e per questo sono necessarie verifiche sulla sicurezza alimentare.
    I batteri impiegati da millenni per la produzione dello yogurt partono dal latte, quindi da una sostanza che sappiamo essere commestibile e l’idea di usarli fa sicuramente un effetto diverso rispetto alla trasformazione in alimenti della plastica, di cui sono noti gli effetti inquinanti e tossici. Ma in chimica una sostanza può sparire nel corso di una reazione, semplicemente perché si trasforma in qualcosa di diverso, che in questo caso secondo il gruppo di ricerca potrebbe aiutare almeno in parte a sfamare il mondo. LEGGI TUTTO