More stories

  • in

    Uno storico satellite sta precipitando verso la Terra, ma non c’è da preoccuparsi

    Caricamento playerIl satellite ERS-2, grande più o meno quanto un minibus, sta precipitando verso la Terra. Ma non c’è da preoccuparsi: il suo rientro incontrollato nell’atmosfera avverrà nella serata di oggi e buona parte del satellite si disintegrerà ad altissima quota, con solo qualche possibilità che alcuni frammenti raggiungano il suolo.
    Non è la prima volta che succede, ma l’evento è a suo modo storico perché segna la fine dei uno dei primi satelliti europei per lo studio del clima lanciato a metà degli anni Novanta, con tecnologie all’epoca ancora poco utilizzate in orbita e che ora fanno parte di molti satelliti per l’osservazione del suolo, degli oceani e delle caratteristiche dell’atmosfera.
    Il satellite era stato sviluppato grazie a una collaborazione gestita dall’Agenzia spaziale europea (ESA) nell’ambito del programma European Remote Sensing (ERS) per lo studio della Terra all’inizio degli anni Novanta. L’ESA aveva inviato in orbita ERS-1 nel 1991 e quattro anni dopo aveva lanciato ERS-2, il satellite che ora sta tornando verso il nostro pianeta.
    La missione scientifica di ERS-2 era durata fino al 2011: anche se dopo 16 anni il satellite era ancora funzionante, l’ESA aveva deciso di fermarne le attività e di farlo distruggere nell’atmosfera, in modo da ridurre la presenza dei rifiuti spaziali in orbita, un problema sempre più sentito e con notevoli rischi per il funzionamento delle altre migliaia di satelliti che girano intorno alla Terra.
    Dopo aver fatto alcune manovre, il satellite era stato portato dai 780 chilometri dove effettuava buona parte delle proprie rilevazioni a 573 chilometri di altitudine e disattivato, in modo che lentamente perdesse quota fino a compiere un ingresso nell’atmosfera in una quindicina di anni. La previsione era abbastanza accurata e ora ERS-2 sta perdendo quota più velocemente e secondo le previsioni terminerà il proprio viaggio nella serata di mercoledì.
    Il satellite ERS-2 nelle fasi di preparazione prima del lancio (ESA)
    Non è però semplice stabilire con certezza su quale porzione del pianeta avverrà la distruzione, perché molto dipende dalla velocità del rientro e dalla densità dell’atmosfera, che varia a seconda di numerose variabili compresa l’attività solare. La traiettoria seguita da ERS-2 è comunque tenuta sotto controllo dall’ESA e da diverse altre organizzazioni, in modo da poter fare stime più accurate quando il satellite sarà intorno agli 80 chilometri di altitudine, il probabile momento in cui avverrà la distruzione.
    ERS-2 ha una massa di 2,5 tonnellate, comparabile con quella di diversi altri satelliti e detriti spaziali che in media rientrano nell’atmosfera con una frequenza di 7-15 giorni. A differenza dei satelliti più recenti, solitamente progettati per produrre la minor quantità possibile di detriti, ERS-2 ha alcuni componenti che potrebbero resistere alle sollecitazioni e alle alte temperature che si sviluppano nel rientro nell’atmosfera. La sua antenna principale era stata costruita in fibra di carbonio, un materiale molto resistente, di conseguenza alcune sue parti potrebbero arrivare al suolo.
    Anche se così fosse il rischio per la popolazione sarebbe comunque minimo, come ha spiegato l’ESA:
    Il rischio su base annua per un essere umano di essere ferito da un detrito spaziale è inferiore a 1 su 100 miliardi. Per fare un confronto, è un rischio: circa 1,5 milioni di volte inferiore rispetto a quello di morire in un incidente domestico; circa 65mila volta inferiore rispetto al rischio di essere colpiti da un fulmine; circa tre volte inferiore rispetto al rischio di essere colpiti da un meteorite.
    Il rischio è molto basso per un semplice motivo: buona parte della Terra è disabitata, considerato che gli oceani da soli ne ricoprono il 70 per cento e che ci sono enormi porzioni di territorio in cui non vive nessuno. La maggior parte degli esseri umani vive in aree densamente popolate e questo può creare una percezione distorta sull’effettiva presenza umana in tutto il pianeta.
    Rappresentazione schematica della carriera di ERS-2 nello Spazio (ESA)
    Quando furono lanciati nella prima metà degli anni Novanta, ERS-1 ed ERS-2 contenevano alcune delle tecnologie più avanzate disponibili all’epoca per l’osservazione e lo studio della Terra. I sensori di ERS-2 permisero di effettuare in modo più accurato la misurazione della temperatura superficiale del suolo e degli oceani, raccogliendo dati fondamentali per la costruzione dei modelli per lo studio del cambiamento climatico. ERS-2 fu anche molto importante per osservare l’assottigliamento dello strato di ozono in alcune parti dell’atmosfera, il cosiddetto “buco nell’ozono”, così come per analizzare alcuni andamenti atmosferici per migliorare l’affidabilità delle previsioni meteorologiche.
    Nel corso dei suoi 16 anni di utilizzo, ERS-2 fu inoltre impiegato per analizzare gli effetti di alcuni disastri naturali, come grandi inondazioni su alcune porzioni di territorio, e per studiare la salute delle foreste e identificare i casi di deforestazione illegale. Insieme a ERS-1, rese possibili oltre 5mila progetti scientifici e i dati raccolti in quegli anni sono ancora oggi preziosi per studiare andamenti e variazioni al suolo, negli oceani e nell’atmosfera.
    Lo stretto di Messina ripreso in varie date da ERS-2 (ESA)
    Per questi motivi ERS-1 ed ERS-2 sono considerati «i pionieri europei dell’osservazione della Terra» e le conoscenze accumulate con il loro sviluppo, e il loro utilizzo, ha reso poi possibile la produzione di satelliti di nuova generazione. Nel marzo del 2002 l’Agenzia spaziale europea inviò in orbita Envisat, un satellite che conteneva strumenti sperimentati nel programma ERS e aggiornati con nuove funzionalità. Alcuni dei sensori impiegati su ERS-2 avrebbero poi reso possibile il perfezionamento di strumenti molto importanti per valutare le variazioni nella conformazione del territorio (InSAR), oggi impiegati da Copernicus, l’iniziativa satellitare europea per lo studio della Terra.
    A differenza di ERS-2, ERS-1 smise di rispondere ai comandi prima di poter essere collocato a una quota che garantisse la sua fine nell’atmosfera entro pochi anni. Attualmente il satellite si trova a 700 chilometri di distanza dalla Terra e potrebbe impiegare fino a un secolo prima di raggiungere nuovamente il nostro pianeta.
    Difficilmente oggi si potrebbe verificare un imprevisto di questo tipo, per lo meno con i satelliti sotto la responsabilità dell’ESA. L’Agenzia ha infatti adottato nel 2022 il “Zero Debris Charter”, un trattato che prevede numerosi vincoli nella realizzazione e nella gestione dei satelliti, proprio per ridurre il problema dei rifiuti spaziali. L’ESA si è impegnata a utilizzare satelliti che possano essere manovrati per essere spostati in orbite che ne assicurino la fine nell’atmosfera, dove si potranno polverizzare senza causare problemi. Il trattato prevede inoltre che non passino più di cinque anni dal momento in cui un satellite viene disattivato al momento in cui viene distrutto.
    In quasi 70 anni di attività spaziali, sono stati trasportati in orbita migliaia di satelliti, molti dei quali non sono più funzionanti. Mentre i satelliti più recenti hanno spesso sistemi per modificare la loro orbita quando non servono più, in modo che si disintegrino al loro rientro nell’atmosfera o per essere parcheggiati in orbita a debita distanza dal nostro pianeta, i satelliti più vecchi sono impossibili da controllare dalla Terra e non possono essere smaltiti.
    [embedded content]
    La presenza di così tanti detriti spaziali fa aumentare sensibilmente il rischio di collisioni con satelliti attivi. Incidenti di questo tipo possono portare alla produzione di nuovi detriti, che a loro volta diventano rifiuti spaziali rischiosi per altri satelliti e così via.
    Alla fine degli anni Settanta, il consulente della NASA Donald J. Kessler ipotizzò che un tale effetto domino potesse portare ad avere talmente tanti detriti nell’orbita bassa intorno alla Terra (a una quota tra 300 e 1.000 chilometri) da rendere impossibile l’esplorazione spaziale e l’impiego di nuovi satelliti per generazioni. La “sindrome di Kessler” viene evocata sempre più di frequente come un rischio da esperti e responsabili delle agenzie spaziali, che da anni lavorano alla sperimentazione di sistemi per ridurre la quantità di rifiuti spaziali intorno alla Terra. LEGGI TUTTO

  • in

    Mascherine e depuratori per l’aria proteggono dall’inquinamento?

    Caricamento playerLa pessima qualità dell’aria di questi giorni nella Pianura Padana non ha soluzioni semplici e immediate perché è legata alle condizioni meteorologiche, alla geografia e alla presenza di numerose città, industrie e allevamenti nella regione. Chi si preoccupa dei rischi per la salute legati a questa forma di inquinamento può comunque adottare alcune abitudini come prevenzione: ad esempio usare mascherine per bocca e naso quando sta all’esterno e usare dispositivi per depurare l’aria negli ambienti chiusi.
    L’inquinamento atmosferico è una delle principali cause di malattie cardiovascolari e di un generale accorciamento delle aspettative di vita secondo l’Organizzazione mondiale della sanità (OMS). In particolare l’Agenzia europea per l’ambiente (AEA) ha stimato che nel 2021 almeno 253mila persone siano morte a causa dell’esposizione cronica alle micropolveri, anche note come particolato o PM, e almeno 52mila per l’esposizione cronica al biossido di azoto, un gas prodotto soprattutto dai motori diesel ma anche dagli impianti di riscaldamento e dalle industrie, che è il principale gas inquinante dannoso per la salute.
    Le misure di prevenzione per la salute personale che si possono applicare usando mascherine e depuratori riguardano il particolato. Entrambi questi strumenti infatti funzionano grazie a filtri per l’aria che trattengono le piccole particelle solide o liquide presenti nell’aria: le mascherine sono essenzialmente dei filtri per naso e bocca, mentre i depuratori contengono dei filtri al loro interno attraverso cui viene fatta passare l’aria presente in un ambiente chiuso. Non possono invece far nulla per i gas inquinanti perché le dimensioni delle particelle gassose sono dello stesso ordine di grandezza di quelle dei componenti dell’aria che invece dobbiamo respirare per vivere: una mascherina che li bloccasse sarebbe piuttosto dannosa per la salute.

    – Leggi anche: Ha senso confrontare l’inquinamento di Milano con quello di Delhi?

    Non sono ancora state fatte ricerche scientifiche che dicano qualcosa sugli effetti a lungo termine dell’uso metodico di mascherine per il viso per proteggersi dall’inquinamento dell’aria, dunque non è possibile dire in che misura garantiscano protezione dai rischi per la salute. Tuttavia vari studi hanno dimostrato che le mascherine sono efficaci nel trattenere il particolato, in particolare il PM10, quello composto da particelle di dimensioni maggiori, cioè con un diametro fino a un centesimo di millimetro (10 micrometri).
    Uno studio pubblicato nel 2021 ha riscontrato che praticamente qualsiasi tipo di mascherina per il viso (comprese quelle di cotone) rappresenta una qualche forma di filtro per il particolato. Realizzato da un gruppo di scienziati del Colorado, negli Stati Uniti, per valutare l’utilità delle mascherine più diffuse contro l’inquinamento da incendi boschivi, questo studio dice che però quelle più efficaci sono le N95, le cui caratteristiche corrispondono più o meno a quelle delle FFP2 in uso in Europa. Tali mascherine, secondo le analisi del gruppo di ricerca, proteggono dal particolato urbano tre volte di più rispetto alle mascherine chirurgiche, anche se l’efficacia diminuisce con le particelle di diametro inferiore al micrometro. Bisogna inoltre ricordare che si tratta di dispositivi usa e getta.
    Le mascherine chirurgiche potrebbero essere filtri efficaci se non fosse che non aderiscono bene al viso. Infatti per bloccare davvero il particolato le mascherine non devono lasciare spazi per il passaggio di aria non filtrata. La loro efficacia diminuisce se chi le indossa ha la barba o fa dei movimenti a causa dei quali le mascherine si spostano molto sulla pelle, come quelli che si possono fare mentre si va in bici.
    Un’altra precauzione che si può applicare in giorni di alto inquinamento dell’aria cittadina è evitare di fare attività sportiva all’aperto.
    Per quanto riguarda gli ambienti chiusi, l’inquinamento dell’aria può essere anche maggiore rispetto all’esterno. Negli interni infatti le fonti di sostanze inquinanti sono moltissime: a quelle dell’aria esterna si uniscono le particelle prodotte da esseri umani e animali (l’anidride carbonica che espiriamo, ma anche piccole gocce di saliva di quando tossiamo o starnutiamo, peli, forfora, eccetera), le sostanze rilasciate da processi di combustione come la cottura dei cibi, il riscaldamento, il fumo di sigaretta, incensi, candele e altro, e quelle rilasciate dai prodotti per la pulizia e altri.
    La misura più efficace per ripulire l’aria degli ambienti chiusi, anche se può sembrare controintuitivo in giornate di pessima qualità dell’aria, è aprire le finestre con una certa frequenza. «Almeno 2 o 3 volte al giorno per almeno 5 minuti», aveva spiegato alcuni anni fa al Post Alessandro Miani, presidente della Società Italiana di Medicina Ambientale: «L’apertura delle finestre porta a una dispersione e diluizione delle sostanze concentrate nell’aria delle case anche in giorni in cui l’aria esterna è particolarmente inquinata. Se vivete in città, meglio aprire le finestre che affacciano su vie poco trafficate o su cortili interni, in orari in cui ci sono meno macchine in giro come la sera, la mattina presto o l’ora di pranzo».
    In aggiunta si possono poi utilizzare dei dispositivi per filtrare l’aria spesso usati dalle persone allergiche ai pollini. Questi dispositivi sono efficaci per filtrare il particolato se contengono i cosiddetti filtri HEPA (dall’inglese High Efficiency Particulate Air filter), che spesso sono presenti negli impianti di condizionamento industriale ma non in quelli domestici, e sono in grado di trattenere anche il PM2,5 o “particolato fine”, quello formato da particelle con diametro inferiore a 2,5 micrometri.
    Come per le mascherine, non sono disponibili studi a lungo termine che diano informazioni sui benefici per la salute dell’uso di depuratori con filtri HEPA. Una rassegna delle ricerche fatte fino al 2020 su questi dispositivi ha però concluso che i depuratori riducano effettivamente la concentrazione di PM2,5 nell’aria degli ambienti chiusi e che siano una buona soluzione familiare per proteggersi da fonti di inquinamento esterne, se utilizzati correttamente e ben manutenuti. Si tratta di dispositivi che però costano alcune centinaia di euro. LEGGI TUTTO

  • in

    Il riscaldamento globale bloccherà la corrente del Golfo?

    Caricamento playerL’Irlanda si trova più o meno alla stessa latitudine del Labrador, in Canada, ma ha generalmente temperature più alte grazie a una corrente oceanica che dal Golfo del Messico trasporta acqua relativamente calda verso il Nord Europa. È la corrente del Golfo, uno dei fenomeni naturali che più influenzano il clima della Terra. Da più di cinquant’anni la climatologia ne studia il funzionamento per capire se, e quando, il riscaldamento globale potrebbe bloccarla, e così stravolgere il clima di buona parte del mondo. Ora una ricerca pubblicata sulla rivista Science Advances ha aggiunto vari elementi rilevanti a ciò che sappiamo sull’argomento.
    Il cambiamento climatico e la corrente del Golfo sono legati a causa dello scioglimento dei ghiacci della Groenlandia e degli altri territori dell’Artico, che è dovuto all’aumento delle temperature medie. Più i ghiacci fondono, più cresce la quantità di acqua dolce che finisce nel nord dell’oceano Atlantico. Questo altera le dinamiche delle correnti oceaniche, che sono regolate da differenze di temperatura e salinità dell’acqua, e potrebbe farlo al punto da bloccare la corrente del Golfo. Tuttora non sappiamo quando potrebbe accadere, ma il nuovo studio conferma che il pianeta si sta avvicinando a questa situazione. Dice che ci sono buone probabilità che il processo di blocco della corrente si inneschi in questo secolo e che finora i rischi associati siano stati sottovalutati.
    Insieme ai venti, le correnti oceaniche si possono considerare un motore del clima, o più precisamente una “pompa di calore” che lo regola, perché trasportano aria e acqua calda verso i Poli e aria e acqua fredda verso l’Equatore. Tutte le correnti oceaniche, così come i venti del pianeta, sono collegate tra loro e fanno parte di un unico sistema. La comunità scientifica si riferisce alla parte del sistema che riguarda l’oceano Atlantico con la sigla AMOC, acronimo dell’espressione inglese Atlantic Meridional Overturning Circulation, in italiano “capovolgimento meridionale della circolazione atlantica”. La corrente del Golfo è un pezzo dell’AMOC.
    Le correnti, cioè il movimento delle masse d’acqua oceaniche, sono causate dalle differenze di temperatura e salinità dell’acqua stessa che si creano negli oceani. Temperatura e salinità determinano la densità dell’acqua (più l’acqua è calda meno è densa, più è salata più è densa) e masse d’acqua di densità diverse si muovono le une in relazione alle altre proprio in base alla differenza di densità. L’acqua meno densa tende a salire verso l’alto, mentre l’acqua più densa tende a scendere in profondità (allo stesso modo l’olio in un bicchier d’acqua galleggia perché è meno denso dell’acqua). Le correnti possono essere di superficie o di profondità a seconda della densità dell’acqua in movimento.
    Nelle zone equatoriali fa più caldo quindi l’acqua si scalda e al tempo stesso evapora di più, ragion per cui la concentrazione di sale è maggiore. Dal Golfo del Messico, dove l’acqua raggiunge una temperatura attorno ai 30 °C, una massa d’acqua calda e salata viene spinta dalla rotazione della Terra e dai venti verso l’Europa. Avvicinandosi al Polo Nord questa massa d’acqua si raffredda gradualmente e di conseguenza diventa più densa. Inoltre, risulta ancora più densa dell’acqua circostante, perché provenendo dalla zona equatoriale è più salata. Tra Groenlandia, Norvegia e Islanda la differenza di densità tra l’acqua della corrente del Golfo e quella che la circonda crea degli enormi flussi d’acqua verticali, delle specie di gigantesche cascate sottomarine chiamate “camini oceanici”, che spingono l’acqua proveniente da sud-ovest in profondità.
    L’AMOC è spesso paragonata a un nastro trasportatore perché il flusso d’acqua fredda verso le profondità oceaniche e da lì verso sud, dunque in senso opposto alla corrente del Golfo, è fondamentale per mantenere attivo tutto il meccanismo. Il riscaldamento globale potrebbe incepparlo proprio perché rischia di disturbare questa parte dell’AMOC.
    Rappresentazione schematica semplificata del sistema delle correnti oceaniche della Terra, detto “circolazione termoalina”, cioè regolata dalla temperatura e dalla salinità dell’acqua; dove il flusso è rappresentato in viola le correnti sono in profondità, dove è rappresentato in blu sono in superficie. L’AMOC è il sistema di correnti nella parte più a sinistra dell’immagine (Wikipedia Commons)
    L’AMOC è la ragione principale per cui a Parigi le temperature medie generalmente variano tra 26 e 3 °C nel corso dell’anno, mentre a Montreal, la cui latitudine si trova circa 400 chilometri più a sud della capitale francese, variano tra 26 e -12 °C. Se non ci fosse l’AMOC gran parte della superficie del mare di Norvegia sarebbe ghiacciata nei mesi invernali, e molte regioni d’Europa avrebbero inverni più simili a quelli del Canada e del nord degli Stati Uniti, che sono più rigidi pur trovandosi alla stessa latitudine.
    A partire dagli anni Sessanta, con gli studi dell’oceanografo statunitense Henry Stommel, si iniziò a ipotizzare che un aumento eccessivo della quantità d’acqua dolce proveniente dai fiumi e dai ghiacciai del Nord America e della Groenlandia avrebbe potuto bloccare l’AMOC. Il motivo è che l’acqua proveniente dai continenti diluisce quella salata degli oceani. Nel caso specifico dell’Atlantico settentrionale, le acque continentali diluiscono quelle della corrente del Golfo: l’ipotesi sul blocco dell’AMOC è che se dovessero farlo in modo eccessivo, diminuirebbe quella differenza di densità che crea i camini oceanici e che spinge l’acqua calda dal Golfo del Messico al nord Europa.
    Questa ipotesi prevede anche che ci sia quello che in inglese è chiamato tipping point, letteralmente “punto estremo”, cioè una soglia critica oltre la quale un sistema viene stravolto, spesso in modo brusco, o irreversibile, o entrambe le cose. In italiano questa espressione è tradotta di frequente con “punto di non ritorno”, che però non è la stessa cosa perché contiene necessariamente l’irreversibilità.
    Nel caso dell’AMOC, si ipotizza che – una volta che il flusso di acqua dolce nel Nord Atlantico abbia raggiunto un certo tipping point – si ottenga un rapido blocco della corrente del Golfo. Sappiamo che in passato è già successo, durante le ere glaciali. L’ultima volta accadde 12mila anni fa: il conseguente periodo di raffreddamento dell’Europa, che portò a diminuzioni della temperatura media di 5 °C in alcune zone, è chiamato “Dryas recente”. Lo studio pubblicato la scorsa settimana ha confermato con maggiore precisione rispetto al passato che il tipping point legato all’aumento della fusione dei ghiacci artici esiste e che il riscaldamento globale causato dalle attività umane potrebbe davvero fermare la corrente che rende il clima dell’Europa quello che è.
    Questo risultato è basato su una complessa simulazione che ha preso in considerazione uno scenario di 4.400 anni e non tiene conto solo delle correnti ma anche delle condizioni dell’atmosfera: per farla eseguire sono serviti 6 mesi di calcoli nel più grande centro computazionale dei Paesi Bassi. Lo studio è stato fatto da René M. van Westen, Michael Kliphuis e Henk A. Dijkstra, tre scienziati dell’Istituto per la ricerca marina e atmosferica dell’Università di Utrecht, uno degli enti scientifici più autorevoli per le analisi sull’AMOC.
    Lo studio conferma anche che le condizioni dell’oceano Atlantico si stanno avvicinando a quelle del tipping point (varie ricerche degli ultimi vent’anni avevano già osservato un rallentamento della corrente del Golfo) e propone come si potrebbe fare a capire con un certo anticipo quando ci saremo pericolosamente vicini, cioè con una misurazione del trasporto di acqua dolce da parte dell’AMOC. Lo studio però non dice quando potremmo raggiungere la condizione che porterebbe al blocco della corrente, che nelle parole dell’oceanografo e climatologo Stefan Rahmstorf, professore di Fisica degli oceani all’Università di Potsdam, resta «la domanda da un miliardo di dollari».
    Van Westen, Kliphuis e Dijkstra si sono limitati a dire che una previsione proposta l’anno scorso, secondo cui il tipping point sarà raggiunto tra il 2025 e il 2095, «potrebbe essere accurata».
    Secondo Rahmstorf, che ha commentato lo studio olandese in un intervento tradotto in italiano sul blog Climalteranti, questa ricerca «conferma le preoccupazioni del passato secondo cui i modelli climatici sovrastimano sistematicamente la stabilità dell’AMOC». Lo scienziato ritiene che l’Intergovernmental Panel on Climate Change (IPCC) dell’ONU, il principale organismo scientifico internazionale per la valutazione dei cambiamenti climatici, abbia finora sottovalutato i rischi di un blocco della corrente del Golfo perché i suoi rapporti sono basati su studi non sufficientemente precisi.
    Lo studio di van Westen, Kliphuis e Dijkstra contiene anche qualche ipotesi sulle conseguenze del blocco dell’AMOC sul clima europeo, che però non tengono conto degli altri effetti del riscaldamento globale. Dicono che l’Europa settentrionale, e in particolare la Scandinavia, la Gran Bretagna e l’Irlanda, subirebbero una grossa diminuzione delle temperature medie invernali, tra i 10 e i 30 °C nel giro di un secolo, con cambiamenti di 5 °C a decennio, cioè molto più veloci del riscaldamento attualmente in corso. Al tempo stesso ci sarebbero grandi variazioni nel livello del mare e nelle precipitazioni delle regioni tropicali, in particolare in Amazzonia, dove una prateria potrebbe prendere il posto della foresta pluviale.
    Dato che la simulazione non tiene conto degli altri effetti del cambiamento climatico in corso questo scenario non può essere considerato del tutto verosimile. In ogni caso, un cambiamento anche di pochi gradi nelle temperature medie se avvenisse nel giro di un secolo, che è un tempo molto breve per la storia del pianeta, avrebbe grossi impatti sul clima e su tutto ciò che ne dipende, compresa la vita di piante e animali, umani inclusi. «Dati gli impatti, il rischio di un collasso dell’AMOC è qualcosa da evitare a tutti i costi», ha detto sempre Rahmstorf:
    Il problema non è se siamo sicuri che questo accadrà. Il problema è che avremmo bisogno di escluderlo con una probabilità del 99,9%. Una volta che avremo un segnale di avvertimento inequivocabile e definitivo, sarà troppo tardi per fare qualcosa al riguardo, data l’inerzia del sistema. LEGGI TUTTO

  • in

    Le categorie per classificare gli uragani non bastano più?

    Caricamento playerDagli anni Settanta gli uragani che suscitano maggiori preoccupazioni quando si avvicinano alle coste dell’America del Nord sono quelli «di categoria 5». Questa descrizione fa riferimento alla scala Saffir-Simpson, un sistema di classificazione per le tempeste tropicali più forti che si formano nel nord dell’oceano Atlantico o nel nord-est dell’oceano Pacifico basata sulla misura della velocità dei venti. Rientrano nella categoria 1, quella associata a danni limitati, le tempeste con venti di velocità compresa tra 119 e 153 chilometri orari. La categoria 5 invece è quella degli uragani i cui venti superano i 252 chilometri orari, ed è associata a danni «catastrofici».
    La scala non contempla una velocità massima oltre la quale non si può più parlare di categoria 5, perché già con venti di 252 chilometri orari si possono avere danni gravissimi. Tuttavia secondo due scienziati statunitensi potrebbe esserci una buona ragione per aggiungere una “categoria 6” alla scala o almeno discutere l’idea. In un articolo pubblicato la settimana scorsa sull’autorevole rivista Proceedings of the National Academy of Sciences Michael Wehner e James Kossin lo hanno proposto perché il cambiamento climatico sta causando un aumento della frequenza delle tempeste tropicali più intense. Secondo loro distinguerle dalle altre aiuterebbe a far conoscere questo problema ed eviterebbe di sottostimare i rischi per la sicurezza di infrastrutture e persone.
    La “categoria 6” ipotizzata da Wehner e Kossin comprenderebbe le tempeste tropicali con venti di velocità superiore a 309 chilometri orari. Dal 2013 a oggi ce ne sono state cinque, un uragano e quattro tifoni, come sono chiamati gli uragani del nord-ovest del Pacifico, a cui sono esposte le coste del sud-est asiatico: il tifone Haiyan, che nel novembre del 2013 uccise migliaia di persone nelle Filippine; l’uragano Patricia, che ha riguardò l’ovest del Messico nell’ottobre del 2015 e i cui venti arrivarono a 346 chilometri orari di velocità; il tifone Meranti del 2016, il tifone Goni del 2020 e il tifone Surigae del 2021.

    – Leggi anche: Che differenza c’è tra uragani e tifoni

    In generale la frequenza delle tempeste tropicali più intense è aumentata. Se si considerano i 42 anni tra il 1980 e il 2021, quelli per cui si hanno dati affidabili, le tempeste tropicali classificabili come di categoria 5 sono state 197: la metà è stata registrata negli ultimi 17 anni del periodo e i cinque più forti, già citati, sono avvenuti tutti negli ultimi nove anni.
    Questo fenomeno è legato all’aumento della temperatura degli oceani, che si stanno scaldando a livello globale come l’atmosfera, anche se più lentamente: semplificando, tanto più sono caldi gli strati superficiali dell’acqua, maggiore è l’energia che può generare precipitazioni particolarmente intense. E secondo le stime di Wehner e Kossin nello scenario in cui la temperatura media globale aumenterà di 2 °C rispetto ai livelli preindustriali il rischio tempeste “di categoria 6” raddoppierà.
    Non è la prima volta che degli scienziati mettono in discussione la scala Saffir-Simpson, che ha vari limiti e peraltro è usata solo in Nord America e non in Asia, dove si verificano tifoni e cicloni. Il suo difetto principale è che è basata unicamente sulla velocità del vento, e non sulla forza delle onde che si abbattono sulle coste all’arrivo di una tempesta e delle inondazioni che può causare, sebbene la maggior parte dei danni dovuti agli uragani sia causata proprio dall’acqua e non dall’aria.
    Tuttavia già in passato e anche in questa occasione alcuni scienziati si sono detti contrari all’ampliamento della scala con una “categoria 6”. Michael Fischer del laboratorio oceanografico e meteorologico dell’Atlantico della National Oceanic and Atmospheric Administration (NOAA), l’agenzia statunitense che si occupa degli studi meteorologici e oceanici, ha detto al Washington Post che potrebbe essere controproducente perché potrebbe far sottostimare gli uragani di categoria 5.
    Le agenzie statali statunitensi che si occupano di meteorologia e dei rischi legati agli uragani in ogni caso non hanno in programma di modificare l’uso della scala Saffir-Simpson al momento. Già oggi in realtà le associano delle previsioni sulle inondazioni, che però sono meno note, soprattutto dove solitamente non arrivano uragani. Deirdre Byrne, un’oceanografa della NOAA, si è espressa abbastanza positivamente sulla proposta di una “categoria 6” («non sarebbe inappropriata») ma ha detto che forse sarebbe più utile associare la scala Saffir-Simpson a un sistema simili che classifichi i rischi legati alle alluvioni, ad esempio con una scala da A a E.
    Gli stessi Kossin e Wehner hanno detto che per decidere se estendere la scala esistente bisognerebbe prima commissionare una ricerca sociologica per verificare come modificherebbe la percezione del rischio delle persone. LEGGI TUTTO

  • in

    La scoperta di quattro nuove colonie di pinguini imperatori è una piccola buona notizia

    Attraverso alcune osservazioni satellitari sono state identificate quattro nuove colonie di pinguini imperatori in Antartide. È considerata una buona notizia, visto che recentemente alcune analisi avevano segnalato la scomparsa di numerosi individui di questi animali a causa della fusione dei ghiacci dovuta alle temperature anomale, sia nell’inverno sia nell’estate antartiche.La scoperta è stata resa possibile grazie all’osservazione dallo Spazio delle feci (guano) prodotte dai pinguini, che ricoprendo la superficie ghiacciata ne fanno variare il colore rendendo rilevabile in maniera indiretta la presenza delle colonie nelle immagini satellitari. La tecnica viene utilizzata da diversi anni e si è rivelata fondamentale per tenere sotto controllo le popolazioni di questi animali.
    L’identificazione delle nuove colonie è stata raccontata dal ricercatore Peter Fretwell sulla rivista scientifica Antarctic Science. Lo studio segnala che grazie alla nuova scoperta si può stimare la presenza di almeno 66 colonie di pinguini imperatori in Antartide, con le quattro da poco scoperte che riempiono alcuni spazi vuoti intorno alla costa antartica dove finora non era nota la presenza di questi animali.
    I pinguini imperatori vivono per lo più lungo le zone costiere sul ghiaccio fisso, cioè la parte di ghiaccio marino (banchisa) attaccata alla costa, che come suggerisce il nome rimane stabile nella medesima posizione senza muoversi a causa delle correnti marine o dei venti. Si riproducono sul ghiaccio fisso e depongono le uova tra maggio e giugno; i piccoli nascono un paio di mesi dopo, ma non sono autonomi fino a dicembre-gennaio. Il pinguino imperatore è la specie di pinguino più grande ma meno presente in Antartide, con una popolazione stimata di circa 600mila individui.
    Le quattro nuove colonie (rosso) identificate dallo studio, nel contesto delle colonie già note (grigio) lungo la costa antartica (British Antarctic Survey)
    Negli ultimi anni erano stati segnalati molti problemi legati ad alcune colonie di pinguini imperatori, che si erano fortemente ridotte o erano proprio scomparse. Uno studio pubblicato nel 2022 aveva per esempio segnalato che, a causa della riduzione del ghiaccio marino, in almeno quattro colonie erano morti migliaia di pinguini imperatori appena nati, con gravi conseguenze sulla loro popolazione. Nel nuovo studio, Fretwell ipotizza cha una delle quattro colonie ora identificate possa essere il frutto del trasferimento di animali da una delle colonie che si credevano perse.
    La ricerca segnala che tre delle quattro nuove colonie hanno meno di un migliaio di individui, quindi la scoperta non incide più di tanto sulle stime complessive sulla presenza dei pinguini imperatori. La novità è però importante perché dà la possibilità di avere un censimento più accurato delle colonie che costellano la costa antartica, anche in vista di futuri studi per calcolare meglio la presenza di questi animali e soprattutto la variazione nelle dimensioni delle colonie nel corso del tempo.
    Le frecce indicano le aree ricoperte dal guano dove sono state identificate le quattro nuove colonie (British Antarctic Survey)
    A causa del cambiamento climatico il ghiaccio marino in Antartide è meno presente rispetto a un tempo. Negli ultimi due anni, per esempio, si è registrata la copertura più scarsa di ghiaccio da quando si è iniziato a tenerla sotto controllo dalla fine degli anni Ottanta. Si stima che almeno un terzo delle colonie di pinguini imperatori abbia avuto qualche conseguenza, soprattutto in termini di riduzione della popolazione, da quando la perdita di ghiaccio è diventata più significativa. LEGGI TUTTO

  • in

    Le foto della lava che si sta raffreddando, in Islanda

    La seconda eruzione vulcanica di Grindavík, in Islanda, si sta esaurendo, secondo le analisi dell’Agenzia meteorologica islandese. Questa mattina l’esperta di disastri naturali dell’ente Elísabet Pálmadóttir ha detto alla RÚV, la principale rete televisiva del paese, che anche dalla fessura più settentrionale che si era aperta domenica, quella più ampia, si è interrotto il flusso della lava poco dopo l’una di oggi. Nella notte sono stati registrati più di 160 piccoli terremoti dovuti al movimento del magma sotto terra e anche per questo non si può ancora dire che l’eruzione sia finita: c’è ancora la possibilità che si aprano altre fessure nelle prossime ore e per questo attualmente gli abitanti della cittadina non possono tornare nelle proprie abitazioni. LEGGI TUTTO

  • in

    La nuova vita delle foglie morte

    In questo periodo dell’anno nel nostro emisfero le chiome di miliardi di alberi si tingono di rosso, arancione e giallo, il segno più evidente dell’arrivo della stagione fredda. Man mano che si riducono le ore di luce giornaliere e si abbassano le temperature, le piante caducifoglie rallentano il loro metabolismo e fanno cadere a terra le foglie, che nel corso della stagione calda sono state essenziali per la fotosintesi. Una quantità gigantesca di foglie decidue ricopre quindi il sottobosco, i prati, i campi, i parchi cittadini, ma anche le strade e i marciapiedi, causando qualche disagio ma anche grandissime opportunità talvolta sottovalutate.Soprattutto le persone che vivono in città tendono a vedere le foglie secche a terra come un fastidio e un pericolo nei giorni di pioggia, quando rendono scivolosi i marciapiedi. La loro mancata rimozione è spesso fonte di lamentele e polemiche contro le amministrazioni comunali, accusate di tanto in tanto di non intervenire con tempestività per fare pulizia. Nelle città più grandi, ripulire strade e piazze richiede uno sforzo non indifferente: solo a Milano l’azienda per la raccolta dei rifiuti (AMSA) stima di raccogliere in media 450 tonnellate di foglie alla settimana nel periodo autunnale; corrispondono a un volume notevole, considerato quanto poco pesano le foglie in rapporto allo spazio che occupano.Le foglie secche vengono poi smaltite in vario modo a seconda di come sono organizzati i comuni. In alcuni casi vengono incenerite insieme agli altri rifiuti, in altri smaltite con l’umido oppure riutilizzate per altri scopi, compresi quelli di rigenerazione del suolo. Oltre alle questioni di sicurezza per chi cammina sui marciapiedi o va in bicicletta, le foglie secche su asfalto e cemento vengono di preferenza rimosse perché durano a lungo e nel caso di prolungati periodi senza pioggia si rompono in pezzi sempre più piccoli, producendo polveri che possono contribuire al peggioramento della qualità dell’aria.Le pratiche di rimozione variano moltissimo a seconda delle città, ma in generale interessano soprattutto le foglie cadute sulle aree ricoperte da cemento e asfalto, mentre riguardano in misura minore le zone verdi come quelle dei parchi cittadini. Le foglie secche a contatto diretto con il terreno sono infatti un’ottima risorsa per rigenerare il suolo, arricchendolo di minerali e altre sostanze utili per la crescita delle piante e per la vita di microrganismi, funghi, insetti, uccelli e altri animali di piccola taglia. Per questo viene consigliato di non raccogliere e bruciare le foglie secche, ma di lasciarle dove sono sul terreno o di riutilizzarle in altro modo, per esempio per produrre il compost che potrà poi essere impiegato come fertilizzante.(Spencer Platt/Getty Images)Nel caso di foglie decidue di piccole dimensioni che si depositano su un prato, come quello di un parco pubblico o del giardino di casa, il consiglio è di non fare sostanzialmente nulla. Complice la pioggia, le foglie marciscono e si decompongono durante la stagione fredda, aggiungendo nutrienti al suolo. Nel caso di grandi quantità o di foglie di maggiori dimensioni, c’è il rischio che il prato o piante di piccole dimensioni restino completamente coperti non ricevendo luce e ossigeno a sufficienza, con un conseguente “soffocamento”. In queste condizioni può rendersi necessaria la rimozione delle foglie, che possono però essere trasferite in altre aree del prato o in aiuole dove sono coltivate piante più grandi e vigorose, meno esposte al rischio di soffocamento.Non sempre le foglie che cadono al suolo sono però sane. Un albero malato, per esempio a causa di alcuni parassiti, può contaminare altre piante più piccole. È quindi importante verificare sempre la salute degli alberi caducifogli per decidere se lasciare o meno in terra le foglie che hanno perso. Dovrebbero essere raccolte separatamente, in modo da non utilizzarle per fare il compost dove alcuni parassiti potrebbero proliferare più facilmente, complice l’umidità e il calore che si sviluppa con la decomposizione.(AP Photo/Matthias Schrader)Le foglie secche possono essere utilizzate inoltre per la pacciamatura, il processo con cui si ricopre una porzione di terreno con materiali vegetali (e non solo) di vario tipo, per proteggerlo dall’erosione e mantenerlo più fertile. È un’attività che viene svolta in ambito agricolo, ma anche per il giardinaggio e in misura più contenuta nei parchi urbani. Si utilizzano frammenti di corteccia, aghi di pino, paglia e all’occorrenza anche le foglie secche. Di solito vengono triturate direttamente sul prato, per esempio utilizzando un tagliaerba regolato in modo che lasci il materiale triturato dove si trova invece di raccoglierlo in un contenitore.I prati sottoposti a questi trattamenti nei parchi urbani e nei giardini appaiono molto diversi dall’immaginario collettivo in cui sono sempre verdi, ma non significa che siano meno curati. La presenza delle foglie non è un indicatore della trascuratezza di un prato e ricorda che anche un giardino costituisce un ecosistema, con molte specie diverse che lo popolano e che variano a seconda delle stagioni. C’è un tempo in cui un prato è verde e fiorito e un altro in cui riposa e si rigenera, sotto a uno strato di foglie. LEGGI TUTTO

  • in

    Allevare i tonni rossi sulla terraferma è meglio o peggio che pescarli?

    Caricamento playerLo scorso luglio l’Istituto spagnolo di oceanografia (IEO) ha annunciato di essere riuscito, per la prima volta a livello mondiale, a far riprodurre dei tonni rossi in cattività in un impianto di acquacoltura sulla terraferma. Questo successo del centro di ricerca ha subito suscitato l’interesse di alcune aziende che si stanno organizzando per aprire i primi grandi allevamenti terrestri di tonno rosso con la collaborazione dello IEO.La carne del tonno rosso infatti è molto richiesta, ma la pesca e l’allevamento in mare di questo pesce hanno grandi impatti ambientali: la possibilità di allevarlo “a terra” potrebbe rendere il settore più sostenibile. Però c’è anche chi pensa che acquacolture di questo genere potrebbero risultare più dannose rispetto ai metodi attuali, anche per il benessere dei tonni, che da adulti possono superare i due metri di lunghezza e alcune centinaia di chili di peso e, in natura, si spostano per migliaia di chilometri nell’oceano.Il tonno rosso è una delle varie specie di tonni che ci sono al mondo e vive nell’oceano Atlantico e nel mar Mediterraneo: il suo nome scientifico è Thunnus thynnus ed è detto anche “tonno pinna blu”. Non è una delle specie di tonno le cui carni sono vendute in scatolette (quelle sono il tonnetto striato, il tonno pinna gialla e il tonno obeso, economicamente meno costose e considerate meno pregiate), ma è una delle tre con cui si fanno il sushi e il sashimi di tonno. Le altre sono il tonno del Pacifico (Thunnus orientalis), che come suggerisce il nome vive nell’oceano Pacifico, e il tonno australe (Thunnus maccoyii), che vive in una fascia molto meridionale degli oceani del mondo, quasi fino ai limiti dell’oceano Antartico: esteriormente queste due specie sono praticamente indistinguibili dal tonno rosso e hanno a loro volta la carne di colore rosso.La maggior parte dei tonni rossi delle tre specie che viene consumata nel mondo è pescata, anche se negli ultimi anni si è diffusa una forma di allevamento basata sulla tecnica dell’ingrasso: si catturano giovani tonni liberi e li si fa crescere all’interno di grandi reti in mare fino a quando non raggiungono la taglia adatta per essere venduti sul mercato. Dal 2015 poi a questa forma di acquacoltura se ne è aggiunta una seconda, per ora minoritaria. In quell’anno l’azienda giapponese Maruha Nichiro ha venduto i primi tonni del Pacifico che ha allevato a partire dalla nascita, prima in strutture di acquacoltura sulla terra e poi all’interno di reti in mare: è stato possibile far riprodurre i pesci in cattività mettendo una certa quantità di ormoni nelle vasche in cui nuotavano gli individui adulti, che così sono stati spinti a produrre e fertilizzare uova.L’Istituto spagnolo di oceanografia è il primo ente che è riuscito a fare la stessa cosa anche con i Thunnus thynnus, i tonni rossi dell’Atlantico e del Mediterraneo, e due aziende europee, la tedesca Next Tuna e la norvegese Nortuna, stanno lavorando per creare acquacolture di tonni di scala con i suoi metodi. Next Tuna vuole realizzare un impianto vicino a Valencia, in Spagna, mentre Nortuna a Capo Verde, in Africa occidentale.Anche se per ora questo tipo di acquacoltura è agli inizi, ha attirato molto interesse perché il modo in cui è praticata la pesca dei tonni è considerato poco sostenibile per la conservazione delle specie.Il Giappone è il più grande importatore di tutte e tre le specie di tonni rossi e il principale consumatore al mondo, seguito dagli Stati Uniti, dove si stima si mangi tra l’8 e il 10 per cento del sashimi del mondo. Negli ultimi decenni del Novecento la grande domanda di Giappone e Stati Uniti ha notevolmente ridotto la quantità di tonni rossi delle tre specie, anche se poi le restrizioni alla loro pesca introdotte intorno al 2010 hanno migliorato la situazione. Secondo le stime dell’Unione Internazionale per la Conservazione della Natura (IUCN), l’ente riconosciuto dall’ONU che valuta quali specie animali e vegetali rischiano l’estinzione, il tonno australe è tuttora a rischio di estinzione e il tonno del Pacifico è minacciato.Invece il tonno rosso (quello che vive nell’Atlantico e nel Mediterraneo) non è più considerato minacciato, perché sebbene tra il 1966 e il 2018 la popolazione dell’Atlantico occidentale sia diminuita dell’83 per cento per l’eccesso di pesca, si stima che i tonni rossi dell’Atlantico orientale, la cui popolazione è molto maggioritaria considerando la specie nel complesso, siano diventati più numerosi dagli anni Sessanta a oggi. Le preoccupazioni sulla sostenibilità della pesca comunque rimangono, per via del calo della popolazione occidentale.Per le aziende che si occupano di acquacoltura dei tonni rossi o sono interessate a praticarla, l’uso delle tecniche che consentono la riproduzione dei pesci in cattività ridurrebbe la pressione sulle popolazioni selvatiche e per questo dovrebbe essere favorito. Tenere i tonni in età da riproduzione in vasche sulla terraferma significa poter regolare sia la temperatura dell’acqua che l’illuminazione. In questo modo, secondo chi sta lavorando ai progetti di acquacoltura, si potrà allungare il periodo dell’anno in cui i tonni rossi si possono riprodurre. In natura lo fanno per circa 45 giorni tra giugno e luglio: se negli allevamenti lo faranno per più tempo si otterranno popolazioni in cattività più numerose di quelle che si fanno ingrassare dopo aver catturato giovani tonni in mare.Tuttavia alcuni scienziati hanno espresso delle preoccupazioni riguardo alla nuova forma di allevamento, che riguardano sia il benessere degli animali sia gli impatti ambientali del settore che si potrebbe sviluppare.Per quanto riguarda direttamente i tonni, l’ong spagnola per i diritti degli animali Observatorio de Bienestar Animal ritiene che anche vasche molto grandi e spaziose non siano un ambiente adatto per i bisogni di una specie migratoria come i tonni rossi, che si spostano per migliaia di chilometri per cercare cibo e riprodursi.In un articolo pubblicato su The Conversation Wasseem Emam, ricercatore dell’Istituto di acquacoltura dell’Università di Stirling, ha spiegato che è difficile giudicare l’esperienza di vita dei tonni nelle vasche perché le aziende che le hanno non diffondono troppe informazioni in merito. Ma «generalmente le specie di pesci non domesticate sperimentano forme maggiori di stress in cattività e quando sono gestite da personale umano rispetto alle specie che si sono adattate all’allevamento nel tempo». Emam cita anche alcuni studi secondo cui i pesci possono essere stressati dal rumore e da certe vibrazioni, che sono probabilmente presenti all’interno di impianti di allevamento a terra. Però sarebbe nell’interesse degli allevatori evitare questo tipo di stress perché si sa che la carne dei pesci stressati ha una qualità minore. In particolare è noto che se prima di essere uccisi i tonni rossi provano a scappare, il loro corpo produce grandi quantità di acido lattico che peggiora il gusto della loro carne.Alle preoccupazioni sul benessere dei tonni si aggiungono poi quelle sull’impatto ambientale e la sostenibilità di eventuali grandi allevamenti a terra. La prima è legata all’alimentazione dei tonni in cattività: attualmente i tonni rossi all’ingrasso sono nutriti in grandissima parte con specie ittiche che potrebbero essere usate anche nell’alimentazione umana e in Giappone per produrre 1 chilogrammo di carne di tonno del Pacifico allevato servono tra i 2,5 e i 3,5 chili di altri pesci. Significa anche che per allevare i tonni a terra in grande quantità bisognerebbe aumentare la pesca di altre specie.Maruha Nichiro sta facendo delle ricerche per migliorare l’efficienza nell’alimentazione dei tonni in cattività. Il presidente di Nortuna Anders Attramadal ha invece sminuito questo problema parlando con il Guardian perché sostiene che i tonni allevati a terra mangino meno di quelli in mare; Andrew Eckhardt di Next Tuna invece ha detto che la sua azienda cercherà di ridurre la quantità di pesce necessaria a nutrire i tonni creando mangimi a base di altri ingredienti, come proteine vegetali, alghe e insetti.Altre preoccupazioni riguardano l’uso di antibiotici che sarà richiesto negli allevamenti per evitare la diffusione di malattie (molto alto in tutti i generi di allevamenti di animali su scala industriale) e l’inquinamento delle acque legato agli scarichi degli impianti di acquacoltura. Next Tuna dice di non voler usare antibiotici, e Nortuna dice che ne farà un uso minimo. Riguardo all’inquinamento delle acque, la prima azienda progetta un sistema per prelevare acqua marina che poi però non sarà riscaricata in mare. Per il momento non si conoscono i dettagli né dell’impianto di Next Tuna né di quello di Nortuna. Con i tonni del Pacifico Maruha Nichiro ha un approccio diverso, perché una volta che i pesci hanno raggiunto una certa dimensione nelle vasche a terra li sposta all’interno di reti in mare. LEGGI TUTTO