More stories

  • in

    È stata trovata una nuova sottospecie di Xylella in provincia di Bari

    Caricamento playerA Triggiano, in provincia di Bari, è stata trovata una nuova sottospecie del batterio Xylella fastidiosa, quello che negli ultimi anni ha causato la morte e l’abbattimento di milioni di ulivi. La nuova specie è stata trovata su sei mandorli. Donato Pentassuglia, assessore all’Agricoltura della Puglia, ha detto all’agenzia di stampa ANSA che gli alberi su cui il batterio è stato trovato saranno abbattuti e verranno fatte analisi sulle piante presenti in un’area di 800 metri di raggio intorno. Il nome della sottospecie individuata sui mandorli è Xylella fastidiosa fastidiosa, mentre la sottospecie già ben nota è la Xylella fastidiosa pauca.
    La Xylella è la causa del “disseccamento rapido”, una malattia che se colpisce gli ulivi li porta a non produrre più olive e a morire in poco tempo. Si trasmette da un albero all’altro grazie ad alcuni insetti vettori, e principalmente attraverso il Philaenus spumarius, noto con il nome comune di “sputacchina”. È stato ricostruito che il batterio arrivò in Salento, nel sud della Puglia, nel 2008, trasportato da una pianta di caffè proveniente dal Costa Rica. Della sua presenza ci accorgemmo solo nel 2013, quando in Salento molti ulivi cominciarono a morire per il disseccamento rapido, per cui non esiste una cura. Da allora il batterio ha continuato a diffondersi verso nord e negli ultimi due anni è arrivato in provincia di Bari.
    Da anni la Regione Puglia contrasta la diffusione del batterio facendo ripetuti controlli su ampie aree di territorio agricolo. Il Piano d’azione per contrastare la diffusione di Xylella fastidiosa in Puglia 2023-2024 prevede zone dette “cuscinetto” e “di contenimento” a nord delle zone infette in cui vengono fatte analisi a campione sugli insetti vettori e, se è confermata la presenza della Xylella, su piante della zona. È stato così che è stato trovato il batterio nei mandorli, dopo una raccolta di campioni fatta a gennaio.

    Dall’inizio dell’anno le operazioni di monitoraggio hanno già interessato 2.614 ettari di terreno, cioè circa 26 chilometri quadrati; le piante ispezionate sono state più di 17mila. Tra gennaio e febbraio gli abbattimenti sono stati 237, ma finora nessuno ha riguardato piante infette: sono state abbattute anche quelle valutate a rischio per contenere la diffusione del batterio.
    «Non dobbiamo creare allarmismi», ha detto Pentassuglia, «ma nemmeno abbassare la guardia». L’assessore ha poi aggiunto che non si sa ancora se la sottospecie di Xylella sia più o meno dannosa per gli ulivi o altre piante, ma ha ricordato che la sputacchina si nutre anche della linfa della vite, un’altra pianta fondamentale per l’economia agricola non solo pugliese, e anche per questo bisogna continuare a fare attenzione alla diffusione del batterio. LEGGI TUTTO

  • in

    Uno storico satellite sta precipitando verso la Terra, ma non c’è da preoccuparsi

    Caricamento playerIl satellite ERS-2, grande più o meno quanto un minibus, sta precipitando verso la Terra. Ma non c’è da preoccuparsi: il suo rientro incontrollato nell’atmosfera avverrà nella serata di oggi e buona parte del satellite si disintegrerà ad altissima quota, con solo qualche possibilità che alcuni frammenti raggiungano il suolo.
    Non è la prima volta che succede, ma l’evento è a suo modo storico perché segna la fine dei uno dei primi satelliti europei per lo studio del clima lanciato a metà degli anni Novanta, con tecnologie all’epoca ancora poco utilizzate in orbita e che ora fanno parte di molti satelliti per l’osservazione del suolo, degli oceani e delle caratteristiche dell’atmosfera.
    Il satellite era stato sviluppato grazie a una collaborazione gestita dall’Agenzia spaziale europea (ESA) nell’ambito del programma European Remote Sensing (ERS) per lo studio della Terra all’inizio degli anni Novanta. L’ESA aveva inviato in orbita ERS-1 nel 1991 e quattro anni dopo aveva lanciato ERS-2, il satellite che ora sta tornando verso il nostro pianeta.
    La missione scientifica di ERS-2 era durata fino al 2011: anche se dopo 16 anni il satellite era ancora funzionante, l’ESA aveva deciso di fermarne le attività e di farlo distruggere nell’atmosfera, in modo da ridurre la presenza dei rifiuti spaziali in orbita, un problema sempre più sentito e con notevoli rischi per il funzionamento delle altre migliaia di satelliti che girano intorno alla Terra.
    Dopo aver fatto alcune manovre, il satellite era stato portato dai 780 chilometri dove effettuava buona parte delle proprie rilevazioni a 573 chilometri di altitudine e disattivato, in modo che lentamente perdesse quota fino a compiere un ingresso nell’atmosfera in una quindicina di anni. La previsione era abbastanza accurata e ora ERS-2 sta perdendo quota più velocemente e secondo le previsioni terminerà il proprio viaggio nella serata di mercoledì.
    Il satellite ERS-2 nelle fasi di preparazione prima del lancio (ESA)
    Non è però semplice stabilire con certezza su quale porzione del pianeta avverrà la distruzione, perché molto dipende dalla velocità del rientro e dalla densità dell’atmosfera, che varia a seconda di numerose variabili compresa l’attività solare. La traiettoria seguita da ERS-2 è comunque tenuta sotto controllo dall’ESA e da diverse altre organizzazioni, in modo da poter fare stime più accurate quando il satellite sarà intorno agli 80 chilometri di altitudine, il probabile momento in cui avverrà la distruzione.
    ERS-2 ha una massa di 2,5 tonnellate, comparabile con quella di diversi altri satelliti e detriti spaziali che in media rientrano nell’atmosfera con una frequenza di 7-15 giorni. A differenza dei satelliti più recenti, solitamente progettati per produrre la minor quantità possibile di detriti, ERS-2 ha alcuni componenti che potrebbero resistere alle sollecitazioni e alle alte temperature che si sviluppano nel rientro nell’atmosfera. La sua antenna principale era stata costruita in fibra di carbonio, un materiale molto resistente, di conseguenza alcune sue parti potrebbero arrivare al suolo.
    Anche se così fosse il rischio per la popolazione sarebbe comunque minimo, come ha spiegato l’ESA:
    Il rischio su base annua per un essere umano di essere ferito da un detrito spaziale è inferiore a 1 su 100 miliardi. Per fare un confronto, è un rischio: circa 1,5 milioni di volte inferiore rispetto a quello di morire in un incidente domestico; circa 65mila volta inferiore rispetto al rischio di essere colpiti da un fulmine; circa tre volte inferiore rispetto al rischio di essere colpiti da un meteorite.
    Il rischio è molto basso per un semplice motivo: buona parte della Terra è disabitata, considerato che gli oceani da soli ne ricoprono il 70 per cento e che ci sono enormi porzioni di territorio in cui non vive nessuno. La maggior parte degli esseri umani vive in aree densamente popolate e questo può creare una percezione distorta sull’effettiva presenza umana in tutto il pianeta.
    Rappresentazione schematica della carriera di ERS-2 nello Spazio (ESA)
    Quando furono lanciati nella prima metà degli anni Novanta, ERS-1 ed ERS-2 contenevano alcune delle tecnologie più avanzate disponibili all’epoca per l’osservazione e lo studio della Terra. I sensori di ERS-2 permisero di effettuare in modo più accurato la misurazione della temperatura superficiale del suolo e degli oceani, raccogliendo dati fondamentali per la costruzione dei modelli per lo studio del cambiamento climatico. ERS-2 fu anche molto importante per osservare l’assottigliamento dello strato di ozono in alcune parti dell’atmosfera, il cosiddetto “buco nell’ozono”, così come per analizzare alcuni andamenti atmosferici per migliorare l’affidabilità delle previsioni meteorologiche.
    Nel corso dei suoi 16 anni di utilizzo, ERS-2 fu inoltre impiegato per analizzare gli effetti di alcuni disastri naturali, come grandi inondazioni su alcune porzioni di territorio, e per studiare la salute delle foreste e identificare i casi di deforestazione illegale. Insieme a ERS-1, rese possibili oltre 5mila progetti scientifici e i dati raccolti in quegli anni sono ancora oggi preziosi per studiare andamenti e variazioni al suolo, negli oceani e nell’atmosfera.
    Lo stretto di Messina ripreso in varie date da ERS-2 (ESA)
    Per questi motivi ERS-1 ed ERS-2 sono considerati «i pionieri europei dell’osservazione della Terra» e le conoscenze accumulate con il loro sviluppo, e il loro utilizzo, ha reso poi possibile la produzione di satelliti di nuova generazione. Nel marzo del 2002 l’Agenzia spaziale europea inviò in orbita Envisat, un satellite che conteneva strumenti sperimentati nel programma ERS e aggiornati con nuove funzionalità. Alcuni dei sensori impiegati su ERS-2 avrebbero poi reso possibile il perfezionamento di strumenti molto importanti per valutare le variazioni nella conformazione del territorio (InSAR), oggi impiegati da Copernicus, l’iniziativa satellitare europea per lo studio della Terra.
    A differenza di ERS-2, ERS-1 smise di rispondere ai comandi prima di poter essere collocato a una quota che garantisse la sua fine nell’atmosfera entro pochi anni. Attualmente il satellite si trova a 700 chilometri di distanza dalla Terra e potrebbe impiegare fino a un secolo prima di raggiungere nuovamente il nostro pianeta.
    Difficilmente oggi si potrebbe verificare un imprevisto di questo tipo, per lo meno con i satelliti sotto la responsabilità dell’ESA. L’Agenzia ha infatti adottato nel 2022 il “Zero Debris Charter”, un trattato che prevede numerosi vincoli nella realizzazione e nella gestione dei satelliti, proprio per ridurre il problema dei rifiuti spaziali. L’ESA si è impegnata a utilizzare satelliti che possano essere manovrati per essere spostati in orbite che ne assicurino la fine nell’atmosfera, dove si potranno polverizzare senza causare problemi. Il trattato prevede inoltre che non passino più di cinque anni dal momento in cui un satellite viene disattivato al momento in cui viene distrutto.
    In quasi 70 anni di attività spaziali, sono stati trasportati in orbita migliaia di satelliti, molti dei quali non sono più funzionanti. Mentre i satelliti più recenti hanno spesso sistemi per modificare la loro orbita quando non servono più, in modo che si disintegrino al loro rientro nell’atmosfera o per essere parcheggiati in orbita a debita distanza dal nostro pianeta, i satelliti più vecchi sono impossibili da controllare dalla Terra e non possono essere smaltiti.
    [embedded content]
    La presenza di così tanti detriti spaziali fa aumentare sensibilmente il rischio di collisioni con satelliti attivi. Incidenti di questo tipo possono portare alla produzione di nuovi detriti, che a loro volta diventano rifiuti spaziali rischiosi per altri satelliti e così via.
    Alla fine degli anni Settanta, il consulente della NASA Donald J. Kessler ipotizzò che un tale effetto domino potesse portare ad avere talmente tanti detriti nell’orbita bassa intorno alla Terra (a una quota tra 300 e 1.000 chilometri) da rendere impossibile l’esplorazione spaziale e l’impiego di nuovi satelliti per generazioni. La “sindrome di Kessler” viene evocata sempre più di frequente come un rischio da esperti e responsabili delle agenzie spaziali, che da anni lavorano alla sperimentazione di sistemi per ridurre la quantità di rifiuti spaziali intorno alla Terra. LEGGI TUTTO

  • in

    Mascherine e depuratori per l’aria proteggono dall’inquinamento?

    Caricamento playerLa pessima qualità dell’aria di questi giorni nella Pianura Padana non ha soluzioni semplici e immediate perché è legata alle condizioni meteorologiche, alla geografia e alla presenza di numerose città, industrie e allevamenti nella regione. Chi si preoccupa dei rischi per la salute legati a questa forma di inquinamento può comunque adottare alcune abitudini come prevenzione: ad esempio usare mascherine per bocca e naso quando sta all’esterno e usare dispositivi per depurare l’aria negli ambienti chiusi.
    L’inquinamento atmosferico è una delle principali cause di malattie cardiovascolari e di un generale accorciamento delle aspettative di vita secondo l’Organizzazione mondiale della sanità (OMS). In particolare l’Agenzia europea per l’ambiente (AEA) ha stimato che nel 2021 almeno 253mila persone siano morte a causa dell’esposizione cronica alle micropolveri, anche note come particolato o PM, e almeno 52mila per l’esposizione cronica al biossido di azoto, un gas prodotto soprattutto dai motori diesel ma anche dagli impianti di riscaldamento e dalle industrie, che è il principale gas inquinante dannoso per la salute.
    Le misure di prevenzione per la salute personale che si possono applicare usando mascherine e depuratori riguardano il particolato. Entrambi questi strumenti infatti funzionano grazie a filtri per l’aria che trattengono le piccole particelle solide o liquide presenti nell’aria: le mascherine sono essenzialmente dei filtri per naso e bocca, mentre i depuratori contengono dei filtri al loro interno attraverso cui viene fatta passare l’aria presente in un ambiente chiuso. Non possono invece far nulla per i gas inquinanti perché le dimensioni delle particelle gassose sono dello stesso ordine di grandezza di quelle dei componenti dell’aria che invece dobbiamo respirare per vivere: una mascherina che li bloccasse sarebbe piuttosto dannosa per la salute.

    – Leggi anche: Ha senso confrontare l’inquinamento di Milano con quello di Delhi?

    Non sono ancora state fatte ricerche scientifiche che dicano qualcosa sugli effetti a lungo termine dell’uso metodico di mascherine per il viso per proteggersi dall’inquinamento dell’aria, dunque non è possibile dire in che misura garantiscano protezione dai rischi per la salute. Tuttavia vari studi hanno dimostrato che le mascherine sono efficaci nel trattenere il particolato, in particolare il PM10, quello composto da particelle di dimensioni maggiori, cioè con un diametro fino a un centesimo di millimetro (10 micrometri).
    Uno studio pubblicato nel 2021 ha riscontrato che praticamente qualsiasi tipo di mascherina per il viso (comprese quelle di cotone) rappresenta una qualche forma di filtro per il particolato. Realizzato da un gruppo di scienziati del Colorado, negli Stati Uniti, per valutare l’utilità delle mascherine più diffuse contro l’inquinamento da incendi boschivi, questo studio dice che però quelle più efficaci sono le N95, le cui caratteristiche corrispondono più o meno a quelle delle FFP2 in uso in Europa. Tali mascherine, secondo le analisi del gruppo di ricerca, proteggono dal particolato urbano tre volte di più rispetto alle mascherine chirurgiche, anche se l’efficacia diminuisce con le particelle di diametro inferiore al micrometro. Bisogna inoltre ricordare che si tratta di dispositivi usa e getta.
    Le mascherine chirurgiche potrebbero essere filtri efficaci se non fosse che non aderiscono bene al viso. Infatti per bloccare davvero il particolato le mascherine non devono lasciare spazi per il passaggio di aria non filtrata. La loro efficacia diminuisce se chi le indossa ha la barba o fa dei movimenti a causa dei quali le mascherine si spostano molto sulla pelle, come quelli che si possono fare mentre si va in bici.
    Un’altra precauzione che si può applicare in giorni di alto inquinamento dell’aria cittadina è evitare di fare attività sportiva all’aperto.
    Per quanto riguarda gli ambienti chiusi, l’inquinamento dell’aria può essere anche maggiore rispetto all’esterno. Negli interni infatti le fonti di sostanze inquinanti sono moltissime: a quelle dell’aria esterna si uniscono le particelle prodotte da esseri umani e animali (l’anidride carbonica che espiriamo, ma anche piccole gocce di saliva di quando tossiamo o starnutiamo, peli, forfora, eccetera), le sostanze rilasciate da processi di combustione come la cottura dei cibi, il riscaldamento, il fumo di sigaretta, incensi, candele e altro, e quelle rilasciate dai prodotti per la pulizia e altri.
    La misura più efficace per ripulire l’aria degli ambienti chiusi, anche se può sembrare controintuitivo in giornate di pessima qualità dell’aria, è aprire le finestre con una certa frequenza. «Almeno 2 o 3 volte al giorno per almeno 5 minuti», aveva spiegato alcuni anni fa al Post Alessandro Miani, presidente della Società Italiana di Medicina Ambientale: «L’apertura delle finestre porta a una dispersione e diluizione delle sostanze concentrate nell’aria delle case anche in giorni in cui l’aria esterna è particolarmente inquinata. Se vivete in città, meglio aprire le finestre che affacciano su vie poco trafficate o su cortili interni, in orari in cui ci sono meno macchine in giro come la sera, la mattina presto o l’ora di pranzo».
    In aggiunta si possono poi utilizzare dei dispositivi per filtrare l’aria spesso usati dalle persone allergiche ai pollini. Questi dispositivi sono efficaci per filtrare il particolato se contengono i cosiddetti filtri HEPA (dall’inglese High Efficiency Particulate Air filter), che spesso sono presenti negli impianti di condizionamento industriale ma non in quelli domestici, e sono in grado di trattenere anche il PM2,5 o “particolato fine”, quello formato da particelle con diametro inferiore a 2,5 micrometri.
    Come per le mascherine, non sono disponibili studi a lungo termine che diano informazioni sui benefici per la salute dell’uso di depuratori con filtri HEPA. Una rassegna delle ricerche fatte fino al 2020 su questi dispositivi ha però concluso che i depuratori riducano effettivamente la concentrazione di PM2,5 nell’aria degli ambienti chiusi e che siano una buona soluzione familiare per proteggersi da fonti di inquinamento esterne, se utilizzati correttamente e ben manutenuti. Si tratta di dispositivi che però costano alcune centinaia di euro. LEGGI TUTTO

  • in

    Il riscaldamento globale bloccherà la corrente del Golfo?

    Caricamento playerL’Irlanda si trova più o meno alla stessa latitudine del Labrador, in Canada, ma ha generalmente temperature più alte grazie a una corrente oceanica che dal Golfo del Messico trasporta acqua relativamente calda verso il Nord Europa. È la corrente del Golfo, uno dei fenomeni naturali che più influenzano il clima della Terra. Da più di cinquant’anni la climatologia ne studia il funzionamento per capire se, e quando, il riscaldamento globale potrebbe bloccarla, e così stravolgere il clima di buona parte del mondo. Ora una ricerca pubblicata sulla rivista Science Advances ha aggiunto vari elementi rilevanti a ciò che sappiamo sull’argomento.
    Il cambiamento climatico e la corrente del Golfo sono legati a causa dello scioglimento dei ghiacci della Groenlandia e degli altri territori dell’Artico, che è dovuto all’aumento delle temperature medie. Più i ghiacci fondono, più cresce la quantità di acqua dolce che finisce nel nord dell’oceano Atlantico. Questo altera le dinamiche delle correnti oceaniche, che sono regolate da differenze di temperatura e salinità dell’acqua, e potrebbe farlo al punto da bloccare la corrente del Golfo. Tuttora non sappiamo quando potrebbe accadere, ma il nuovo studio conferma che il pianeta si sta avvicinando a questa situazione. Dice che ci sono buone probabilità che il processo di blocco della corrente si inneschi in questo secolo e che finora i rischi associati siano stati sottovalutati.
    Insieme ai venti, le correnti oceaniche si possono considerare un motore del clima, o più precisamente una “pompa di calore” che lo regola, perché trasportano aria e acqua calda verso i Poli e aria e acqua fredda verso l’Equatore. Tutte le correnti oceaniche, così come i venti del pianeta, sono collegate tra loro e fanno parte di un unico sistema. La comunità scientifica si riferisce alla parte del sistema che riguarda l’oceano Atlantico con la sigla AMOC, acronimo dell’espressione inglese Atlantic Meridional Overturning Circulation, in italiano “capovolgimento meridionale della circolazione atlantica”. La corrente del Golfo è un pezzo dell’AMOC.
    Le correnti, cioè il movimento delle masse d’acqua oceaniche, sono causate dalle differenze di temperatura e salinità dell’acqua stessa che si creano negli oceani. Temperatura e salinità determinano la densità dell’acqua (più l’acqua è calda meno è densa, più è salata più è densa) e masse d’acqua di densità diverse si muovono le une in relazione alle altre proprio in base alla differenza di densità. L’acqua meno densa tende a salire verso l’alto, mentre l’acqua più densa tende a scendere in profondità (allo stesso modo l’olio in un bicchier d’acqua galleggia perché è meno denso dell’acqua). Le correnti possono essere di superficie o di profondità a seconda della densità dell’acqua in movimento.
    Nelle zone equatoriali fa più caldo quindi l’acqua si scalda e al tempo stesso evapora di più, ragion per cui la concentrazione di sale è maggiore. Dal Golfo del Messico, dove l’acqua raggiunge una temperatura attorno ai 30 °C, una massa d’acqua calda e salata viene spinta dalla rotazione della Terra e dai venti verso l’Europa. Avvicinandosi al Polo Nord questa massa d’acqua si raffredda gradualmente e di conseguenza diventa più densa. Inoltre, risulta ancora più densa dell’acqua circostante, perché provenendo dalla zona equatoriale è più salata. Tra Groenlandia, Norvegia e Islanda la differenza di densità tra l’acqua della corrente del Golfo e quella che la circonda crea degli enormi flussi d’acqua verticali, delle specie di gigantesche cascate sottomarine chiamate “camini oceanici”, che spingono l’acqua proveniente da sud-ovest in profondità.
    L’AMOC è spesso paragonata a un nastro trasportatore perché il flusso d’acqua fredda verso le profondità oceaniche e da lì verso sud, dunque in senso opposto alla corrente del Golfo, è fondamentale per mantenere attivo tutto il meccanismo. Il riscaldamento globale potrebbe incepparlo proprio perché rischia di disturbare questa parte dell’AMOC.
    Rappresentazione schematica semplificata del sistema delle correnti oceaniche della Terra, detto “circolazione termoalina”, cioè regolata dalla temperatura e dalla salinità dell’acqua; dove il flusso è rappresentato in viola le correnti sono in profondità, dove è rappresentato in blu sono in superficie. L’AMOC è il sistema di correnti nella parte più a sinistra dell’immagine (Wikipedia Commons)
    L’AMOC è la ragione principale per cui a Parigi le temperature medie generalmente variano tra 26 e 3 °C nel corso dell’anno, mentre a Montreal, la cui latitudine si trova circa 400 chilometri più a sud della capitale francese, variano tra 26 e -12 °C. Se non ci fosse l’AMOC gran parte della superficie del mare di Norvegia sarebbe ghiacciata nei mesi invernali, e molte regioni d’Europa avrebbero inverni più simili a quelli del Canada e del nord degli Stati Uniti, che sono più rigidi pur trovandosi alla stessa latitudine.
    A partire dagli anni Sessanta, con gli studi dell’oceanografo statunitense Henry Stommel, si iniziò a ipotizzare che un aumento eccessivo della quantità d’acqua dolce proveniente dai fiumi e dai ghiacciai del Nord America e della Groenlandia avrebbe potuto bloccare l’AMOC. Il motivo è che l’acqua proveniente dai continenti diluisce quella salata degli oceani. Nel caso specifico dell’Atlantico settentrionale, le acque continentali diluiscono quelle della corrente del Golfo: l’ipotesi sul blocco dell’AMOC è che se dovessero farlo in modo eccessivo, diminuirebbe quella differenza di densità che crea i camini oceanici e che spinge l’acqua calda dal Golfo del Messico al nord Europa.
    Questa ipotesi prevede anche che ci sia quello che in inglese è chiamato tipping point, letteralmente “punto estremo”, cioè una soglia critica oltre la quale un sistema viene stravolto, spesso in modo brusco, o irreversibile, o entrambe le cose. In italiano questa espressione è tradotta di frequente con “punto di non ritorno”, che però non è la stessa cosa perché contiene necessariamente l’irreversibilità.
    Nel caso dell’AMOC, si ipotizza che – una volta che il flusso di acqua dolce nel Nord Atlantico abbia raggiunto un certo tipping point – si ottenga un rapido blocco della corrente del Golfo. Sappiamo che in passato è già successo, durante le ere glaciali. L’ultima volta accadde 12mila anni fa: il conseguente periodo di raffreddamento dell’Europa, che portò a diminuzioni della temperatura media di 5 °C in alcune zone, è chiamato “Dryas recente”. Lo studio pubblicato la scorsa settimana ha confermato con maggiore precisione rispetto al passato che il tipping point legato all’aumento della fusione dei ghiacci artici esiste e che il riscaldamento globale causato dalle attività umane potrebbe davvero fermare la corrente che rende il clima dell’Europa quello che è.
    Questo risultato è basato su una complessa simulazione che ha preso in considerazione uno scenario di 4.400 anni e non tiene conto solo delle correnti ma anche delle condizioni dell’atmosfera: per farla eseguire sono serviti 6 mesi di calcoli nel più grande centro computazionale dei Paesi Bassi. Lo studio è stato fatto da René M. van Westen, Michael Kliphuis e Henk A. Dijkstra, tre scienziati dell’Istituto per la ricerca marina e atmosferica dell’Università di Utrecht, uno degli enti scientifici più autorevoli per le analisi sull’AMOC.
    Lo studio conferma anche che le condizioni dell’oceano Atlantico si stanno avvicinando a quelle del tipping point (varie ricerche degli ultimi vent’anni avevano già osservato un rallentamento della corrente del Golfo) e propone come si potrebbe fare a capire con un certo anticipo quando ci saremo pericolosamente vicini, cioè con una misurazione del trasporto di acqua dolce da parte dell’AMOC. Lo studio però non dice quando potremmo raggiungere la condizione che porterebbe al blocco della corrente, che nelle parole dell’oceanografo e climatologo Stefan Rahmstorf, professore di Fisica degli oceani all’Università di Potsdam, resta «la domanda da un miliardo di dollari».
    Van Westen, Kliphuis e Dijkstra si sono limitati a dire che una previsione proposta l’anno scorso, secondo cui il tipping point sarà raggiunto tra il 2025 e il 2095, «potrebbe essere accurata».
    Secondo Rahmstorf, che ha commentato lo studio olandese in un intervento tradotto in italiano sul blog Climalteranti, questa ricerca «conferma le preoccupazioni del passato secondo cui i modelli climatici sovrastimano sistematicamente la stabilità dell’AMOC». Lo scienziato ritiene che l’Intergovernmental Panel on Climate Change (IPCC) dell’ONU, il principale organismo scientifico internazionale per la valutazione dei cambiamenti climatici, abbia finora sottovalutato i rischi di un blocco della corrente del Golfo perché i suoi rapporti sono basati su studi non sufficientemente precisi.
    Lo studio di van Westen, Kliphuis e Dijkstra contiene anche qualche ipotesi sulle conseguenze del blocco dell’AMOC sul clima europeo, che però non tengono conto degli altri effetti del riscaldamento globale. Dicono che l’Europa settentrionale, e in particolare la Scandinavia, la Gran Bretagna e l’Irlanda, subirebbero una grossa diminuzione delle temperature medie invernali, tra i 10 e i 30 °C nel giro di un secolo, con cambiamenti di 5 °C a decennio, cioè molto più veloci del riscaldamento attualmente in corso. Al tempo stesso ci sarebbero grandi variazioni nel livello del mare e nelle precipitazioni delle regioni tropicali, in particolare in Amazzonia, dove una prateria potrebbe prendere il posto della foresta pluviale.
    Dato che la simulazione non tiene conto degli altri effetti del cambiamento climatico in corso questo scenario non può essere considerato del tutto verosimile. In ogni caso, un cambiamento anche di pochi gradi nelle temperature medie se avvenisse nel giro di un secolo, che è un tempo molto breve per la storia del pianeta, avrebbe grossi impatti sul clima e su tutto ciò che ne dipende, compresa la vita di piante e animali, umani inclusi. «Dati gli impatti, il rischio di un collasso dell’AMOC è qualcosa da evitare a tutti i costi», ha detto sempre Rahmstorf:
    Il problema non è se siamo sicuri che questo accadrà. Il problema è che avremmo bisogno di escluderlo con una probabilità del 99,9%. Una volta che avremo un segnale di avvertimento inequivocabile e definitivo, sarà troppo tardi per fare qualcosa al riguardo, data l’inerzia del sistema. LEGGI TUTTO

  • in

    Le categorie per classificare gli uragani non bastano più?

    Caricamento playerDagli anni Settanta gli uragani che suscitano maggiori preoccupazioni quando si avvicinano alle coste dell’America del Nord sono quelli «di categoria 5». Questa descrizione fa riferimento alla scala Saffir-Simpson, un sistema di classificazione per le tempeste tropicali più forti che si formano nel nord dell’oceano Atlantico o nel nord-est dell’oceano Pacifico basata sulla misura della velocità dei venti. Rientrano nella categoria 1, quella associata a danni limitati, le tempeste con venti di velocità compresa tra 119 e 153 chilometri orari. La categoria 5 invece è quella degli uragani i cui venti superano i 252 chilometri orari, ed è associata a danni «catastrofici».
    La scala non contempla una velocità massima oltre la quale non si può più parlare di categoria 5, perché già con venti di 252 chilometri orari si possono avere danni gravissimi. Tuttavia secondo due scienziati statunitensi potrebbe esserci una buona ragione per aggiungere una “categoria 6” alla scala o almeno discutere l’idea. In un articolo pubblicato la settimana scorsa sull’autorevole rivista Proceedings of the National Academy of Sciences Michael Wehner e James Kossin lo hanno proposto perché il cambiamento climatico sta causando un aumento della frequenza delle tempeste tropicali più intense. Secondo loro distinguerle dalle altre aiuterebbe a far conoscere questo problema ed eviterebbe di sottostimare i rischi per la sicurezza di infrastrutture e persone.
    La “categoria 6” ipotizzata da Wehner e Kossin comprenderebbe le tempeste tropicali con venti di velocità superiore a 309 chilometri orari. Dal 2013 a oggi ce ne sono state cinque, un uragano e quattro tifoni, come sono chiamati gli uragani del nord-ovest del Pacifico, a cui sono esposte le coste del sud-est asiatico: il tifone Haiyan, che nel novembre del 2013 uccise migliaia di persone nelle Filippine; l’uragano Patricia, che ha riguardò l’ovest del Messico nell’ottobre del 2015 e i cui venti arrivarono a 346 chilometri orari di velocità; il tifone Meranti del 2016, il tifone Goni del 2020 e il tifone Surigae del 2021.

    – Leggi anche: Che differenza c’è tra uragani e tifoni

    In generale la frequenza delle tempeste tropicali più intense è aumentata. Se si considerano i 42 anni tra il 1980 e il 2021, quelli per cui si hanno dati affidabili, le tempeste tropicali classificabili come di categoria 5 sono state 197: la metà è stata registrata negli ultimi 17 anni del periodo e i cinque più forti, già citati, sono avvenuti tutti negli ultimi nove anni.
    Questo fenomeno è legato all’aumento della temperatura degli oceani, che si stanno scaldando a livello globale come l’atmosfera, anche se più lentamente: semplificando, tanto più sono caldi gli strati superficiali dell’acqua, maggiore è l’energia che può generare precipitazioni particolarmente intense. E secondo le stime di Wehner e Kossin nello scenario in cui la temperatura media globale aumenterà di 2 °C rispetto ai livelli preindustriali il rischio tempeste “di categoria 6” raddoppierà.
    Non è la prima volta che degli scienziati mettono in discussione la scala Saffir-Simpson, che ha vari limiti e peraltro è usata solo in Nord America e non in Asia, dove si verificano tifoni e cicloni. Il suo difetto principale è che è basata unicamente sulla velocità del vento, e non sulla forza delle onde che si abbattono sulle coste all’arrivo di una tempesta e delle inondazioni che può causare, sebbene la maggior parte dei danni dovuti agli uragani sia causata proprio dall’acqua e non dall’aria.
    Tuttavia già in passato e anche in questa occasione alcuni scienziati si sono detti contrari all’ampliamento della scala con una “categoria 6”. Michael Fischer del laboratorio oceanografico e meteorologico dell’Atlantico della National Oceanic and Atmospheric Administration (NOAA), l’agenzia statunitense che si occupa degli studi meteorologici e oceanici, ha detto al Washington Post che potrebbe essere controproducente perché potrebbe far sottostimare gli uragani di categoria 5.
    Le agenzie statali statunitensi che si occupano di meteorologia e dei rischi legati agli uragani in ogni caso non hanno in programma di modificare l’uso della scala Saffir-Simpson al momento. Già oggi in realtà le associano delle previsioni sulle inondazioni, che però sono meno note, soprattutto dove solitamente non arrivano uragani. Deirdre Byrne, un’oceanografa della NOAA, si è espressa abbastanza positivamente sulla proposta di una “categoria 6” («non sarebbe inappropriata») ma ha detto che forse sarebbe più utile associare la scala Saffir-Simpson a un sistema simili che classifichi i rischi legati alle alluvioni, ad esempio con una scala da A a E.
    Gli stessi Kossin e Wehner hanno detto che per decidere se estendere la scala esistente bisognerebbe prima commissionare una ricerca sociologica per verificare come modificherebbe la percezione del rischio delle persone. LEGGI TUTTO

  • in

    La scoperta di quattro nuove colonie di pinguini imperatori è una piccola buona notizia

    Attraverso alcune osservazioni satellitari sono state identificate quattro nuove colonie di pinguini imperatori in Antartide. È considerata una buona notizia, visto che recentemente alcune analisi avevano segnalato la scomparsa di numerosi individui di questi animali a causa della fusione dei ghiacci dovuta alle temperature anomale, sia nell’inverno sia nell’estate antartiche.La scoperta è stata resa possibile grazie all’osservazione dallo Spazio delle feci (guano) prodotte dai pinguini, che ricoprendo la superficie ghiacciata ne fanno variare il colore rendendo rilevabile in maniera indiretta la presenza delle colonie nelle immagini satellitari. La tecnica viene utilizzata da diversi anni e si è rivelata fondamentale per tenere sotto controllo le popolazioni di questi animali.
    L’identificazione delle nuove colonie è stata raccontata dal ricercatore Peter Fretwell sulla rivista scientifica Antarctic Science. Lo studio segnala che grazie alla nuova scoperta si può stimare la presenza di almeno 66 colonie di pinguini imperatori in Antartide, con le quattro da poco scoperte che riempiono alcuni spazi vuoti intorno alla costa antartica dove finora non era nota la presenza di questi animali.
    I pinguini imperatori vivono per lo più lungo le zone costiere sul ghiaccio fisso, cioè la parte di ghiaccio marino (banchisa) attaccata alla costa, che come suggerisce il nome rimane stabile nella medesima posizione senza muoversi a causa delle correnti marine o dei venti. Si riproducono sul ghiaccio fisso e depongono le uova tra maggio e giugno; i piccoli nascono un paio di mesi dopo, ma non sono autonomi fino a dicembre-gennaio. Il pinguino imperatore è la specie di pinguino più grande ma meno presente in Antartide, con una popolazione stimata di circa 600mila individui.
    Le quattro nuove colonie (rosso) identificate dallo studio, nel contesto delle colonie già note (grigio) lungo la costa antartica (British Antarctic Survey)
    Negli ultimi anni erano stati segnalati molti problemi legati ad alcune colonie di pinguini imperatori, che si erano fortemente ridotte o erano proprio scomparse. Uno studio pubblicato nel 2022 aveva per esempio segnalato che, a causa della riduzione del ghiaccio marino, in almeno quattro colonie erano morti migliaia di pinguini imperatori appena nati, con gravi conseguenze sulla loro popolazione. Nel nuovo studio, Fretwell ipotizza cha una delle quattro colonie ora identificate possa essere il frutto del trasferimento di animali da una delle colonie che si credevano perse.
    La ricerca segnala che tre delle quattro nuove colonie hanno meno di un migliaio di individui, quindi la scoperta non incide più di tanto sulle stime complessive sulla presenza dei pinguini imperatori. La novità è però importante perché dà la possibilità di avere un censimento più accurato delle colonie che costellano la costa antartica, anche in vista di futuri studi per calcolare meglio la presenza di questi animali e soprattutto la variazione nelle dimensioni delle colonie nel corso del tempo.
    Le frecce indicano le aree ricoperte dal guano dove sono state identificate le quattro nuove colonie (British Antarctic Survey)
    A causa del cambiamento climatico il ghiaccio marino in Antartide è meno presente rispetto a un tempo. Negli ultimi due anni, per esempio, si è registrata la copertura più scarsa di ghiaccio da quando si è iniziato a tenerla sotto controllo dalla fine degli anni Ottanta. Si stima che almeno un terzo delle colonie di pinguini imperatori abbia avuto qualche conseguenza, soprattutto in termini di riduzione della popolazione, da quando la perdita di ghiaccio è diventata più significativa. LEGGI TUTTO

  • in

    Le foto della lava che si sta raffreddando, in Islanda

    La seconda eruzione vulcanica di Grindavík, in Islanda, si sta esaurendo, secondo le analisi dell’Agenzia meteorologica islandese. Questa mattina l’esperta di disastri naturali dell’ente Elísabet Pálmadóttir ha detto alla RÚV, la principale rete televisiva del paese, che anche dalla fessura più settentrionale che si era aperta domenica, quella più ampia, si è interrotto il flusso della lava poco dopo l’una di oggi. Nella notte sono stati registrati più di 160 piccoli terremoti dovuti al movimento del magma sotto terra e anche per questo non si può ancora dire che l’eruzione sia finita: c’è ancora la possibilità che si aprano altre fessure nelle prossime ore e per questo attualmente gli abitanti della cittadina non possono tornare nelle proprie abitazioni. LEGGI TUTTO

  • in

    La nuova vita delle foglie morte

    In questo periodo dell’anno nel nostro emisfero le chiome di miliardi di alberi si tingono di rosso, arancione e giallo, il segno più evidente dell’arrivo della stagione fredda. Man mano che si riducono le ore di luce giornaliere e si abbassano le temperature, le piante caducifoglie rallentano il loro metabolismo e fanno cadere a terra le foglie, che nel corso della stagione calda sono state essenziali per la fotosintesi. Una quantità gigantesca di foglie decidue ricopre quindi il sottobosco, i prati, i campi, i parchi cittadini, ma anche le strade e i marciapiedi, causando qualche disagio ma anche grandissime opportunità talvolta sottovalutate.Soprattutto le persone che vivono in città tendono a vedere le foglie secche a terra come un fastidio e un pericolo nei giorni di pioggia, quando rendono scivolosi i marciapiedi. La loro mancata rimozione è spesso fonte di lamentele e polemiche contro le amministrazioni comunali, accusate di tanto in tanto di non intervenire con tempestività per fare pulizia. Nelle città più grandi, ripulire strade e piazze richiede uno sforzo non indifferente: solo a Milano l’azienda per la raccolta dei rifiuti (AMSA) stima di raccogliere in media 450 tonnellate di foglie alla settimana nel periodo autunnale; corrispondono a un volume notevole, considerato quanto poco pesano le foglie in rapporto allo spazio che occupano.Le foglie secche vengono poi smaltite in vario modo a seconda di come sono organizzati i comuni. In alcuni casi vengono incenerite insieme agli altri rifiuti, in altri smaltite con l’umido oppure riutilizzate per altri scopi, compresi quelli di rigenerazione del suolo. Oltre alle questioni di sicurezza per chi cammina sui marciapiedi o va in bicicletta, le foglie secche su asfalto e cemento vengono di preferenza rimosse perché durano a lungo e nel caso di prolungati periodi senza pioggia si rompono in pezzi sempre più piccoli, producendo polveri che possono contribuire al peggioramento della qualità dell’aria.Le pratiche di rimozione variano moltissimo a seconda delle città, ma in generale interessano soprattutto le foglie cadute sulle aree ricoperte da cemento e asfalto, mentre riguardano in misura minore le zone verdi come quelle dei parchi cittadini. Le foglie secche a contatto diretto con il terreno sono infatti un’ottima risorsa per rigenerare il suolo, arricchendolo di minerali e altre sostanze utili per la crescita delle piante e per la vita di microrganismi, funghi, insetti, uccelli e altri animali di piccola taglia. Per questo viene consigliato di non raccogliere e bruciare le foglie secche, ma di lasciarle dove sono sul terreno o di riutilizzarle in altro modo, per esempio per produrre il compost che potrà poi essere impiegato come fertilizzante.(Spencer Platt/Getty Images)Nel caso di foglie decidue di piccole dimensioni che si depositano su un prato, come quello di un parco pubblico o del giardino di casa, il consiglio è di non fare sostanzialmente nulla. Complice la pioggia, le foglie marciscono e si decompongono durante la stagione fredda, aggiungendo nutrienti al suolo. Nel caso di grandi quantità o di foglie di maggiori dimensioni, c’è il rischio che il prato o piante di piccole dimensioni restino completamente coperti non ricevendo luce e ossigeno a sufficienza, con un conseguente “soffocamento”. In queste condizioni può rendersi necessaria la rimozione delle foglie, che possono però essere trasferite in altre aree del prato o in aiuole dove sono coltivate piante più grandi e vigorose, meno esposte al rischio di soffocamento.Non sempre le foglie che cadono al suolo sono però sane. Un albero malato, per esempio a causa di alcuni parassiti, può contaminare altre piante più piccole. È quindi importante verificare sempre la salute degli alberi caducifogli per decidere se lasciare o meno in terra le foglie che hanno perso. Dovrebbero essere raccolte separatamente, in modo da non utilizzarle per fare il compost dove alcuni parassiti potrebbero proliferare più facilmente, complice l’umidità e il calore che si sviluppa con la decomposizione.(AP Photo/Matthias Schrader)Le foglie secche possono essere utilizzate inoltre per la pacciamatura, il processo con cui si ricopre una porzione di terreno con materiali vegetali (e non solo) di vario tipo, per proteggerlo dall’erosione e mantenerlo più fertile. È un’attività che viene svolta in ambito agricolo, ma anche per il giardinaggio e in misura più contenuta nei parchi urbani. Si utilizzano frammenti di corteccia, aghi di pino, paglia e all’occorrenza anche le foglie secche. Di solito vengono triturate direttamente sul prato, per esempio utilizzando un tagliaerba regolato in modo che lasci il materiale triturato dove si trova invece di raccoglierlo in un contenitore.I prati sottoposti a questi trattamenti nei parchi urbani e nei giardini appaiono molto diversi dall’immaginario collettivo in cui sono sempre verdi, ma non significa che siano meno curati. La presenza delle foglie non è un indicatore della trascuratezza di un prato e ricorda che anche un giardino costituisce un ecosistema, con molte specie diverse che lo popolano e che variano a seconda delle stagioni. C’è un tempo in cui un prato è verde e fiorito e un altro in cui riposa e si rigenera, sotto a uno strato di foglie. LEGGI TUTTO