More stories

  • in

    Weekly Beasts

    Tra le foto di animali della settimana c’è l’incontro di una gazza con un drone, un rapace che guarda dritto in camera dopo aver predato un piccione, due orsi grizzly, un bovino in un campo allagato e altri al pascolo in Francia. Poi un piccolo pudu, mammifero della famiglia dei cervidi, nato da poco allo zoo di Varsavia: i pudu comuni misurano al massimo 85 cm di lunghezza e 38 cm d’altezza al garrese, per un peso di 10-15 chili, numeri che li rendono tra i più piccoli nella loro famiglia animale. Per finire con due tamandua meridionali (formichieri) e un cane che si sporge fuori dal finestrino dell’auto su cui viaggia. LEGGI TUTTO

  • in

    La storia sorprendente di come fu scoperta la vera causa dell’ulcera allo stomaco

    Caricamento playerUna delle scoperte più importanti per la salute di tutto il Novecento avvenne grazie all’ostinazione di due ricercatori, a una dimenticanza e alla Pasqua, circa quarant’anni fa. Gli australiani John Robin Warren e Barry Marshall identificarono la vera causa della maggior parte delle ulcere gastriche e delle gastriti, sovvertendo secoli di ipotesi e trattamenti per tenerle sotto controllo con risultati deludenti. A comportare quei problemi di salute non erano lo stress o l’alimentazione, come si credeva, ma un batterio che poteva essere eliminato semplicemente con un antibiotico. Vincere lo scetticismo iniziale non fu semplice, ma Marshall e Warren – che è morto lo scorso luglio a 87 anni – non si diedero per vinti, portando a un cambiamento epocale nella cura dell’ulcera per milioni di persone in tutto il mondo che valse loro un Premio Nobel.
    Dopo essersi laureato in medicina nel 1961, Warren non era riuscito a seguire la specializzazione in psichiatria come avrebbe voluto e aveva scelto patologia clinica, cioè lo studio delle malattie per lo più in laboratorio. Negli anni seguenti avrebbe lavorato su campioni di ogni tipo, dal midollo osseo al sangue passando per feci e urine. Nel 1968 ottenne un posto al Royal Perth Hospital che aveva un’affiliazione con l’Università dell’Australia Occidentale. Lavorava con pochi contatti col resto del personale e trascorreva buona parte del proprio tempo nei sotterranei dell’ospedale, dove sezionava ed esaminava cadaveri.
    Una decina di anni dopo, all’inizio degli anni Ottanta, Marshall aveva iniziato a lavorare nello stesso ospedale, ma nel reparto di gastroenterologia. Per il suo programma di formazione avanzata, Marshall era stato incoraggiato a svolgere un lavoro di ricerca e gli era stato suggerito di parlare con Warren, che qualche tempo prima aveva identificato con sua sorpresa un batterio nelle analisi (biopsie) di alcune mucose dello stomaco. In precedenza poche ricerche avevano segnalato la presenza di batteri nello stomaco e all’epoca si riteneva, come del resto da secoli, che per un batterio fosse impossibile sopravvivere alla forte acidità dei succhi gastrici e in particolare dell’acido cloridrico.
    Tutto ciò che ingeriamo passa attraverso lo stomaco e viene scomposto dall’acido cloridrico presente al suo interno, fondamentale per far sì che le sostanze nutrienti possano essere assimilate nel passaggio successivo dall’intestino. Per non digerire anche sé stesso, lo stomaco si protegge dall’acido cloridrico grazie a una sostanza composta da muco e bicarbonato prodotta dalle cellule gastriche, che neutralizza l’effetto dell’acido quando questo entra in contatto con le sue pareti. Se la quantità di acido aumenta o i tessuti dello stomaco sono infiammati, la barriera non è sufficiente e si possono produrre delle ulcere, cioè ferite simili a piaghe che provocano una sensazione di bruciore che si presenta in vari momenti della giornata in base alla pienezza dello stomaco.
    (Wikimedia)
    A seconda dei casi, un’ulcera può causare sintomi lievi e intermittenti, anche a distanza di giorni o settimane, oppure più gravi e che richiedono un rapido intervento nel caso in cui ci sia una perforazione dello stomaco. In questa circostanza il contenuto dello stomaco si riversa nella cavità addominale e può provocare una grave infiammazione dei peritoneo, il rivestimento interno dell’addome. Se il problema non viene trattato per tempo e adeguatamente si può avere una diffusione dell’infezione che può rivelarsi mortale.
    Per moltissimo tempo le cause delle gastriti e delle ulcere furono un mistero. Si riteneva che le principali cause fossero il consumo di alcolici, il fumo, lo stress, i cibi piccanti e altre abitudini alimentari, insieme a una certa predisposizione di alcune persone. Nel periodo in cui Warren e Marshall iniziarono a lavorare insieme, le terapie erano orientate a ridurre i sintomi, con la prescrizione di farmaci per tenere sotto controllo la produzione dei succhi gastrici e l’acidità dello stomaco. Non funzionavano sempre: quando il problema sembrava essere risolto, si ripresentava dopo qualche tempo e nei casi di ulcera più gravi si rendevano necessari interventi chirurgici invasivi e rischiosi.
    Warren aveva analizzato le biopsie di alcuni pazienti con mal di stomaco e le aveva mostrate a Marshall, dicendogli che in più di venti casi aveva rilevato la presenza di un’infezione batterica. Marshall aveva allora messo in relazione le biopsie con le cartelle cliniche di quei pazienti, notando che alcuni avevano ricevuto una diagnosi di ulcera allo stomaco, ulcera al duodeno (la parte iniziale dell’intestino tenue) o gastriti di varie entità. Sembrava esserci una relazione tra la presenza di quel batterio e le diagnosi, ma i dati erano carenti e soprattutto sembravano andare contro il dogma dello stomaco inospitale alla vita dei batteri.
    Grazie alla collaborazione dei medici del reparto di gastroenterologia e di microbiologia dell’ospedale, Warren e Marshall iniziarono a raccogliere altre biopsie e ad analizzarle trovando quasi sempre l’infezione batterica, ma senza riuscire a isolare e coltivare i batteri in laboratorio per avere colonie più grandi da analizzare e capire l’eventuale ruolo nelle ulcere. Alla fine del 1981 alcuni colleghi consigliarono ai due ricercatori di passare a un approccio più sistematico, organizzando uno studio clinico vero e proprio con tutti i criteri del caso per valutare andamenti e variabili.
    John Robin Warren e Barry Marshall nel 1984 (via ResearchGate)
    In pochi mesi, Warren e Marshall organizzarono uno studio che avrebbe coinvolto cento persone. L’obiettivo era di capire se il batterio fosse presente normalmente nello stomaco, se fosse possibile coltivarlo e se la sua presenza potesse essere messa in relazione con le gastriti e le ulcere. Parallelamente, sarebbero proseguiti i tentativi di coltivare il batterio in laboratorio, forse l’obiettivo più difficile dell’intera ricerca.
    Trattandosi di un batterio presente nell’apparato digerente, il gruppo di ricerca aveva pensato che potesse ricevere il medesimo trattamento dei campioni di feci o derivati dai tamponi orali. I campioni venivano di solito messi su una piastra di Petri (il classico recipiente di vetro da laboratorio simile a un piattino) e se dopo 48 ore non erano osservabili particolari microrganismi, segno dell’avvenuta formazione di una colonia, il test era negativo e si gettava via tutto. Seguendo un approccio simile, dai campioni ottenuti con le biopsie non si era mai riusciti a ottenere una colonia del batterio nello stomaco. Almeno fino a quando fu Pasqua del 1982.
    Nei giorni prima del fine settimana lungo pasquale i tecnici di laboratorio del Royal Perth Hospital avevano dovuto dedicare buona parte del loro tempo a una quantità crescente di infezioni da stafilococco nell’ospedale, trascurando altre attività di ricerca. Una piastra di Petri preparata per tentare l’ennesima coltura di batteri da una biopsia allo stomaco era finita nel dimenticatoio nel weekend lungo di Pasqua che comprendeva il lunedì dell’Angelo, cioè il giorno di Pasquetta. Al loro ritorno il martedì, i tecnici notarono che sulla piastra dimenticata si era formato un sottile strato trasparente: era la colonia di batteri che non erano mai riusciti a ottenere prima e che avrebbe offerto a Marshall e Warren nuovi elementi per la loro ricerca.
    Poche settimane dopo fu completato lo studio e i risultati apparvero da subito molto solidi. Tra i cento volontari sottoposti a endoscopia (cioè a un esame che con un tubo fatto passare per l’esofago permette di esplorare lo stomaco e raccoglierne piccoli pezzi da analizzare) 65 avevano ricevuto una diagnosi di gastrite e c’era una forte associazione tra la loro condizione e la presenza del batterio. Questo era stato trovato in tutti i pazienti con un’ulcera al duodeno e nell’80 per cento di chi aveva un’ulcera allo stomaco; il batterio non era invece quasi mai presente nei pazienti con ulcere causate dall’assunzione di un tipo di antinfiammatori (FANS), noti per essere aggressivi con la mucosa gastrica.
    Helicobacter pylori al microscopio elettronico (via Wikimedia)
    Nel frattempo la coltura del batterio aveva permesso di identificarne le caratteristiche e di classificarlo come Helicobacter pylori. La scoperta aveva il potenziale di cambiare radicalmente il modo in cui venivano trattate le ulcere, ma furono necessari quasi due anni prima che lo studio di Warren e Marshall venisse pubblicato nel 1984 su The Lancet, una delle più importanti e prestigiose riviste mediche al mondo. Lo studio era stato infatti accolto con grande cautela e qualche scetticismo perché di fatto metteva in dubbio le pratiche mediche seguite fino all’epoca. Un editoriale di commento scritto dai responsabili della rivista ad accompagnamento dello studio mostrava quanto non ci si volesse sbilanciare: «Se l’ipotesi degli autori sulle cause e sugli effetti dovesse dimostrarsi valida, questo lavoro si rivelerebbe sicuramente importante».
    Marshall aveva intanto proseguito alcune ricerche scoprendo che i sali di bismuto, una delle sostanze utilizzate fino ad allora nei farmaci per trattare ulcere e gastriti, erano in grado di uccidere H. pylori in vitro, cioè in esperimenti di laboratorio. Ciò spiegava probabilmente perché i pazienti traessero temporaneamente beneficio dall’assunzione di quei farmaci, anche se il trattamento non consentiva di eliminare tutte le colonie di batteri e di conseguenza dopo un po’ di tempo si ripresentava l’infiammazione allo stomaco. L’aggiunta alla terapia di metronidazolo, un antibiotico, eliminava invece il rischio di una recidiva a conferma del ruolo del batterio nelle gastriti e nelle ulcere.
    Gli esiti di quei test erano emersi mentre Warren e Marshall erano ancora in attesa della pubblicazione del loro studio. Marshall pensò che una dimostrazione più chiara avrebbe vinto gli scetticismi, ma non riuscendo a riprodurre efficacemente le circostanze in un modello animale fece una proposta a Warren: bere una soluzione contenente H. pylori per verificare in prima persona i suoi effetti sullo stomaco. Warren non ritenne fosse il caso, come raccontò in seguito: «Quell’idea non mi piacque per niente. Penso di avergli detto “no” e basta».
    Marshall non si scoraggiò e bevve la soluzione, dopo essersi sottoposto a un esame per sincerarsi di non avere già un’infezione da H. pylori. Per cinque giorni non ebbe sintomi, poi iniziò a sviluppare una gastrite, accompagnata da nausea, persistente alitosi e rigurgiti di succhi gastrici. A dieci giorni dall’assunzione, una nuova biopsia indicò una gastrite acuta e una forte infezione batterica allo stomaco. Dopo due settimane i sintomi iniziarono a diminuire, ma Adrienne, la moglie di Marshall esasperata dal pessimo alito del marito, lo esortò ad assumere immediatamente gli antibiotici minacciando di: «Sbatterlo fuori di casa e farlo dormire sotto a un ponte».
    L’esperimento dimostrò ancora una volta il ruolo di H. pylori, ma non fu un particolare acceleratore nel cambiamento delle terapie. Dalla pubblicazione dello studio su Lancet nel 1984 passarono poi circa dieci anni prima che i trattamenti per l’ulcera venissero modificati, con il ricorso agli antibiotici come per qualsiasi altra infezione batterica. Uno dei rappresentanti delle autorità di controllo sanitarie negli Stati Uniti, commentò i nuovi protocolli nel 1994: «Ora c’è la possibilità di curare questa condizione, una cosa impensata prima. Abbiamo trattato le ulcere con sostanze per ridurre le secrezioni di succhi gastrici per così tanti anni da diventare difficile accettare che un germe, un batterio, potesse causare una malattia di quel tipo».
    La prescrizione degli antibiotici fu affiancata a quella di altri farmaci per ridurre temporaneamente la produzione dei succhi gastrici, in modo da consentire alle mucose dello stomaco di guarire. Per la diagnosi da infezione da H. pylori fu poi sviluppato un “breath test”, un semplice esame che consiste nel soffiare in una provetta per verificare la presenza del batterio.
    John Robin Warren e Barry Marshall durante la cerimonia di consegna dei Premi Nobel a Stoccolma, in Svezia, nel 2005 (REUTERS/Pawel Kopczynski)
    Warren e Marshall avevano realizzato una delle più grandi scoperte nella scienza medica del Novecento, sempre restando fedeli al metodo scientifico e alla condivisione dei loro studi con altri esperti. Partirono dai dati e dalle prove raccolte con i metodi della ricerca per provare le loro ipotesi, e non il contrario, come fa spesso chi sostiene di avere una nuova cura miracolosa che non viene accettata dal “sistema” o “dai poteri forti”. I loro studi furono la base per molte altre ricerche che continuano ancora oggi, soprattutto per comprendere il ruolo che hanno alcune infiammazioni croniche all’apparato digerente nello sviluppo di alcuni tipi di tumori.
    Robin Warren è morto il 23 luglio 2024 a Perth, in Australia: aveva 87 anni. In una mattina d’autunno di diciannove anni prima aveva ricevuto una telefonata da Stoccolma con la quale gli veniva annunciata l’assegnazione del Premio Nobel per la Medicina insieme a Marshall: «Per la loro scoperta del batterio Helicobacter pylori e il suo ruolo nelle gastriti e nelle ulcere gastriche». LEGGI TUTTO

  • in

    In Europa centrale alluvioni come quelle di settembre sono diventate più probabili

    Caricamento playerLe piogge intense che tra il 12 e il 15 settembre hanno causato esondazioni dei fiumi e grossi danni tra la Polonia e la Repubblica Ceca, in Austria e in Romania sono state eccezionali perché hanno interessato una regione molto vasta dell’Europa centrale. Un’analisi preliminare delle statistiche meteorologiche continentali indica che la probabilità che si verifichino fenomeni del genere è raddoppiata a causa del cambiamento climatico in atto.
    Lo studio è stato fatto dal World Weather Attribution (WWA), un gruppo di ricerca che riunisce scienziati esperti di clima che lavorano per diversi autorevoli enti di ricerca del mondo e che collaborano – a titolo gratuito – affinché ogni volta che si verifica un evento meteorologico estremo particolarmente disastroso la comunità scientifica possa dare una risposta veloce alla domanda “c’entra il cambiamento climatico?”. Nel caso delle recenti alluvioni in Europa centrale, che hanno causato la morte di 26 persone, ci sono larghi margini di incertezza ma il gruppo di ricerca ha concluso che un ruolo del cambiamento climatico ci sia.
    Il WWA, creato nel 2015 da Friederike Otto e Geert Jan van Oldenborgh, pratica quella branca della climatologia relativamente nuova che è stata chiamata “scienza dell’attribuzione”: indaga i rapporti tra il cambiamento climatico ed eventi meteorologici specifici, una cosa più complicata di quello che si potrebbe pensare. Per poter dare risposte in tempi brevi, gli studi del WWA sono pubblicati prima di essere sottoposti al processo di revisione da parte di altri scienziati competenti (peer review) che nella comunità scientifica garantisce il valore di una ricerca, ma che richiederebbe mesi o anni di attesa. Tuttavia i metodi usati dal WWA sono stati certificati come scientificamente affidabili proprio da processi di peer review e i più di 50 studi di attribuzione che ha realizzato finora sono poi stati sottoposti alla stessa verifica e pubblicati su riviste scientifiche senza grosse modifiche.

    – Leggi anche: Come mai Vienna non è finita sott’acqua

    Le alluvioni di metà settembre in Europa centrale sono state causate dalla tempesta Boris che poi ha provocato esondazioni anche in alcune zone della Romagna e dell’Emilia orientale. Le misurazioni della quantità di acqua piovuta in un giorno nel corso del fenomeno hanno fatto registrare dei record in varie località. Per verificare se fosse possibile ricondurre il fenomeno al cambiamento climatico causato dalle attività umane gli scienziati del WWA hanno confrontato le misure delle precipitazioni dei giorni in cui complessivamente è piovuto di più, quelli tra il 12 e il 15 settembre, con le statistiche sulle precipitazioni massime annuali su archi di quattro giorni.
    Hanno anche utilizzato le simulazioni climatiche, cioè programmi simili a quelli usati per le previsioni del tempo che mostrano quali eventi meteorologici potrebbero verificarsi in diversi scenari climatici futuri.
    Le conclusioni dello studio dicono che il cambiamento climatico non ha reso più probabili tempeste con caratteristiche generali analoghe a quelle di Boris (che sono piuttosto rare e di cui questa è stata la più intensa mai registrata), ma che in generale quattro giorni consecutivi piovosi come quelli che ci sono stati sono diventati più probabili in Europa centrale rispetto all’epoca preindustriale. Hanno anche stimato che la quantità di pioggia di tali eventi sia aumentata del 10 per cento, da allora. Secondo i modelli climatici basati su un ulteriore aumento delle temperature medie globali, di 2 °C rispetto all’epoca preindustriale invece che degli attuali 1,3 °C, in futuro sia la probabilità che l’intensità di questi eventi aumenterà ancora.
    Lo studio ricorda che comunque i danni delle alluvioni recenti sono dovuti anche allo scarso adattamento delle infrastrutture fluviali a eventi meteorologici estremi rispetto alle statistiche storiche. Tuttavia è stato anche osservato che rispetto a grandi alluvioni passate la situazione di emergenza probabilmente è stata gestita meglio: nel 2002 morirono 232 persone quando vaste aree dell’Austria, della Germania, della Repubblica Ceca, della Romania, della Slovacchia e dell’Ungheria furono interessate da un’alluvione, e nel 1997 ci furono almeno 100 morti per un’alluvione più ridotta in Germania, Polonia e Repubblica Ceca. Ancora nel luglio del 2021, la grande alluvione in Germania e Belgio causò la morte di più di 200 persone.
    In generale, la climatologia ha mostrato che il riscaldamento globale ha reso e renderà più frequenti le alluvioni, ma questo non vale per tutte le parti del mondo. In altre zone si prevede invece un aumento della frequenza di altri fenomeni meteorologici estremi, come le siccità. In certe parti del mondo inoltre è prevista una più alta frequenza di alluvioni in una specifica stagione dell’anno e meno precipitazioni nelle altre: l’Italia ad esempio ha un territorio morfologicamente complesso e diverso nelle sue parti, per cui le conseguenze del riscaldamento globale potrebbero essere diverse da regione a regione.

    – Leggi anche: Gli abitanti di Borgo Durbecco devono rifare tutto, di nuovo LEGGI TUTTO

  • in

    Che cos’è una “mini luna”

    Caricamento playerA partire dal prossimo 29 settembre e fino al 25 novembre un piccolo asteroide in orbita intorno al Sole sarà temporaneamente catturato dalla gravità terrestre, un evento astronomico piuttosto raro, ma che non costituirà nessun pericolo per la Terra paragonabile a quelli del film Armageddon. L’asteroide è stato definito una “mini luna” visto che avrà per qualche tempo un comportamento simile alla nostra Luna, ma l’indicazione non ha convinto tutti ed è dibattuta tra gli esperti e i semplici appassionati di astronomia.
    Il nome con cui è stato catalogato l’asteroide è “2024 PT5“, con un riferimento all’anno in cui è stato osservato per la prima volta. Sappiamo infatti della sua esistenza da poco, considerato che la scoperta risale al 7 agosto scorso, quando ne fu rilevata la presenza dall’Asteroid Terrestrial-impact Last Alert System, uno dei principali programmi di ricerca di asteroidi per tenere sotto controllo quelli che potrebbero un giorno avvicinarsi troppo alla Terra.
    Stando ai dati raccolti finora, 2024 PT5 ha un diametro massimo di 11 metri e dovrebbe appartenere al gruppo degli asteroidi Arjuna, un sottogruppo degli asteroidi Apollo (la classificazione è ancora un po’ confusa), la cui caratteristica principale è di orbitare intorno al Sole con modalità simili a quelle della Terra. Date le sue dimensioni, 2024 PT5 non può essere osservato né a occhio nudo né con telescopi di piccole dimensioni, ma la sua osservazione con strumentazioni più potenti permetterà di comprendere qualcosa di più su questo tipo di asteroidi e soprattutto sulle interazioni gravitazionali con il nostro pianeta e il Sole.

    In generale, qualsiasi corpo celeste che orbita stabilmente e in modo identificabile intorno a un pianeta può essere considerato una luna. Le definizioni possono variare molto, ma c’è un certo consenso su alcuni corpi celesti che sono decisamente satelliti naturali, come la nostra Luna oppure ancora Ganimede, Io ed Europa, per citare alcune delle lune di Giove, il pianeta più grande del sistema solare. Sulle “mini lune” le cose sono più complicate, per la difficoltà di identificarle con certezza e di calcolare le loro orbite.
    Tra le definizioni più condivise c’è quella per cui un corpo celeste (come un asteroide o una cometa) che viene catturato temporaneamente dalla gravità di un pianeta può essere definito una mini luna, ma ci sono poi ulteriori distinzioni che aggiungono qualche complicazione. Nel caso della Terra, una mini luna può essere definita un satellite naturale temporaneo se effettua almeno un’orbita completa intorno al pianeta prima di tornare a girare intorno al Sole. Nel caso in cui non effettui un giro completo, molti preferiscono la definizione di “oggetto temporaneo che ha effettuato un passaggio ravvicinato al pianeta”.
    2024 PT5 rientra in questa seconda categoria perché nei prossimi due mesi effettuerà una sorta di passaggio a ferro di cavallo, senza realizzare un’orbita completa propriamente detta intorno alla Terra. Per questo motivo non tutti sono convinti che la definizione di mini luna sia calzante, anche se aiuta a rendere l’idea di cosa farà l’asteroide e soprattutto dell’assenza di pericoli per il nostro pianeta e noi che lo abitiamo.
    Nella maggior parte dei casi le mini lune sono troppo piccole per poter essere rilevate con gli attuali strumenti, ma alcune hanno le giuste dimensioni per farsi notare, talvolta casualmente considerata la vastità dello Spazio e la difficoltà nell’identificare corpi celesti con orbite sconosciute. Per questo 2024 PT5 è il quinto oggetto di questo tipo a essere mai stato identificato con un buon margine di affidabilità nel corso delle osservazioni.
    1991 VG osservata dal Very Large Telescope (Osservatorio europeo australe, ESO)
    1991 VG fu la prima mini luna a essere scoperta nel nostro vicinato cosmico: venne a farci visita tra la fine del 1991 e i primi mesi del 1992. Nel 2006 fu invece osservata la presenza di 2006 RH120: inizialmente considerato un oggetto artificiale come un detrito spaziale, fu invece confermato come una mini luna di meno di 7 metri di diametro che rimase nei paraggi della Terra per circa un anno tra l’estate del 2006 e quella dell’anno successivo. Nel 2020 fu invece scoperto un altro corpo celeste che rimase in orbita intorno al nostro pianeta per più di due anni, diventando la mini luna più longeva tra quelle osservate e confermate.
    La disponibilità di nuovi sistemi di osservazione ha negli anni permesso di effettuare rilevazioni più precise, ma ci sono stati comunque alcuni errori che nel tempo hanno spinto a maggiori cautele. Nel 2002 si pensò di avere identificato una nuova mini luna, ma analisi più approfondite indicarono che ciò che era stato osservato era con ogni probabilità un detrito spaziale. Si ritiene che quell’oggetto altro non fosse che il terzo stadio di un Saturn V, il grande razzo impiegato in più versioni tra la fine degli anni Sessanta e i primi Settanta per il programma lunare statunitense Apollo.
    Un Saturn V di prova durante il trasporto verso la rampa di lancio a Cape Canaveral, Florida, nel 1966 (NASA)
    I dati raccolti negli ultimi decenni hanno inoltre permesso di produrre modelli e simulazioni per stimare quanti possano essere i corpi celesti che finiscono in orbita intorno alla Terra, seppure temporaneamente. Alcune analisi hanno segnalato che c’è probabilmente sempre almeno un corpo celeste con diametro massimo inferiore al metro intorno al pianeta. Le loro dimensioni sono tali da rendere molto difficile un’osservazione diretta e per questo passano quasi sempre inosservati.
    L’osservazione di che cosa abbiamo intorno è comunque fondamentale per identificare per tempo asteroidi di grandi dimensioni che, per via della loro traiettoria, potrebbero costituire un pericolo per la Terra. Vengono definiti Near Earth Object (NEO) e sono tenuti sotto controllo nella possibilità molto remota che un giorno si scontrino con il nostro pianeta. A oggi sono stati catalogati circa 34mila NEO, ma nessuno tra quelli noti costituisce un pericolo diretto per la Terra. Questo non significa che ce ne possano essere altri che non abbiamo ancora scoperto e che un giorno potrebbero causare problemi.
    L’asteroide Vesta è tra i più massicci della fascia principale e ha un diametro massimo di circa 500 chilometri, non è un NEO (NASA)
    Gli asteroidi sono i resti del lungo processo che rese possibile la formazione del nostro sistema solare, iniziato 4,5 miliardi di anni fa. Grazie anche alla gravità esercitata dal Sole, le polveri e le rocce che erano presenti in una grande porzione di Spazio iniziarono ad aggregarsi e a unirsi formando dei protopianeti. Alcuni di questi continuarono ad accumulare materiale diventando sempre più grandi e infine i pianeti che conosciamo oggi, mentre altri rimasero piccoli e si frammentarono scontrandosi tra loro. I pezzi che risultarono da quei processi sono gli asteroidi per come li conosciamo oggi.
    La maggior parte di loro mantiene orbite stabili e relativamente regolari nella cosiddetta “fascia principale”, una grande porzione di Spazio tra Marte e Giove. A volte al suo interno avvengono collisioni che portano alcuni asteroidi ad abbandonare la fascia e a collocarsi in orbite intorno al Sole che potrebbero incrociare quella terrestre. Identificarli e soprattutto calcolarne con precisione l’orbita non è però semplice e per questo i NEO sono sorvegliati con attenzione. LEGGI TUTTO

  • in

    È cominciato l’autunno

    Caricamento playerAlle 14:43 di domenica 22 settembre è finita l’estate ed è iniziato l’autunno: in quel momento preciso c’è stato l’equinozio d’autunno, ovvero l’istante in cui il Sole si trova allo zenit dell’equatore della Terra, cioè esattamente sopra la testa di un ipotetico osservatore che si trovi in un punto specifico sulla linea dell’equatore. Spesso si parla dell’equinozio come di un giorno intero ma tecnicamente è scorretto, perché indica solo l’istante preciso in cui si verifica un fenomeno astronomico. E l’ora in cui avviene quell’istante cambia ogni anno.
    Visto che di anno in anno l’equinozio d’autunno può essere in giorni diversi, le stagioni non cambiano sempre lo stesso giorno. Il giorno dell’equinozio d’autunno ha comunque una caratteristica particolare: è uno dei due soli giorni all’anno in cui il dì ha la stessa durata della notte, anche se poi non è esattamente così a causa di alcune interazioni della luce con l’atmosfera terrestre. L’altro è l’equinozio di primavera.
    Come funzionano gli equinoziL’inizio delle stagioni è scandito da eventi astronomici precisi: l’estate e l’inverno cominciano con i solstizi, in cui le ore di luce del giorno sono al loro massimo (estate) o al loro minimo (inverno); la primavera e l’autunno invece cominciano il giorno degli equinozi, i momenti in cui la lunghezza del giorno è uguale a quella della notte.
    Tuttavia, oggi in Italia il giorno sarà ancora un po’ più lungo della notte per qualche minuto e la vera parità tra dì e notte sarà tra qualche giorno. Questo si deve a un fenomeno chiamato “rifrazione atmosferica”, per cui la luce del Sole è curvata dall’atmosfera: è quella cosa per cui vediamo il Sole qualche minuto prima che sorga effettivamente.

    – Leggi anche: Perché d’autunno cadono le foglie

    Gli equinozi e i solstizi (e le durate del dì e della notte) sono determinati dalla posizione della Terra nel suo moto di rivoluzione intorno al Sole, cioè il movimento che il nostro pianeta compie girando intorno alla sua stella di riferimento. L’equinozio è il momento in cui il Sole si trova all’intersezione del piano dell’equatore celeste (la proiezione dell’equatore sulla sfera celeste) e quello dell’eclittica (il percorso apparente del Sole nel cielo). Al solstizio invece il Sole a mezzogiorno è alla massima o minima altezza rispetto all’orizzonte.
    Le variazioni del momento in cui avvengono equinozi e solstizi sono causate dalla diversa durata dell’anno solare e di quello del calendario (è il motivo per cui esistono gli anni bisestili, che permettono di rimettere “in pari” i conti).
    In Italia la primavera cade tra il 20 e il 21 marzo, l’estate tra il 20 e il 21 giugno, l’autunno tra il 22 e il 23 settembre, l’inverno tra il 21 e il 22 dicembre. Oltre alle stagioni astronomiche, poi, ci sono anche quelle meteorologiche: iniziano in anticipo di una ventina di giorni rispetto a solstizi ed equinozi, e durano sempre tre mesi. Indicano con maggiore precisione i periodi in cui si verificano le variazioni climatiche annuali, specialmente alle medie latitudini con climi temperati.
    Il momento dell’equinozio non c’entra con quello del cambio dell’ora, che quest’anno andrà spostata indietro nella notte tra sabato 26 e domenica 27 ottobre.

    – Leggi anche: La scomparsa dell’autunno LEGGI TUTTO

  • in

    C’è molta confusione su un trattamento per prevenire la bronchiolite

    Caricamento playerNegli ultimi giorni si è generata molta confusione intorno al nirsevimab, un anticorpo monoclonale contro il virus respiratorio sinciziale umano (VRS) – una delle cause delle bronchioliti nei bambini con meno di un anno – noto con il nome commerciale Beyfortus. In un primo momento il ministero della Salute aveva ribadito che la spesa per il nirsevimab è a carico dei cittadini salvo diverse decisioni delle Regioni (con limiti per quelle con i conti sanitari non in ordine), ma in un secondo momento è stata diffusa una nota che annuncia l’avvio dei confronti necessari con l’Agenzia italiana del farmaco (AIFA) per renderlo accessibile a tutti gratuitamente. Una decisione definitiva non è stata ancora presa, lasciando molti dubbi a chi vorrebbe sottoporre i propri figli al trattamento in vista della stagione fredda in cui il virus circola di più.
    Il VRS è un virus piuttosto diffuso e come quelli dell’influenza ha una maggiore presenza tra novembre e aprile. Nelle persone adulte in salute non dà sintomi particolarmente rilevanti (è più insidioso negli anziani e nei soggetti fragili), ma può essere pericoloso nei bambini con meno di un anno di età. È infatti una delle cause principali della bronchiolite, una malattia respiratoria che può comunque avere diverse altre cause virali (coronavirus, virus influenzali, rhinovirus e adenovirus, per citarne alcuni).
    L’infiammazione nelle vie respiratorie riguarda i bronchi e i bronchioli, le strutture nei polmoni che rendono possibile il trasferimento di ossigeno al sangue e la rimozione dell’anidride carbonica: fa aumentare la produzione di muco che insieme ad altri fattori può portare a difficoltà respiratorie. Nella maggior parte dei casi l’infezione passa entro una decina di giorni senza conseguenze, ma possono esserci casi in cui la malattia peggiora. Negli ultimi anni alcuni studi hanno rilevato una maggiore quantità di casi gravi associati ad alcune varianti del VRS, che hanno reso necessario il ricovero dei bambini in ospedale e in alcuni casi in terapia intensiva.
    Le infezioni da VRS si prevengono con gli accorgimenti solitamente impiegati per altre malattie virali, quindi evitando il contatto con persone che hanno un’infezione in corso, lavandosi le mani e aerando regolarmente gli ambienti in cui si vive. A queste forme di prevenzione da qualche tempo si è aggiunta la possibilità di ricorrere a un trattamento con anticorpi monoclonali, cioè anticorpi simili a quelli che produce il nostro sistema immunitario, ma realizzati con tecniche di clonazione in laboratorio. Il loro impiego consente di avere a disposizione direttamente gli anticorpi, senza che questi debbano essere prodotti dal sistema immunitario dopo aver fatto conoscenza con un virus.
    Il nirsevimab fa esattamente questo, in modo che un bambino che lo riceve abbia gli anticorpi per affrontare il VRS riducendo il rischio di ammalarsi. Il trattamento non è un vaccino, che svolge invece una funzione diversa e cioè stimolare la produzione degli anticorpi; anche per questo motivo il trattamento è piuttosto costoso (contro il VRS esiste al momento un solo vaccino, il cui uso non è però consentito nei bambini).
    Il nirsevimab è stato autorizzato nell’Unione Europea nel 2022 e viene venduto come Beyfortus dall’azienda farmaceutica Sanofi, che lo ha sviluppato insieme ad AstraZeneca, e inizia a essere sempre più impiegato per fare prevenzione in paesi come la Francia e la Spagna dove è fornito gratuitamente. La sua somministrazione permette di fornire una maggiore protezione ai bambini con meno di un anno che vivono la loro prima stagione di alta circolazione del VRS. È  pensato per tutelarli nel periodo in cui sono esposti a qualche rischio in più perché ancora molto piccoli, poi crescendo non è più necessario.
    A inizio anno la Società italiana di neonatologia (SIN) aveva segnalato che il nirsevimab: «Ha una lunga emivita [durata nell’organismo, ndr] ed è in grado con una sola somministrazione di proteggere il bambino per almeno 5 mesi riducendo del 77 per cento le infezioni respiratorie da VRS che richiedono ospedalizzazione e dell’86 per cento il rischio di ricovero in terapia intensiva». La SIN segnalava inoltre che un impiego su larga scala del nirsevimab avrebbe permesso di ridurre i costi sanitari rispetto all’impiego di altri anticorpi monoclonali e di contenere le spese dovute ai ricoveri ospedalieri, per i ricoveri dei bambini che sviluppano forme gravi della malattia. Per questo motivo invitava il ministero della Salute e le Regioni, che mantengono ampie autonomie nelle politiche sanitarie, a considerare una revisione delle regole di accesso al trattamento.
    A oggi il nirsevimab è infatti compreso nei farmaci di “fascia C”, quindi a carico di chi li acquista, e ha un prezzo base al pubblico indicato dal produttore di 1.150 euro (importo che potrebbe essere più basso a seconda delle contrattazioni con i servizi sanitari regionali). Questa classificazione fa sì che le Regioni non possano utilizzare per il suo acquisto i fondi che ricevono dallo Stato per la gestione della sanità nei loro territori: hanno però la facoltà di offrirlo gratuitamente se finanziano l’iniziativa con altri fondi previsti nei loro bilanci. È una pratica che viene seguita spesso, ma con alcune limitazioni legate alla necessità di evitare che le Regioni non sforino troppo rispetto alle loro previsioni di spesa.
    Oltre a essere in “fascia C”, il nirsevimab non è compreso nel Piano nazionale prevenzione vaccinale ed è quindi un extra rispetto ai Livelli essenziali di assistenza (LEA), le prestazioni che il Servizio sanitario nazionale deve obbligatoriamente fornire a tutti i cittadini gratuitamente o con il pagamento di un ticket.
    In vista della stagione fredda, negli ultimi mesi alcune Regioni avevano annunciato di voler fornire il nirsevimab senza oneri per i pazienti, portando il ministero della Salute a diffondere una circolare il 18 settembre per ricordare le regole di finanziamento di queste iniziative. Oltre a segnalare la necessità di fornire il trattamento attingendo a fondi diversi da quelli sanitari regionali, il ministero aveva ricordato che «le regioni in piano di rientro dal disavanzo sanitario», cioè le regioni senza i conti a posto, «non possono, ad oggi, garantire la somministrazione dell’anticorpo monoclonale».
    La limitazione riguardava quindi Lazio, Abruzzo, Molise, Campania, Calabria, Puglia e Sicilia e portava di fatto a una disparità di trattamento per gli abitanti di queste regioni rispetto alle altre. La circolare aveva fatto discutere, soprattutto tra i genitori di bambini con meno di un anno ancora in attesa di capire se poter accedere o meno gratuitamente al trattamento, a ridosso dell’inizio della stagione di maggiore circolazione del VRS.
    In seguito alle proteste e alle polemiche il 19 settembre, quindi appena un giorno dopo la pubblicazione della circolare del ministero della Salute, la responsabile del Dipartimento della prevenzione, Maria Rosaria Campitiello, ha diffuso una nota con la quale ha annunciato l’avvio di un confronto con l’AIFA per rivedere le regole di accesso al nirsevimab per renderlo non a carico: «È nostra intenzione rafforzare le strategie di prevenzione e immunizzazione universale a tutela dei bambini su tutto il territorio nazionale, garantendo a tutte le regioni la somministrazione dell’anticorpo monoclonale senza oneri per i pazienti».
    Nella nota non sono però indicati tempi o modalità del confronto, che secondo diversi osservatori arriva comunque in ritardo considerato l’avvicinarsi del periodo in cui la diffusione di VRS ha il proprio picco. Il Board del calendario per la vita, iniziativa che comprende le federazioni dei medici e dei pediatri, aveva già raccomandato a inizio 2023 l’impiego del nirsevimab il prima possibile: «Nell’imminenza della autorizzazione all’immissione in commercio, auspicano che venga prontamente riconosciuta la novità anche in termini regolatori di nirsevimab, considerando la sua classificazione non quale presidio terapeutico (come sempre avvenuto per gli anticorpi monoclonali) ma preventivo, nella prospettiva dell’inserimento nel Calendario Nazionale di Immunizzazione». Nel caso di una fornitura non a carico il prezzo del trattamento dovrà essere contrattato con Sanofi, una procedura che richiede tempi che variano molto a seconda dei casi. LEGGI TUTTO

  • in

    Perché è piovuto così tanto, sull’Europa e non solo

    Caricamento playerL’alluvione in Emilia-Romagna è solo uno degli effetti più recenti della tempesta Boris, che nell’ultima settimana ha causato grandi danni in vaste aree dell’Europa centrale, dalla Romania all’Austria, dove si stima siano morte circa 20 persone. Non è insolito che tra la fine dell’estate e l’inizio dell’autunno ci siano giornate piovose, ma l’intensità delle piogge e la presenza di altre forti perturbazioni nelle settimane scorse in altre aree dell’emisfero boreale (il nostro) sono un’ulteriore indicazione di come stia cambiando il clima, soprattutto a causa del riscaldamento globale. Oltre all’intensità, le tempeste sono sempre più frequenti e ci dovremo confrontare con i loro costosi effetti, in tutti i termini.
    Attribuire con certezza un singolo evento atmosferico al riscaldamento globale non è semplice, soprattutto per l’alto numero di variabili coinvolte. I gruppi di ricerca mettono a confronto ciò che è accaduto in un determinato periodo di tempo con cosa ci si sarebbe dovuti attendere (basandosi sulle simulazioni e sui modelli riferiti ai dati delle serie storiche) e a seconda delle differenze e di altri fattori indicano quanto sia probabile che un certo evento sia dipeso dal cambiamento climatico. Questi studi di attribuzione richiedono tempo per essere effettuati e non sono quindi ancora disponibili per Boris, ma le caratteristiche della tempesta rispetto a quanto osservato in passato e la presenza di altre grandi perturbazioni tra Stati Uniti, Africa e Asia stanno già fornendo qualche indizio.
    La tempesta Boris si è per esempio formata alla fine dell’estate più calda mai registrata sulla Terra, secondo i dati raccolti dal Climate Change Service di Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa dell’osservazione satellitare e dello studio del nostro pianeta. L’estate del 2024 è stata di 0,69 °C più calda rispetto alla media del periodo 1991-2020 e ha superato di 0,03 °C il record precedente, che era stato stabilito appena l’estate precedente (il 2023 è stato l’anno più caldo mai registrato).
    Le temperature estive particolarmente alte hanno contribuito a produrre una maggiore evaporazione in alcune grandi masse d’acqua come il mar Mediterraneo e il mar Nero, con la produzione di fronti di aria umida provenienti da sud che si sono mescolati con l’aria a una temperatura inferiore proveniente dal Nord Europa. L’incontro tra queste masse di aria con temperatura e umidità differenti hanno favorito la produzione dei sistemi nuvolosi che hanno poi portato le grandi piogge dell’ultima settimana nell’Europa centrale e negli ultimi giorni in parte del versante adriatico dell’Italia.
    Un allagamento provocato dall’esondazione del fiume Lamone a Bagnacavallo (Fabrizio Zani/ LaPresse)
    La piogge sono state persistenti e la perturbazione si è dissipata lentamente a causa della presenza di due aree di alta pressione – solitamente associata al bel tempo – che l’hanno circondata sia a est sia a ovest, rendendo più lenti i movimenti lungo i suoi margini. Non è un fenomeno di per sé insolito, ma in questo caso particolare ha interessato un’area geografica molto ampia per diversi giorni, portando forti piogge su fiumi e laghi e saturando il terreno, con la conseguente formazione di grandi alluvioni.
    Le analisi condotte finora hanno evidenziato condizioni nell’atmosfera che hanno interessato la corrente a getto che fluisce da est a ovest. Le correnti a getto possono essere considerate come dei grandi fiumi d’aria che attraversano l’atmosfera e, proprio come i corsi d’acqua, possono produrre anse e rientranze che determinano i cambiamenti nella direzione del vento e dei movimenti delle nuvole. Grandi zone di alta e bassa pressione hanno deviato sensibilmente la corrente a getto, riducendo la mobilità di alcune masse d’aria sopra l’Europa e altre aree del nostro emisfero.

    È possibile che tra i fattori che hanno determinato questa situazione ci siano ancora una volta le alte temperature dell’estate, che hanno portato gli oceani a scaldarsi più del solito. La temperatura media della superficie marina a livello globale è stata di quasi 1 °C superiore ai valori medi di riferimento del secolo scorso (in alcune zone dell’Atlantico si sono raggiunti 2,53 °C). Gli oceani accumulano energia scaldandosi ed è poi questa ad alimentare parte dei meccanismi atmosferici che portano a perturbazioni intense e spesso persistenti.
    (NOAA)
    Uno studio di attribuzione condotto sulle alluvioni di luglio 2021 in Europa, che avevano interessato soprattutto la Germania e il Belgio, aveva per esempio concluso che il riscaldamento globale causato dalle attività umane avesse reso più probabili quegli eventi atmosferici. Anche in quel caso la tempesta si era formata soprattutto in seguito all’aria calda e umida proveniente dal Mediterraneo, che da diversi anni nella stagione calda fa registrare temperature superficiali sopra la media.
    Le maggiori conoscenze sui fenomeni di questo tipo, maturate soprattutto negli ultimi anni, hanno permesso ai governi di avere informazioni più tempestive sull’evoluzione delle condizioni atmosferiche per fare prevenzione e mettere per lo meno in sicurezza la popolazione. La vastità delle alluvioni in Europa ha comportato una quantità relativamente ridotta di incidenti mortali, ma lo stesso non è avvenuto in Africa dove almeno mille persone sono morte nelle ultime settimane a causa delle forti piogge e delle alluvioni.
    Nell’Africa centrale e occidentale ci sono circa 3 milioni di sfollati a causa di una stagione delle piogge molto più intensa del solito, che secondo alcune previsioni porterà cinque volte la quantità di piogge che cadono in media a settembre nell’area. In questo caso il probabile nesso è con il progressivo aumento della temperatura media nel Sahel, l’ampia fascia di territorio che si estende da nord a sud tra il deserto del Sahara e la savana sudanese, e da ovest a est dall’oceano Atlantico al mar Rosso. Le alluvioni hanno interessato finora 14 paesi, causando grandi danni soprattutto alle piantagioni e peggiorando le condizioni già difficili di approvvigionamento di cibo per le popolazioni locali.
    Il Sahel, evidenziato in azzurro (Flockedereisbaer via Wikimedia)
    Lungo la costa orientale degli Stati Uniti forti piogge a inizio settimana hanno causato alluvioni e danni tra North Carolina e South Carolina. In alcune zone sono caduti 45 centimetri di pioggia in appena 12 ore, secondo le prime rilevazioni, che se confermate porterebbero a uno degli eventi atmosferici più estremi per quelle zone degli ultimi secoli. Le piogge sono state causate da una perturbazione che si era formata sull’Atlantico, ma senza energia sufficiente per diventare un uragano.
    Nelle ultime settimane anche in Asia ci sono state forti piogge, con un tifone che ha portato forti venti e temporali a Shanghai all’inizio della settimana, tali da rendere necessaria la sospensione dei voli aerei e l’interruzione di varie linee di servizio del trasporto pubblico in un’area metropolitana in cui vivono circa 25 milioni di persone. In precedenza c’erano state altre forti tempeste su parte della Cina, del Giappone e del Vietnam, con alluvioni, grandi danni e decine di morti.
    Naturalmente questi eventi atmosferici hanno avuto caratteristiche ed evoluzioni diverse e non sono strettamente legati l’uno all’altro, anche perché riguardano luoghi distanti tra loro e con differenti caratteristiche geografiche. In molte zone dell’emisfero boreale il passaggio dall’estate all’autunno è da sempre caratterizzato da tempeste, uragani e tifoni, ma le serie storiche e i dati raccolti indicano una maggiore frequenza di eventi estremi e con forti conseguenze per la popolazione.
    I modelli basati anche su quei dati indicano un aumento dei fenomeni di questo tipo, ma gli eventi atmosferici che si sono verificati negli ultimi anni hanno superato alcuni dei modelli più pessimistici rivelandosi quindi più estremi del previsto. La temperatura media globale è del resto di 1,29 °C superiore rispetto al periodo preindustriale, quando con le attività umane si immettevano molti meno gas serra rispetto a quanto avvenga oggi. Se questa tendenza dovesse mantenersi, e al momento non ci sono elementi per ritenere il contrario, entro la fine del 2032 si potrebbe raggiungere la soglia degli 1,5 °C decisi dall’Accordo di Parigi come limite massimo per evitare conseguenze ancora più catastrofiche legate al riscaldamento globale.
    (Copernicus)
    Già nel 2021 il Gruppo intergovernativo sul cambiamento climatico delle Nazioni Unite aveva segnalato in un proprio rapporto che: «L’impatto umano, in particolare legato alla produzione di gas serra, è probabilmente il principale fattore dell’intensificazione osservata su scala globale delle precipitazioni intense al suolo». Oltre a mostrare i primi indizi concreti sull’influenza delle attività umane per la maggiore intensificazione delle precipitazioni su Europa, Asia e Nordamerica, il rapporto aveva segnalato che le «precipitazioni diventeranno in genere più frequenti e più intense all’aumentare del riscaldamento globale». LEGGI TUTTO

  • in

    Come facciamo a calcolare la temperatura media della Terra

    Negli ultimi anni sono stati costantemente superati record di temperatura massima di vario genere: oltre alle temperature più alte mai misurate in specifiche località di varie parti del mondo, escono spesso nuovi dati che ci dicono ad esempio che un certo mese di aprile o un certo mese di giugno, o l’anno scorso, sono stati i più caldi mai registrati tenendo conto delle temperature medie mondiali. A queste notizie ci siamo forse abituati, ma forse non tutti sanno in che modo vengono calcolate le temperature medie dell’intero pianeta, una cosa tutt’altro che semplice.Giulio Betti, meteorologo e climatologo del Consiglio nazionale delle ricerche (CNR) e del Consorzio LaMMA, spesso intervistato dal Post e su Tienimi Bordone, spiega come si fa nel suo libro uscito da poco, Ha sempre fatto caldo! E altre comode bugie sul cambiamento climatico, che con uno stile divulgativo rispiega vari aspetti non banali del cambiamento climatico e smonta le obiezioni di chi nega che stia accadendo – o che sia causato dall’umanità. Pubblichiamo un estratto del libro.
    ***
    L’essere umano si è evoluto insieme alla sua più grande ossessione: misurare e quantificare qualsiasi cosa, dalle particelle subatomiche, i quark e i leptoni (10-18 metri), all’intero universo osservabile, il cui diametro è calcolato in 94 miliardi di anni luce. Si tratta di misurazioni precise e molto attendibili, alle quali si arriva attraverso l’uso di supertelescopi, come il James Webb, e di acceleratori di particelle. Cosa volete che sia, quindi, per un animale intelligente come l’uomo, nel fantascientifico 2024, ottenere una stima attendibile e verificabile della temperatura terrestre?
    Effettivamente è ormai un processo consolidato e routinario, quasi “banale” rispetto ad altri tipi di misurazioni dalle quali dipendono centinaia di processi e attività che la maggior parte di noi ignora. Ma come funziona?
    Partiamo dalla base: la rilevazione del dato termico, demandata alle mitiche stazioni meteorologiche, meglio note come centraline meteo. Queste sono disseminate su tutto il globo, sebbene la loro densità vari molto da zona a zona. In Europa e in Nord America, ad esempio, il numero di stazioni meteorologiche attive è più elevato che in altre aree, sebbene ormai la copertura risulti ottimale su quasi tutte le terre emerse.
    Quando parliamo di “stazioni meteorologiche”, infatti, ci riferiamo alle centraline che registrano temperatura e altri parametri meteorologici nelle zone continentali, mentre quelle relative ai mari utilizzano strumenti differenti e più variegati.
    I dati meteorologici su terra provengono da diversi network di stazioni, il più importante dei quali, in termini numerici, è il GHCN (Global Historical Climatology Network) della NOAA che conta circa 100.000 serie termometriche provenienti da altrettante stazioni; ognuna di esse copre diversi periodi temporali, cioè non tutte iniziano e finiscono lo stesso anno. La lunghezza delle varie serie storiche, infatti, può variare da 1 a 175 anni. Di queste 100.000 stazioni meteorologiche, oltre 20.000 contribuiscono alle osservazioni quotidiane in tempo reale; il dato raddoppia (40.000) nel caso del network della Berkeley Earth. Alla NOAA e alla Berkeley Earth si aggiungono altre reti di osservazione globale, quali il GISTEMP della NASA, il JMA giapponese, e l’HadCRUT dell’Hadley Center-University of East Anglia (UK).
    Oltre ai cinque principali network citati si aggiungono le innumerevoli reti regionali e nazionali i cui dati contribuiscono ad alimentare il flusso quotidiano diretto verso i centri globali.
    Le rilevazioni a terra, però, sono soltanto una parte delle osservazioni necessarie per ricostruire la temperatura del nostro pianeta, a queste infatti va aggiunta la componente marina, che rappresenta due terzi dell’intera superficie del mondo.
    I valori termici (e non solo) di tutti gli oceani e i mari vengono rilevati ogni giorno grazie a una capillare e fitta rete di osservazione composta da navi commerciali, navi oceanografiche, navi militari, navi faro (light ships), stazioni a costa, boe stazionarie e boe mobili.
    Parliamo, come facilmente intuibile, di decine di migliaia di rilevazioni in tempo reale che vanno ad alimentare diversi database, il più importante dei quali è l’ICOADS (International Comprehensive Ocean-Atmosphere Data Set). Quest’ultimo è il frutto della collaborazione tra numerosi centri di ricerca e monitoraggio internazionali (NOC, NOAA, CIRES, CEN, DWD e UCAR). Tutti rintracciabili e consultabili sul web. I dati raccolti vengono utilizzati per ricostruire lo stato termico superficiale dei mari che, unito a quello delle terre emerse, fornisce un valore globale univoco e indica un eventuale scarto rispetto a uno specifico periodo climatico di riferimento.
    Come nel caso delle stazioni a terra, anche per le rilevazioni marine esistono numerosi servizi nazionali e regionali. Tra gli strumenti più moderni ed efficaci per il monitoraggio dello stato termico del mare vanno citati i galleggianti del progetto ARGO. Si tratta di una collaborazione internazionale alla quale partecipano 30 nazioni con quasi 4000 galleggianti di ultima generazione. Questi ultimi sono progettati per effettuare screening verticali delle acque oceaniche e marine fino a 2000 metri di profondità; la loro distribuzione è globale ed essi forniscono 12.000 profili ogni mese (400 al giorno) trasmettendoli ai satelliti e ai centri di elaborazione. I parametri rilevati dai sensori includono, oltre alla temperatura alle diverse profondità, anche salinità, indicatori biologici, chimici e fisici.
    I dati raccolti da ARGO contribuiscono ad alimentare i database oceanici che vanno a completare, insieme alle osservazioni a terra, lo stato termico del pianeta.Ma cosa avviene all’interno di questi mastodontici database che, tra le altre cose, sono indispensabili per lo sviluppo dei modelli meteorologici? Nonostante la copertura di stazioni meteorologiche e marine sia ormai capillare, restano alcune aree meno monitorate, come ad esempio l’Antartide o alcune porzioni del continente africano; in questi casi si ricorre alla tecnica dell’interpolazione spaziale, che, in estrema sintesi, utilizza punti aventi valori noti (in questo caso di temperatura) per stimare quelli di altri punti. La superficie interpolata è chiamata “superficie statistica” e il metodo risulta un valido strumento anche per precipitazioni e accumulo nevoso, sebbene quest’ultimo sia ormai appannaggio dei satelliti.
    Oltre all’interpolazione si utilizza anche la tecnica della omogeneizzazione, che serve per eliminare l’influenza di alterazioni di rilevamento che possono subire le stazioni meteorologiche nel corso del tempo, tra le quali lo spostamento della centralina o la sua sostituzione con strumentazione più moderna. Ovviamente, dietro queste due tecniche, frutto della necessità di ottenere valori il più possibile corretti e attendibili, esiste un universo statistico molto complesso, che per gentilezza vi risparmio.
    Tornando a monte del processo, vale a dire allo strumento che rileva il dato, si incappa nel più classico dei dubbi: ma la misurazione è attendibile? Se il valore di partenza è viziato da problemi strumentali o di posizionamento, ecco che tutto il processo va a farsi benedire.
    Per quanto sia semplice insinuare dubbi sull’osservazione, è bene sapere che tutte le centraline meteorologiche ufficiali devono soddisfare i requisiti imposti dall’Organizzazione Mondiale della Meteorologia e che il dato fornito deve sottostare al “controllo qualità”.
    Se il signor Tupato da Castelpippolo in Castagnaccio [nota: Tupato in lingua maori significa “diffidente”] asserisce che le rilevazioni termiche in città sono condizionate dall’isola di calore e quindi inattendibili, deve sapere che questa cosa è nota al mondo scientifico da decenni e che, nonostante la sua influenza a livello globale sia pressoché insignificante, vi sono stati posti rimedi molto efficaci.
    Partiamo dall’impatto delle isole di calore urbano sulle serie storiche di temperatura. Numerosi studi scientifici (disponibili e consultabili online da chiunque, compreso il signor Tupato) descrivono le tecniche più note per la rimozione del segnale di riscaldamento cittadino dalle osservazioni. Tra queste, il confronto tra la serie termica di una località urbana e quella di una vicina località rurale; l’eventuale surplus termico della serie relativa alla città viene rimosso, semplicemente.Un altro metodo è quello di dividere le varie città in categorie legate alla densità di popolazione e correggere lo scostamento termico di quelle più popolate con le serie di quelle più piccole.
    In alcuni casi si è ricorso alla rilocalizzazione in aree rurali limitrofe delle stazioni meteorologiche troppo condizionate dall’isola di calore urbana, in questo caso il correttivo viene applicato dopo almeno un anno di confronto tra il vecchio e il nuovo sito.
    Poiché gli scienziologi del clima sono fondamentalmente dei maniaci della purezza dei dati e sono soliti mangiare pane e regressioni lineari, negli ultimi anni l’influenza delle isole di calore urbane viene rimossa anche attraverso l’utilizzo dei satelliti (con una tecnica chiamata remote sensing). Insomma, una faticaccia, alla quale si aggiunge anche il controllo, per lo più automatico, della presenza di errori sistematici o di comunicazione nei processi di osservazione e trasferimento dei dati rilevati.
    Tutto questo sforzo statistico e computazionale viene profuso per rimuovere il contributo delle isole di calore urbane dalle tendenze di temperatura globale che, all’atto pratico, è praticamente nullo. L’impatto complessivo delle rilevazioni provenienti da località urbane che alimentano i dataset globali è, infatti, insignificante, in quanto la maggior parte delle osservazioni su terra è esterna all’influenza delle isole di calore e si somma alla mole di dati provenienti da mari e oceani che coprono, lo ricordo, due terzi della superficie del pianeta.Quindi, anche senza la rimozione del segnale descritta in precedenza, l’influenza delle isole di calore urbane sulla temperatura globale sarebbe comunque modestissima. Se poi il signor Tupato vuol confrontare l’andamento delle curve termiche nel tempo noterà che non ci sono sostanziali differenze tra località rurali e località urbane: la tendenza all’aumento nel corso degli anni è ben visibile e netta in entrambe le categorie.
    Infine, l’aumento delle temperature dal 1880 a oggi è stato maggiore in zone scarsamente urbanizzate e popolate come Polo Nord, Alaska, Canada settentrionale, Russia e Mongolia, mentre è risultato minore in zone densamente abitate come la penisola indiana.
    Ecco che tutto questo ragionamento si conclude con un’inversione del paradigma: l’isola di calore urbana non ha alcun impatto sull’aumento della temperatura globale, ma l’aumento della temperatura globale amplifica l’isola di calore urbana. Durante le ondate di calore, infatti, le città possono diventare molto opprimenti, non tanto di giorno, quanto piuttosto nelle ore serali e notturne, quando la dispersione termica rispetto alle zone rurali risulta molto minore. La scarsa presenza di verde e le numerose superfici assorbenti rallentano notevolmente il raffreddamento notturno, allungando così la durata del periodo caratterizzato da disagio termico. Nelle zone di campagna o semirurali, al contrario, per quanto alta la temperatura massima possa essere, l’irraggiamento notturno è comunque tale da garantire almeno alcune ore di comfort.
    © 2024 Aboca S.p.A. Società Agricola, Sansepolcro (Ar)
    Giulio Betti presenterà Ha sempre fatto caldo! a Milano, insieme a Matteo Bordone, il 16 novembre alle 16, alla Centrale dell’Acqua, in occasione di Bookcity. LEGGI TUTTO