More stories

  • in

    È cominciato l’autunno

    Caricamento playerAlle 14:43 di domenica 22 settembre è finita l’estate ed è iniziato l’autunno: in quel momento preciso c’è stato l’equinozio d’autunno, ovvero l’istante in cui il Sole si trova allo zenit dell’equatore della Terra, cioè esattamente sopra la testa di un ipotetico osservatore che si trovi in un punto specifico sulla linea dell’equatore. Spesso si parla dell’equinozio come di un giorno intero ma tecnicamente è scorretto, perché indica solo l’istante preciso in cui si verifica un fenomeno astronomico. E l’ora in cui avviene quell’istante cambia ogni anno.
    Visto che di anno in anno l’equinozio d’autunno può essere in giorni diversi, le stagioni non cambiano sempre lo stesso giorno. Il giorno dell’equinozio d’autunno ha comunque una caratteristica particolare: è uno dei due soli giorni all’anno in cui il dì ha la stessa durata della notte, anche se poi non è esattamente così a causa di alcune interazioni della luce con l’atmosfera terrestre. L’altro è l’equinozio di primavera.
    Come funzionano gli equinoziL’inizio delle stagioni è scandito da eventi astronomici precisi: l’estate e l’inverno cominciano con i solstizi, in cui le ore di luce del giorno sono al loro massimo (estate) o al loro minimo (inverno); la primavera e l’autunno invece cominciano il giorno degli equinozi, i momenti in cui la lunghezza del giorno è uguale a quella della notte.
    Tuttavia, oggi in Italia il giorno sarà ancora un po’ più lungo della notte per qualche minuto e la vera parità tra dì e notte sarà tra qualche giorno. Questo si deve a un fenomeno chiamato “rifrazione atmosferica”, per cui la luce del Sole è curvata dall’atmosfera: è quella cosa per cui vediamo il Sole qualche minuto prima che sorga effettivamente.

    – Leggi anche: Perché d’autunno cadono le foglie

    Gli equinozi e i solstizi (e le durate del dì e della notte) sono determinati dalla posizione della Terra nel suo moto di rivoluzione intorno al Sole, cioè il movimento che il nostro pianeta compie girando intorno alla sua stella di riferimento. L’equinozio è il momento in cui il Sole si trova all’intersezione del piano dell’equatore celeste (la proiezione dell’equatore sulla sfera celeste) e quello dell’eclittica (il percorso apparente del Sole nel cielo). Al solstizio invece il Sole a mezzogiorno è alla massima o minima altezza rispetto all’orizzonte.
    Le variazioni del momento in cui avvengono equinozi e solstizi sono causate dalla diversa durata dell’anno solare e di quello del calendario (è il motivo per cui esistono gli anni bisestili, che permettono di rimettere “in pari” i conti).
    In Italia la primavera cade tra il 20 e il 21 marzo, l’estate tra il 20 e il 21 giugno, l’autunno tra il 22 e il 23 settembre, l’inverno tra il 21 e il 22 dicembre. Oltre alle stagioni astronomiche, poi, ci sono anche quelle meteorologiche: iniziano in anticipo di una ventina di giorni rispetto a solstizi ed equinozi, e durano sempre tre mesi. Indicano con maggiore precisione i periodi in cui si verificano le variazioni climatiche annuali, specialmente alle medie latitudini con climi temperati.
    Il momento dell’equinozio non c’entra con quello del cambio dell’ora, che quest’anno andrà spostata indietro nella notte tra sabato 26 e domenica 27 ottobre.

    – Leggi anche: La scomparsa dell’autunno LEGGI TUTTO

  • in

    C’è molta confusione su un trattamento per prevenire la bronchiolite

    Caricamento playerNegli ultimi giorni si è generata molta confusione intorno al nirsevimab, un anticorpo monoclonale contro il virus respiratorio sinciziale umano (VRS) – una delle cause delle bronchioliti nei bambini con meno di un anno – noto con il nome commerciale Beyfortus. In un primo momento il ministero della Salute aveva ribadito che la spesa per il nirsevimab è a carico dei cittadini salvo diverse decisioni delle Regioni (con limiti per quelle con i conti sanitari non in ordine), ma in un secondo momento è stata diffusa una nota che annuncia l’avvio dei confronti necessari con l’Agenzia italiana del farmaco (AIFA) per renderlo accessibile a tutti gratuitamente. Una decisione definitiva non è stata ancora presa, lasciando molti dubbi a chi vorrebbe sottoporre i propri figli al trattamento in vista della stagione fredda in cui il virus circola di più.
    Il VRS è un virus piuttosto diffuso e come quelli dell’influenza ha una maggiore presenza tra novembre e aprile. Nelle persone adulte in salute non dà sintomi particolarmente rilevanti (è più insidioso negli anziani e nei soggetti fragili), ma può essere pericoloso nei bambini con meno di un anno di età. È infatti una delle cause principali della bronchiolite, una malattia respiratoria che può comunque avere diverse altre cause virali (coronavirus, virus influenzali, rhinovirus e adenovirus, per citarne alcuni).
    L’infiammazione nelle vie respiratorie riguarda i bronchi e i bronchioli, le strutture nei polmoni che rendono possibile il trasferimento di ossigeno al sangue e la rimozione dell’anidride carbonica: fa aumentare la produzione di muco che insieme ad altri fattori può portare a difficoltà respiratorie. Nella maggior parte dei casi l’infezione passa entro una decina di giorni senza conseguenze, ma possono esserci casi in cui la malattia peggiora. Negli ultimi anni alcuni studi hanno rilevato una maggiore quantità di casi gravi associati ad alcune varianti del VRS, che hanno reso necessario il ricovero dei bambini in ospedale e in alcuni casi in terapia intensiva.
    Le infezioni da VRS si prevengono con gli accorgimenti solitamente impiegati per altre malattie virali, quindi evitando il contatto con persone che hanno un’infezione in corso, lavandosi le mani e aerando regolarmente gli ambienti in cui si vive. A queste forme di prevenzione da qualche tempo si è aggiunta la possibilità di ricorrere a un trattamento con anticorpi monoclonali, cioè anticorpi simili a quelli che produce il nostro sistema immunitario, ma realizzati con tecniche di clonazione in laboratorio. Il loro impiego consente di avere a disposizione direttamente gli anticorpi, senza che questi debbano essere prodotti dal sistema immunitario dopo aver fatto conoscenza con un virus.
    Il nirsevimab fa esattamente questo, in modo che un bambino che lo riceve abbia gli anticorpi per affrontare il VRS riducendo il rischio di ammalarsi. Il trattamento non è un vaccino, che svolge invece una funzione diversa e cioè stimolare la produzione degli anticorpi; anche per questo motivo il trattamento è piuttosto costoso (contro il VRS esiste al momento un solo vaccino, il cui uso non è però consentito nei bambini).
    Il nirsevimab è stato autorizzato nell’Unione Europea nel 2022 e viene venduto come Beyfortus dall’azienda farmaceutica Sanofi, che lo ha sviluppato insieme ad AstraZeneca, e inizia a essere sempre più impiegato per fare prevenzione in paesi come la Francia e la Spagna dove è fornito gratuitamente. La sua somministrazione permette di fornire una maggiore protezione ai bambini con meno di un anno che vivono la loro prima stagione di alta circolazione del VRS. È  pensato per tutelarli nel periodo in cui sono esposti a qualche rischio in più perché ancora molto piccoli, poi crescendo non è più necessario.
    A inizio anno la Società italiana di neonatologia (SIN) aveva segnalato che il nirsevimab: «Ha una lunga emivita [durata nell’organismo, ndr] ed è in grado con una sola somministrazione di proteggere il bambino per almeno 5 mesi riducendo del 77 per cento le infezioni respiratorie da VRS che richiedono ospedalizzazione e dell’86 per cento il rischio di ricovero in terapia intensiva». La SIN segnalava inoltre che un impiego su larga scala del nirsevimab avrebbe permesso di ridurre i costi sanitari rispetto all’impiego di altri anticorpi monoclonali e di contenere le spese dovute ai ricoveri ospedalieri, per i ricoveri dei bambini che sviluppano forme gravi della malattia. Per questo motivo invitava il ministero della Salute e le Regioni, che mantengono ampie autonomie nelle politiche sanitarie, a considerare una revisione delle regole di accesso al trattamento.
    A oggi il nirsevimab è infatti compreso nei farmaci di “fascia C”, quindi a carico di chi li acquista, e ha un prezzo base al pubblico indicato dal produttore di 1.150 euro (importo che potrebbe essere più basso a seconda delle contrattazioni con i servizi sanitari regionali). Questa classificazione fa sì che le Regioni non possano utilizzare per il suo acquisto i fondi che ricevono dallo Stato per la gestione della sanità nei loro territori: hanno però la facoltà di offrirlo gratuitamente se finanziano l’iniziativa con altri fondi previsti nei loro bilanci. È una pratica che viene seguita spesso, ma con alcune limitazioni legate alla necessità di evitare che le Regioni non sforino troppo rispetto alle loro previsioni di spesa.
    Oltre a essere in “fascia C”, il nirsevimab non è compreso nel Piano nazionale prevenzione vaccinale ed è quindi un extra rispetto ai Livelli essenziali di assistenza (LEA), le prestazioni che il Servizio sanitario nazionale deve obbligatoriamente fornire a tutti i cittadini gratuitamente o con il pagamento di un ticket.
    In vista della stagione fredda, negli ultimi mesi alcune Regioni avevano annunciato di voler fornire il nirsevimab senza oneri per i pazienti, portando il ministero della Salute a diffondere una circolare il 18 settembre per ricordare le regole di finanziamento di queste iniziative. Oltre a segnalare la necessità di fornire il trattamento attingendo a fondi diversi da quelli sanitari regionali, il ministero aveva ricordato che «le regioni in piano di rientro dal disavanzo sanitario», cioè le regioni senza i conti a posto, «non possono, ad oggi, garantire la somministrazione dell’anticorpo monoclonale».
    La limitazione riguardava quindi Lazio, Abruzzo, Molise, Campania, Calabria, Puglia e Sicilia e portava di fatto a una disparità di trattamento per gli abitanti di queste regioni rispetto alle altre. La circolare aveva fatto discutere, soprattutto tra i genitori di bambini con meno di un anno ancora in attesa di capire se poter accedere o meno gratuitamente al trattamento, a ridosso dell’inizio della stagione di maggiore circolazione del VRS.
    In seguito alle proteste e alle polemiche il 19 settembre, quindi appena un giorno dopo la pubblicazione della circolare del ministero della Salute, la responsabile del Dipartimento della prevenzione, Maria Rosaria Campitiello, ha diffuso una nota con la quale ha annunciato l’avvio di un confronto con l’AIFA per rivedere le regole di accesso al nirsevimab per renderlo non a carico: «È nostra intenzione rafforzare le strategie di prevenzione e immunizzazione universale a tutela dei bambini su tutto il territorio nazionale, garantendo a tutte le regioni la somministrazione dell’anticorpo monoclonale senza oneri per i pazienti».
    Nella nota non sono però indicati tempi o modalità del confronto, che secondo diversi osservatori arriva comunque in ritardo considerato l’avvicinarsi del periodo in cui la diffusione di VRS ha il proprio picco. Il Board del calendario per la vita, iniziativa che comprende le federazioni dei medici e dei pediatri, aveva già raccomandato a inizio 2023 l’impiego del nirsevimab il prima possibile: «Nell’imminenza della autorizzazione all’immissione in commercio, auspicano che venga prontamente riconosciuta la novità anche in termini regolatori di nirsevimab, considerando la sua classificazione non quale presidio terapeutico (come sempre avvenuto per gli anticorpi monoclonali) ma preventivo, nella prospettiva dell’inserimento nel Calendario Nazionale di Immunizzazione». Nel caso di una fornitura non a carico il prezzo del trattamento dovrà essere contrattato con Sanofi, una procedura che richiede tempi che variano molto a seconda dei casi. LEGGI TUTTO

  • in

    Perché è piovuto così tanto, sull’Europa e non solo

    Caricamento playerL’alluvione in Emilia-Romagna è solo uno degli effetti più recenti della tempesta Boris, che nell’ultima settimana ha causato grandi danni in vaste aree dell’Europa centrale, dalla Romania all’Austria, dove si stima siano morte circa 20 persone. Non è insolito che tra la fine dell’estate e l’inizio dell’autunno ci siano giornate piovose, ma l’intensità delle piogge e la presenza di altre forti perturbazioni nelle settimane scorse in altre aree dell’emisfero boreale (il nostro) sono un’ulteriore indicazione di come stia cambiando il clima, soprattutto a causa del riscaldamento globale. Oltre all’intensità, le tempeste sono sempre più frequenti e ci dovremo confrontare con i loro costosi effetti, in tutti i termini.
    Attribuire con certezza un singolo evento atmosferico al riscaldamento globale non è semplice, soprattutto per l’alto numero di variabili coinvolte. I gruppi di ricerca mettono a confronto ciò che è accaduto in un determinato periodo di tempo con cosa ci si sarebbe dovuti attendere (basandosi sulle simulazioni e sui modelli riferiti ai dati delle serie storiche) e a seconda delle differenze e di altri fattori indicano quanto sia probabile che un certo evento sia dipeso dal cambiamento climatico. Questi studi di attribuzione richiedono tempo per essere effettuati e non sono quindi ancora disponibili per Boris, ma le caratteristiche della tempesta rispetto a quanto osservato in passato e la presenza di altre grandi perturbazioni tra Stati Uniti, Africa e Asia stanno già fornendo qualche indizio.
    La tempesta Boris si è per esempio formata alla fine dell’estate più calda mai registrata sulla Terra, secondo i dati raccolti dal Climate Change Service di Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa dell’osservazione satellitare e dello studio del nostro pianeta. L’estate del 2024 è stata di 0,69 °C più calda rispetto alla media del periodo 1991-2020 e ha superato di 0,03 °C il record precedente, che era stato stabilito appena l’estate precedente (il 2023 è stato l’anno più caldo mai registrato).
    Le temperature estive particolarmente alte hanno contribuito a produrre una maggiore evaporazione in alcune grandi masse d’acqua come il mar Mediterraneo e il mar Nero, con la produzione di fronti di aria umida provenienti da sud che si sono mescolati con l’aria a una temperatura inferiore proveniente dal Nord Europa. L’incontro tra queste masse di aria con temperatura e umidità differenti hanno favorito la produzione dei sistemi nuvolosi che hanno poi portato le grandi piogge dell’ultima settimana nell’Europa centrale e negli ultimi giorni in parte del versante adriatico dell’Italia.
    Un allagamento provocato dall’esondazione del fiume Lamone a Bagnacavallo (Fabrizio Zani/ LaPresse)
    La piogge sono state persistenti e la perturbazione si è dissipata lentamente a causa della presenza di due aree di alta pressione – solitamente associata al bel tempo – che l’hanno circondata sia a est sia a ovest, rendendo più lenti i movimenti lungo i suoi margini. Non è un fenomeno di per sé insolito, ma in questo caso particolare ha interessato un’area geografica molto ampia per diversi giorni, portando forti piogge su fiumi e laghi e saturando il terreno, con la conseguente formazione di grandi alluvioni.
    Le analisi condotte finora hanno evidenziato condizioni nell’atmosfera che hanno interessato la corrente a getto che fluisce da est a ovest. Le correnti a getto possono essere considerate come dei grandi fiumi d’aria che attraversano l’atmosfera e, proprio come i corsi d’acqua, possono produrre anse e rientranze che determinano i cambiamenti nella direzione del vento e dei movimenti delle nuvole. Grandi zone di alta e bassa pressione hanno deviato sensibilmente la corrente a getto, riducendo la mobilità di alcune masse d’aria sopra l’Europa e altre aree del nostro emisfero.

    È possibile che tra i fattori che hanno determinato questa situazione ci siano ancora una volta le alte temperature dell’estate, che hanno portato gli oceani a scaldarsi più del solito. La temperatura media della superficie marina a livello globale è stata di quasi 1 °C superiore ai valori medi di riferimento del secolo scorso (in alcune zone dell’Atlantico si sono raggiunti 2,53 °C). Gli oceani accumulano energia scaldandosi ed è poi questa ad alimentare parte dei meccanismi atmosferici che portano a perturbazioni intense e spesso persistenti.
    (NOAA)
    Uno studio di attribuzione condotto sulle alluvioni di luglio 2021 in Europa, che avevano interessato soprattutto la Germania e il Belgio, aveva per esempio concluso che il riscaldamento globale causato dalle attività umane avesse reso più probabili quegli eventi atmosferici. Anche in quel caso la tempesta si era formata soprattutto in seguito all’aria calda e umida proveniente dal Mediterraneo, che da diversi anni nella stagione calda fa registrare temperature superficiali sopra la media.
    Le maggiori conoscenze sui fenomeni di questo tipo, maturate soprattutto negli ultimi anni, hanno permesso ai governi di avere informazioni più tempestive sull’evoluzione delle condizioni atmosferiche per fare prevenzione e mettere per lo meno in sicurezza la popolazione. La vastità delle alluvioni in Europa ha comportato una quantità relativamente ridotta di incidenti mortali, ma lo stesso non è avvenuto in Africa dove almeno mille persone sono morte nelle ultime settimane a causa delle forti piogge e delle alluvioni.
    Nell’Africa centrale e occidentale ci sono circa 3 milioni di sfollati a causa di una stagione delle piogge molto più intensa del solito, che secondo alcune previsioni porterà cinque volte la quantità di piogge che cadono in media a settembre nell’area. In questo caso il probabile nesso è con il progressivo aumento della temperatura media nel Sahel, l’ampia fascia di territorio che si estende da nord a sud tra il deserto del Sahara e la savana sudanese, e da ovest a est dall’oceano Atlantico al mar Rosso. Le alluvioni hanno interessato finora 14 paesi, causando grandi danni soprattutto alle piantagioni e peggiorando le condizioni già difficili di approvvigionamento di cibo per le popolazioni locali.
    Il Sahel, evidenziato in azzurro (Flockedereisbaer via Wikimedia)
    Lungo la costa orientale degli Stati Uniti forti piogge a inizio settimana hanno causato alluvioni e danni tra North Carolina e South Carolina. In alcune zone sono caduti 45 centimetri di pioggia in appena 12 ore, secondo le prime rilevazioni, che se confermate porterebbero a uno degli eventi atmosferici più estremi per quelle zone degli ultimi secoli. Le piogge sono state causate da una perturbazione che si era formata sull’Atlantico, ma senza energia sufficiente per diventare un uragano.
    Nelle ultime settimane anche in Asia ci sono state forti piogge, con un tifone che ha portato forti venti e temporali a Shanghai all’inizio della settimana, tali da rendere necessaria la sospensione dei voli aerei e l’interruzione di varie linee di servizio del trasporto pubblico in un’area metropolitana in cui vivono circa 25 milioni di persone. In precedenza c’erano state altre forti tempeste su parte della Cina, del Giappone e del Vietnam, con alluvioni, grandi danni e decine di morti.
    Naturalmente questi eventi atmosferici hanno avuto caratteristiche ed evoluzioni diverse e non sono strettamente legati l’uno all’altro, anche perché riguardano luoghi distanti tra loro e con differenti caratteristiche geografiche. In molte zone dell’emisfero boreale il passaggio dall’estate all’autunno è da sempre caratterizzato da tempeste, uragani e tifoni, ma le serie storiche e i dati raccolti indicano una maggiore frequenza di eventi estremi e con forti conseguenze per la popolazione.
    I modelli basati anche su quei dati indicano un aumento dei fenomeni di questo tipo, ma gli eventi atmosferici che si sono verificati negli ultimi anni hanno superato alcuni dei modelli più pessimistici rivelandosi quindi più estremi del previsto. La temperatura media globale è del resto di 1,29 °C superiore rispetto al periodo preindustriale, quando con le attività umane si immettevano molti meno gas serra rispetto a quanto avvenga oggi. Se questa tendenza dovesse mantenersi, e al momento non ci sono elementi per ritenere il contrario, entro la fine del 2032 si potrebbe raggiungere la soglia degli 1,5 °C decisi dall’Accordo di Parigi come limite massimo per evitare conseguenze ancora più catastrofiche legate al riscaldamento globale.
    (Copernicus)
    Già nel 2021 il Gruppo intergovernativo sul cambiamento climatico delle Nazioni Unite aveva segnalato in un proprio rapporto che: «L’impatto umano, in particolare legato alla produzione di gas serra, è probabilmente il principale fattore dell’intensificazione osservata su scala globale delle precipitazioni intense al suolo». Oltre a mostrare i primi indizi concreti sull’influenza delle attività umane per la maggiore intensificazione delle precipitazioni su Europa, Asia e Nordamerica, il rapporto aveva segnalato che le «precipitazioni diventeranno in genere più frequenti e più intense all’aumentare del riscaldamento globale». LEGGI TUTTO

  • in

    Come facciamo a calcolare la temperatura media della Terra

    Negli ultimi anni sono stati costantemente superati record di temperatura massima di vario genere: oltre alle temperature più alte mai misurate in specifiche località di varie parti del mondo, escono spesso nuovi dati che ci dicono ad esempio che un certo mese di aprile o un certo mese di giugno, o l’anno scorso, sono stati i più caldi mai registrati tenendo conto delle temperature medie mondiali. A queste notizie ci siamo forse abituati, ma forse non tutti sanno in che modo vengono calcolate le temperature medie dell’intero pianeta, una cosa tutt’altro che semplice.Giulio Betti, meteorologo e climatologo del Consiglio nazionale delle ricerche (CNR) e del Consorzio LaMMA, spesso intervistato dal Post e su Tienimi Bordone, spiega come si fa nel suo libro uscito da poco, Ha sempre fatto caldo! E altre comode bugie sul cambiamento climatico, che con uno stile divulgativo rispiega vari aspetti non banali del cambiamento climatico e smonta le obiezioni di chi nega che stia accadendo – o che sia causato dall’umanità. Pubblichiamo un estratto del libro.
    ***
    L’essere umano si è evoluto insieme alla sua più grande ossessione: misurare e quantificare qualsiasi cosa, dalle particelle subatomiche, i quark e i leptoni (10-18 metri), all’intero universo osservabile, il cui diametro è calcolato in 94 miliardi di anni luce. Si tratta di misurazioni precise e molto attendibili, alle quali si arriva attraverso l’uso di supertelescopi, come il James Webb, e di acceleratori di particelle. Cosa volete che sia, quindi, per un animale intelligente come l’uomo, nel fantascientifico 2024, ottenere una stima attendibile e verificabile della temperatura terrestre?
    Effettivamente è ormai un processo consolidato e routinario, quasi “banale” rispetto ad altri tipi di misurazioni dalle quali dipendono centinaia di processi e attività che la maggior parte di noi ignora. Ma come funziona?
    Partiamo dalla base: la rilevazione del dato termico, demandata alle mitiche stazioni meteorologiche, meglio note come centraline meteo. Queste sono disseminate su tutto il globo, sebbene la loro densità vari molto da zona a zona. In Europa e in Nord America, ad esempio, il numero di stazioni meteorologiche attive è più elevato che in altre aree, sebbene ormai la copertura risulti ottimale su quasi tutte le terre emerse.
    Quando parliamo di “stazioni meteorologiche”, infatti, ci riferiamo alle centraline che registrano temperatura e altri parametri meteorologici nelle zone continentali, mentre quelle relative ai mari utilizzano strumenti differenti e più variegati.
    I dati meteorologici su terra provengono da diversi network di stazioni, il più importante dei quali, in termini numerici, è il GHCN (Global Historical Climatology Network) della NOAA che conta circa 100.000 serie termometriche provenienti da altrettante stazioni; ognuna di esse copre diversi periodi temporali, cioè non tutte iniziano e finiscono lo stesso anno. La lunghezza delle varie serie storiche, infatti, può variare da 1 a 175 anni. Di queste 100.000 stazioni meteorologiche, oltre 20.000 contribuiscono alle osservazioni quotidiane in tempo reale; il dato raddoppia (40.000) nel caso del network della Berkeley Earth. Alla NOAA e alla Berkeley Earth si aggiungono altre reti di osservazione globale, quali il GISTEMP della NASA, il JMA giapponese, e l’HadCRUT dell’Hadley Center-University of East Anglia (UK).
    Oltre ai cinque principali network citati si aggiungono le innumerevoli reti regionali e nazionali i cui dati contribuiscono ad alimentare il flusso quotidiano diretto verso i centri globali.
    Le rilevazioni a terra, però, sono soltanto una parte delle osservazioni necessarie per ricostruire la temperatura del nostro pianeta, a queste infatti va aggiunta la componente marina, che rappresenta due terzi dell’intera superficie del mondo.
    I valori termici (e non solo) di tutti gli oceani e i mari vengono rilevati ogni giorno grazie a una capillare e fitta rete di osservazione composta da navi commerciali, navi oceanografiche, navi militari, navi faro (light ships), stazioni a costa, boe stazionarie e boe mobili.
    Parliamo, come facilmente intuibile, di decine di migliaia di rilevazioni in tempo reale che vanno ad alimentare diversi database, il più importante dei quali è l’ICOADS (International Comprehensive Ocean-Atmosphere Data Set). Quest’ultimo è il frutto della collaborazione tra numerosi centri di ricerca e monitoraggio internazionali (NOC, NOAA, CIRES, CEN, DWD e UCAR). Tutti rintracciabili e consultabili sul web. I dati raccolti vengono utilizzati per ricostruire lo stato termico superficiale dei mari che, unito a quello delle terre emerse, fornisce un valore globale univoco e indica un eventuale scarto rispetto a uno specifico periodo climatico di riferimento.
    Come nel caso delle stazioni a terra, anche per le rilevazioni marine esistono numerosi servizi nazionali e regionali. Tra gli strumenti più moderni ed efficaci per il monitoraggio dello stato termico del mare vanno citati i galleggianti del progetto ARGO. Si tratta di una collaborazione internazionale alla quale partecipano 30 nazioni con quasi 4000 galleggianti di ultima generazione. Questi ultimi sono progettati per effettuare screening verticali delle acque oceaniche e marine fino a 2000 metri di profondità; la loro distribuzione è globale ed essi forniscono 12.000 profili ogni mese (400 al giorno) trasmettendoli ai satelliti e ai centri di elaborazione. I parametri rilevati dai sensori includono, oltre alla temperatura alle diverse profondità, anche salinità, indicatori biologici, chimici e fisici.
    I dati raccolti da ARGO contribuiscono ad alimentare i database oceanici che vanno a completare, insieme alle osservazioni a terra, lo stato termico del pianeta.Ma cosa avviene all’interno di questi mastodontici database che, tra le altre cose, sono indispensabili per lo sviluppo dei modelli meteorologici? Nonostante la copertura di stazioni meteorologiche e marine sia ormai capillare, restano alcune aree meno monitorate, come ad esempio l’Antartide o alcune porzioni del continente africano; in questi casi si ricorre alla tecnica dell’interpolazione spaziale, che, in estrema sintesi, utilizza punti aventi valori noti (in questo caso di temperatura) per stimare quelli di altri punti. La superficie interpolata è chiamata “superficie statistica” e il metodo risulta un valido strumento anche per precipitazioni e accumulo nevoso, sebbene quest’ultimo sia ormai appannaggio dei satelliti.
    Oltre all’interpolazione si utilizza anche la tecnica della omogeneizzazione, che serve per eliminare l’influenza di alterazioni di rilevamento che possono subire le stazioni meteorologiche nel corso del tempo, tra le quali lo spostamento della centralina o la sua sostituzione con strumentazione più moderna. Ovviamente, dietro queste due tecniche, frutto della necessità di ottenere valori il più possibile corretti e attendibili, esiste un universo statistico molto complesso, che per gentilezza vi risparmio.
    Tornando a monte del processo, vale a dire allo strumento che rileva il dato, si incappa nel più classico dei dubbi: ma la misurazione è attendibile? Se il valore di partenza è viziato da problemi strumentali o di posizionamento, ecco che tutto il processo va a farsi benedire.
    Per quanto sia semplice insinuare dubbi sull’osservazione, è bene sapere che tutte le centraline meteorologiche ufficiali devono soddisfare i requisiti imposti dall’Organizzazione Mondiale della Meteorologia e che il dato fornito deve sottostare al “controllo qualità”.
    Se il signor Tupato da Castelpippolo in Castagnaccio [nota: Tupato in lingua maori significa “diffidente”] asserisce che le rilevazioni termiche in città sono condizionate dall’isola di calore e quindi inattendibili, deve sapere che questa cosa è nota al mondo scientifico da decenni e che, nonostante la sua influenza a livello globale sia pressoché insignificante, vi sono stati posti rimedi molto efficaci.
    Partiamo dall’impatto delle isole di calore urbano sulle serie storiche di temperatura. Numerosi studi scientifici (disponibili e consultabili online da chiunque, compreso il signor Tupato) descrivono le tecniche più note per la rimozione del segnale di riscaldamento cittadino dalle osservazioni. Tra queste, il confronto tra la serie termica di una località urbana e quella di una vicina località rurale; l’eventuale surplus termico della serie relativa alla città viene rimosso, semplicemente.Un altro metodo è quello di dividere le varie città in categorie legate alla densità di popolazione e correggere lo scostamento termico di quelle più popolate con le serie di quelle più piccole.
    In alcuni casi si è ricorso alla rilocalizzazione in aree rurali limitrofe delle stazioni meteorologiche troppo condizionate dall’isola di calore urbana, in questo caso il correttivo viene applicato dopo almeno un anno di confronto tra il vecchio e il nuovo sito.
    Poiché gli scienziologi del clima sono fondamentalmente dei maniaci della purezza dei dati e sono soliti mangiare pane e regressioni lineari, negli ultimi anni l’influenza delle isole di calore urbane viene rimossa anche attraverso l’utilizzo dei satelliti (con una tecnica chiamata remote sensing). Insomma, una faticaccia, alla quale si aggiunge anche il controllo, per lo più automatico, della presenza di errori sistematici o di comunicazione nei processi di osservazione e trasferimento dei dati rilevati.
    Tutto questo sforzo statistico e computazionale viene profuso per rimuovere il contributo delle isole di calore urbane dalle tendenze di temperatura globale che, all’atto pratico, è praticamente nullo. L’impatto complessivo delle rilevazioni provenienti da località urbane che alimentano i dataset globali è, infatti, insignificante, in quanto la maggior parte delle osservazioni su terra è esterna all’influenza delle isole di calore e si somma alla mole di dati provenienti da mari e oceani che coprono, lo ricordo, due terzi della superficie del pianeta.Quindi, anche senza la rimozione del segnale descritta in precedenza, l’influenza delle isole di calore urbane sulla temperatura globale sarebbe comunque modestissima. Se poi il signor Tupato vuol confrontare l’andamento delle curve termiche nel tempo noterà che non ci sono sostanziali differenze tra località rurali e località urbane: la tendenza all’aumento nel corso degli anni è ben visibile e netta in entrambe le categorie.
    Infine, l’aumento delle temperature dal 1880 a oggi è stato maggiore in zone scarsamente urbanizzate e popolate come Polo Nord, Alaska, Canada settentrionale, Russia e Mongolia, mentre è risultato minore in zone densamente abitate come la penisola indiana.
    Ecco che tutto questo ragionamento si conclude con un’inversione del paradigma: l’isola di calore urbana non ha alcun impatto sull’aumento della temperatura globale, ma l’aumento della temperatura globale amplifica l’isola di calore urbana. Durante le ondate di calore, infatti, le città possono diventare molto opprimenti, non tanto di giorno, quanto piuttosto nelle ore serali e notturne, quando la dispersione termica rispetto alle zone rurali risulta molto minore. La scarsa presenza di verde e le numerose superfici assorbenti rallentano notevolmente il raffreddamento notturno, allungando così la durata del periodo caratterizzato da disagio termico. Nelle zone di campagna o semirurali, al contrario, per quanto alta la temperatura massima possa essere, l’irraggiamento notturno è comunque tale da garantire almeno alcune ore di comfort.
    © 2024 Aboca S.p.A. Società Agricola, Sansepolcro (Ar)
    Giulio Betti presenterà Ha sempre fatto caldo! a Milano, insieme a Matteo Bordone, il 16 novembre alle 16, alla Centrale dell’Acqua, in occasione di Bookcity. LEGGI TUTTO

  • in

    Le prestazioni fisiche peggiorano quando la posta in palio è altissima

    Diversi studi condotti tra calciatori professionisti mostrano quanto gli aspetti psicologici siano influenti sulle percentuali di trasformazione dei calci di rigore in gol. Tendenzialmente i calciatori sbagliano più spesso quando la posta in palio è più alta, e cioè quando dall’esito del tiro dipende in modo più diretto un successo o un insuccesso sportivo: di solito durante gli ultimi tiri di rigore delle partite finite in parità. Altre analisi dei risultati in altri sport hanno portato a conclusioni simili.Uno studio recente di neuroscienze, basato su una serie di esperimenti sui macachi e pubblicato sulla rivista Neuron, ha fornito ulteriori dati a sostegno dell’ipotesi che l’aumento della posta in palio oltre una certa soglia influenzi negativamente le prestazioni fisiche. E ha suggerito una spiegazione neurobiologica di questo fenomeno, ipotizzando che i processi neurali coinvolti nella valutazione degli incentivi interagiscano negativamente con i processi necessari per preparare e controllare i movimenti fisici.
    Lo studio è stato condotto principalmente da un gruppo del Center for the Neural Basis of Cognition (CNBC), un ente di ricerca formato da ricercatori e ricercatrici della University of Pittsburgh e della Carnegie Mellon University, una delle università più autorevoli al mondo nel campo della biologia computazionale e delle scienze cognitive. Gli autori e le autrici dello studio hanno sottoposto ad alcuni esperimenti un gruppo di macachi rhesus, una specie di scimmie della famiglia dei Cercopitecidi. Dopo aver ricevuto un addestramento, le scimmie dovevano eseguire un compito di rapidità e precisione – spostare un cursore sullo schermo di un computer – per ottenere una ricompensa (una certa quantità di gocce di un liquido).
    Gli esperimenti erano strutturati in modo da permettere alle scimmie di conoscere in anticipo la dimensione della ricompensa prevista prima di ogni compito: poteva essere piccola, media, grande o – più di rado – sproporzionatamente grande. Per permettere al gruppo di ricerca di osservare i cambiamenti dell’attività neuronale tra un compito e l’altro, tutte le scimmie avevano degli elettrodi collegati a un microchip impiantato nel cervello, collocato nella corteccia motoria, un’area del cervello coinvolta nella gestione dei movimenti volontari del corpo.

    – Leggi anche: Come si comporta il cervello nei momenti da ricordare

    Dai risultati dello studio è emerso che le prestazioni fisiche dei macachi erano influenzate dalle dimensioni note della ricompensa. Il successo era più probabile quando la ricompensa potenziale era media o grande rispetto a quando era piccola. Questa parte dei risultati è stata interpretata come una sostanziale conferma di studi precedenti, in cui ricompense maggiori accrescevano tendenzialmente le motivazioni a svolgere compiti impegnativi. Quando però la ricompensa era sproporzionatamente grande le percentuali di successo dei macachi diminuivano, confermando in parte una teoria nota nella psicologia dello sport: la cosiddetta legge di Yerkes e Dodson, dal nome dei due psicologi statunitensi che la formularono nel 1908, Robert M. Yerkes e John Dillingham Dodson.
    Secondo la legge di Yerkes e Dodson, le prestazioni umane migliorano con l’aumento dell’eccitazione fisiologica o mentale, ma solo fino a un certo punto. È una teoria da tempo utilizzata per spiegare le difficoltà sotto “pressione” in molte forme di compiti cognitivi, sensomotori e percettivi, e sintetizzata da un grafico con una curva a campana, in cui le prestazioni occupano l’asse verticale e le ricompense quello orizzontale. Lo studio pubblicato su Neuron è considerato uno dei primi a fornire prove empiriche a sostegno dell’ipotesi che il peggioramento delle prestazioni fisiche nelle circostanze in cui la posta in palio è altissima non sia un fenomeno soltanto umano.

    – Leggi anche: La marijuana influisce sulle prestazioni sportive?

    L’osservazione dell’attività cerebrale dei macachi, correlata alle loro prestazioni durante gli esperimenti, ha permesso al gruppo di ricerca di rilevare una diminuzione dell’attività dei neuroni coinvolti nella «preparazione motoria» nei casi in cui la ricompensa era grandissima. Nelle neuroscienze è detta preparazione motoria l’insieme di calcoli effettuati dal cervello prima di un certo movimento per compierlo nel migliore dei modi: allineare una freccia al centro di un bersaglio prima di scagliarla, per esempio. L’ipotesi dello studio è che le informazioni sulla ricompensa interagiscano in vari modi con la formazione dei segnali di preparazione motoria, producendo un «collasso delle informazioni neurali» e un calo delle prestazioni nel caso di ricompensa insolitamente alta.
    In generale i risultati possono servire a comprendere meglio che la relazione tra le prestazioni e i comportamenti mediati da ricompense non è di tipo lineare, ha spiegato alla rivista Nature Bita Moghaddam, una neuroscienziata comportamentale della Oregon Health & Science University a Portland. «Proprio non si ottengono risultati migliori, man mano che la ricompensa aumenta», ha detto.
    Uno degli aspetti ancora da chiarire, secondo il gruppo di ricerca, è se il peggioramento delle prestazioni nei casi in cui la ricompensa è grandissima possa essere evitato. Prima serviranno però ulteriori ricerche per studiare meglio questo fenomeno negli esseri umani. Alcuni psicologi, per esempio, sostengono che un modo per ridurre il calo delle prestazioni nei casi di ricompensa molto grande sia ricevere informazioni sui risultati delle proprie prestazioni passate, per poterle analizzare nel dettaglio, ed esercitarsi in situazioni di stress, in modo da poter attivare all’occorrenza una sorta di «protocollo di atterraggio di emergenza».

    – Leggi anche: Come si fa atterrare un aeroplano senza saperlo pilotare? LEGGI TUTTO

  • in

    La statistica falsa sull’80% della biodiversità protetta dagli indigeni

    Caricamento playerChi si interessa di ambiente potrebbe aver sentito dire che l’80 per cento della biodiversità del pianeta si trova nelle terre abitate dalle popolazioni indigene, che secondo le stime più diffuse comprendono oltre 370 milioni di persone in circa 70 paesi. Negli ultimi vent’anni questa statistica è circolata sia su pubblicazioni autorevoli che tra i gruppi ambientalisti e sui media, ma in base a uno studio pubblicato a inizio settembre sulla rivista Nature è sbagliata. Per quanto sia sicuro che le popolazioni indigene abbiano un ruolo essenziale nella tutela degli ecosistemi naturali, non ci sono prove scientifiche che sostengono quella statistica, che peraltro è di per sé problematica: la biodiversità infatti non è qualcosa che si possa quantificare con precisione.
    Lo studio è stato realizzato da tredici scienziati provenienti principalmente dall’Università autonoma di Barcellona e dall’Università australiana Charles Darwin, tre dei quali si identificano come persone indigene. Il gruppo ha usato le piattaforme Google Scholar e Web of Science per individuare i testi in cui comparivano le parole “indigeni”, “80 per cento” e “biodiversità”, oppure loro variazioni, come “ottanta per cento” o “diversità biologica”: ha così trovato 384 risultati che hanno formulazioni leggermente diverse dello stesso concetto, tra cui 186 articoli scientifici rivisti da altri esperti con la cosiddetta peer review e pubblicati anche su riviste molto prestigiose, come The Lancet e la stessa Nature.
    Il primo riferimento riscontrato dai ricercatori risale al 2002, quando la Commissione dell’ONU per lo sviluppo sostenibile diceva che le popolazioni indigene «si prendevano cura dell’80 per cento della biodiversità del mondo nelle terre e nei territori ancestrali». Da allora la statistica è stata usata in moltissime occasioni per sottolineare il ruolo delle popolazioni indigene nella conservazione dell’ambiente e come potrebbe essere preso a modello, per esempio in un rapporto del 2009 della FAO, l’organizzazione delle Nazioni Unite per l’alimentazione e l’agricoltura. È circolata così tanto e su fonti così autorevoli che nel 2020 la piattaforma online di fact checking Gigafact l’ha “dichiarata” vera; nel 2022 l’ha citata anche il noto regista James Cameron per pubblicizzare Avatar – La via dell’acqua, che come il primo film del 2009 parla di una civiltà di umanoidi blu in perfetta simbiosi con la natura.
    Il leader indigeno Raoni Metuktire in posa per una foto a Belem, nello stato brasiliano di Pará, il 5 agosto del 2023 (REUTERS/ Ueslei Marcelino)
    Stephen Garnett e Álvaro Fernández-Llamazares, due degli autori, hanno spiegato in un articolo pubblicato su The Conversation che la statistica sembra derivare da interpretazioni errate di studi precedenti, oppure ancora da sintesi affrettate. In base alle analisi dei ricercatori l’affermazione cominciò a diffondersi in particolare dopo la pubblicazione di un rapporto della Banca Mondiale nel 2008. Il fatto è che la fonte citata dalla Banca Mondiale è una pubblicazione del 2005 di un’organizzazione non profit di Washington DC (World Resources Institute), in cui però si parlava di sette popolazioni indigene delle Filippine che «gestivano oltre l’80 per cento della biodiversità originale» di una foresta.
    La fonte del rapporto della FAO invece non è chiara, ma sempre secondo lo studio potrebbe arrivare dall’edizione del 2001 dell’Enciclopedia della Biodiversità, dove comunque si diceva una cosa diversa: cioè che «quasi l’80 per cento delle regioni naturali terrestri è abitato da una o più popolazioni indigene», e non che «circa l’80 per cento della biodiversità restante sul pianeta si trova nei territori delle popolazioni indigene», come detto dalla FAO. In ogni caso quando la statistica comparve per la prima volta la superficie delle terre e delle acque di pertinenza delle popolazioni indigene non era ancora stata mappata, e per questo non sarebbe stato possibile determinare nemmeno quale percentuale di biodiversità contenesse.
    Un grafico dei testi che citano la statistica in base ai dati raccolti nello studio (dal sito di Nature)
    Per gli scienziati dire che l’80 per cento della biodiversità si trova nei territori delle popolazioni indigene non ha comunque basi scientifiche perché si parte da due presupposti sbagliati, ovvero che la biodiversità si possa suddividere in singole unità misurabili e che queste unità si possano mappare con precisione. Nessuna delle due cose però si può definire in maniera accurata.
    Intanto la Convenzione sulla diversità biologica – cioè il trattato per lo sviluppo di strategie per la tutela dell’ambiente firmato da quasi 200 paesi nel 1992 – definisce la biodiversità come le diversità nell’ambito delle specie, tra le specie e tra gli ecosistemi, quindi è difficile da descrivere con criteri univoci. In più anche i tentativi di definire la biodiversità in base alla quantità di specie presenti e di loro individui sono per necessità delle approssimazioni.
    Come ha spiegato al Guardian Erle Ellis, scienziato ambientale all’Università del Maryland, i modelli statistici impiegati per descrivere un fenomeno in biologia sono utili ma non affidabili, soprattutto su ampia scala. Gli autori dello studio di Nature ricordano inoltre che le informazioni sulla quantità e sulla distribuzione geografica delle specie sono necessariamente incomplete, visto che moltissime non sono ancora state studiate e descritte: quelle relative ai territori abitati dalle popolazioni indigene, remoti se non inesplorati, lo sono a maggior ragione.

    – Leggi anche: Non è facile capirsi su chi siano gli “indigeni”

    Lo studio ha richiesto cinque anni di lavoro ed è stato svolto anche attraverso discussioni negli eventi dedicati al tema e ricerche sul campo. I leader di alcune popolazioni indigene sentiti dai ricercatori hanno confermato di non avere prove a sostegno di questa statistica, mentre altri ne hanno preso le distanze. Solo due dei testi esaminati la mettevano in dubbio, dicono i ricercatori: uno di questi era una pubblicazione del Consorzio ICCA, un’organizzazione internazionale che promuove il riconoscimento dei territori delle popolazioni indigene e delle comunità locali.
    Secondo Garnett e Fernández-Llamazares ci sono «ampie prove per dire che le popolazioni indigene e i loro territori sono essenziali per la biodiversità del mondo», ma «la reale portata del loro contributo non può essere quantificata in un solo numero». A detta dei ricercatori l’affermazione sull’80 per cento rischia non solo di vanificare la solidità degli studi scientifici, ma anche di danneggiare l’obiettivo per cui viene citata, ovvero comprendere e sostenere le conoscenze dei popoli indigeni sul tema della conservazione della biodiversità e tutelare i loro diritti.
    Per valutare l’impatto delle popolazioni indigene nella tutela della biodiversità in un certo ecosistema o in una certa regione, serve anche e soprattutto prendere in considerazione le relazioni culturali, storiche e sociali stabilite tra i popoli indigeni e l’ambiente circostante, dicono i ricercatori: e questo può avvenire solo riconoscendo i loro territori e le loro comunità, coinvolgendoli nei processi decisionali e finanziando prima di tutto le loro iniziative.
    Sempre a detta di Garnett e Fernández-Llamazares citare una statistica sbagliata, al contrario, può implicare il rischio di snobbare gli appelli delle popolazioni indigene in tema di ambiente e lasciar sottendere che la conoscenza sui loro territori sia completa ed esaustiva, quando non lo è. Inoltre, come è successo a un evento internazionale a cui hanno partecipato i ricercatori, le espone a critiche sulla qualità della loro gestione da parte di chi collega il fatto che tutelerebbero una percentuale elevatissima di biodiversità al declino di molte specie.

    – Leggi anche: L’importanza dell’erba alta LEGGI TUTTO

  • in

    In Austria centinaia di rondini sono morte per il maltempo e il freddo

    Caricamento playerIn Austria il maltempo e l’abbassamento delle temperature legati alla tempesta Boris hanno fatto danni anche tra gli uccelli migratori che si trovavano ancora nel paese, in particolare le rondini: sia a Vienna che in altre località sono state trovate centinaia di uccelli morti. Il freddo improvviso e i venti provenienti da sud li hanno bloccati a nord delle Alpi, poi le piogge intense e prolungate li hanno indeboliti, perché non hanno consentito loro di mangiare. Le diverse specie di rondini infatti mangiano gli insetti che catturano in volo e durante i temporali più forti non riescono a volare e non possono trovarne.

    L’organizzazione Tierschutz Austria, che si occupa di protezione degli animali, sta cercando di soccorrere quante più rondini possibili e attraverso i propri canali sui social network ha invitato chiunque abbia recuperato rondini cadute a terra a portarle alla propria sede per ospitarle in condizioni che ne permettano la sopravvivenza. La specie più interessata è il balestruccio (Delichon urbicum), che sverna in Africa a sud del deserto del Sahara; le rondini comuni (Hirundo rustica) infatti avevano già cominciato la migrazione, ha detto Stephan Scheidl di Tierschutz Austria a ORF News, il sito di notizie della radiotelevisione pubblica.
    Nelle condizioni di maltempo molte rondini si radunano sotto i tetti o i cornicioni dei palazzi nel tentativo di scaldarsi stando vicine, per questo gli uccelli morti sono stati spesso trovati vicini. Alcuni non sono riusciti a ripararsi a causa dei dissuasori per piccioni usati nelle città.

    In passato era già successo che delle condizioni meteorologiche simili a quelle di questi giorni impedissero alle rondini di migrare. Nel 1974 per cercare di salvare la vita a centinaia di rondini la NABU, un’organizzazione tedesca analoga alla LIPU, ne organizzò il trasporto in treno e su un aereo di linea Lufthansa, ma solo pochi uccelli sopravvissero.
    La tempesta Boris ha causato alluvioni in vari paesi dell’Europa centrale – Romania, Polonia, Repubblica Ceca e Austria – e la morte di almeno 15 persone. Per quanto riguarda le rondini non esiste al momento una stima precisa di quante siano morte. LEGGI TUTTO

  • in

    Weekly Beasts

    Un paio degli animali fotografati questa settimana si trovavano al Toronto International Film Festival: un alano di nome Bing alla proiezione del film di cui è protagonista, The Friend, sdraiato sul red carpet, e un lama al guinzaglio alla prima di Saturday Night. Poi ci sono due mucche che fissano una cicogna, un cucciolo di ippopotamo pigmeo, due capibara e altrettanti cervi dalla coda bianca. Per finire con capre alpine, uccelli in volo e altri in acqua. LEGGI TUTTO