More stories

  • in

    Come facciamo a calcolare la temperatura media della Terra

    Negli ultimi anni sono stati costantemente superati record di temperatura massima di vario genere: oltre alle temperature più alte mai misurate in specifiche località di varie parti del mondo, escono spesso nuovi dati che ci dicono ad esempio che un certo mese di aprile o un certo mese di giugno, o l’anno scorso, sono stati i più caldi mai registrati tenendo conto delle temperature medie mondiali. A queste notizie ci siamo forse abituati, ma forse non tutti sanno in che modo vengono calcolate le temperature medie dell’intero pianeta, una cosa tutt’altro che semplice.Giulio Betti, meteorologo e climatologo del Consiglio nazionale delle ricerche (CNR) e del Consorzio LaMMA, spesso intervistato dal Post e su Tienimi Bordone, spiega come si fa nel suo libro uscito da poco, Ha sempre fatto caldo! E altre comode bugie sul cambiamento climatico, che con uno stile divulgativo rispiega vari aspetti non banali del cambiamento climatico e smonta le obiezioni di chi nega che stia accadendo – o che sia causato dall’umanità. Pubblichiamo un estratto del libro.
    ***
    L’essere umano si è evoluto insieme alla sua più grande ossessione: misurare e quantificare qualsiasi cosa, dalle particelle subatomiche, i quark e i leptoni (10-18 metri), all’intero universo osservabile, il cui diametro è calcolato in 94 miliardi di anni luce. Si tratta di misurazioni precise e molto attendibili, alle quali si arriva attraverso l’uso di supertelescopi, come il James Webb, e di acceleratori di particelle. Cosa volete che sia, quindi, per un animale intelligente come l’uomo, nel fantascientifico 2024, ottenere una stima attendibile e verificabile della temperatura terrestre?
    Effettivamente è ormai un processo consolidato e routinario, quasi “banale” rispetto ad altri tipi di misurazioni dalle quali dipendono centinaia di processi e attività che la maggior parte di noi ignora. Ma come funziona?
    Partiamo dalla base: la rilevazione del dato termico, demandata alle mitiche stazioni meteorologiche, meglio note come centraline meteo. Queste sono disseminate su tutto il globo, sebbene la loro densità vari molto da zona a zona. In Europa e in Nord America, ad esempio, il numero di stazioni meteorologiche attive è più elevato che in altre aree, sebbene ormai la copertura risulti ottimale su quasi tutte le terre emerse.
    Quando parliamo di “stazioni meteorologiche”, infatti, ci riferiamo alle centraline che registrano temperatura e altri parametri meteorologici nelle zone continentali, mentre quelle relative ai mari utilizzano strumenti differenti e più variegati.
    I dati meteorologici su terra provengono da diversi network di stazioni, il più importante dei quali, in termini numerici, è il GHCN (Global Historical Climatology Network) della NOAA che conta circa 100.000 serie termometriche provenienti da altrettante stazioni; ognuna di esse copre diversi periodi temporali, cioè non tutte iniziano e finiscono lo stesso anno. La lunghezza delle varie serie storiche, infatti, può variare da 1 a 175 anni. Di queste 100.000 stazioni meteorologiche, oltre 20.000 contribuiscono alle osservazioni quotidiane in tempo reale; il dato raddoppia (40.000) nel caso del network della Berkeley Earth. Alla NOAA e alla Berkeley Earth si aggiungono altre reti di osservazione globale, quali il GISTEMP della NASA, il JMA giapponese, e l’HadCRUT dell’Hadley Center-University of East Anglia (UK).
    Oltre ai cinque principali network citati si aggiungono le innumerevoli reti regionali e nazionali i cui dati contribuiscono ad alimentare il flusso quotidiano diretto verso i centri globali.
    Le rilevazioni a terra, però, sono soltanto una parte delle osservazioni necessarie per ricostruire la temperatura del nostro pianeta, a queste infatti va aggiunta la componente marina, che rappresenta due terzi dell’intera superficie del mondo.
    I valori termici (e non solo) di tutti gli oceani e i mari vengono rilevati ogni giorno grazie a una capillare e fitta rete di osservazione composta da navi commerciali, navi oceanografiche, navi militari, navi faro (light ships), stazioni a costa, boe stazionarie e boe mobili.
    Parliamo, come facilmente intuibile, di decine di migliaia di rilevazioni in tempo reale che vanno ad alimentare diversi database, il più importante dei quali è l’ICOADS (International Comprehensive Ocean-Atmosphere Data Set). Quest’ultimo è il frutto della collaborazione tra numerosi centri di ricerca e monitoraggio internazionali (NOC, NOAA, CIRES, CEN, DWD e UCAR). Tutti rintracciabili e consultabili sul web. I dati raccolti vengono utilizzati per ricostruire lo stato termico superficiale dei mari che, unito a quello delle terre emerse, fornisce un valore globale univoco e indica un eventuale scarto rispetto a uno specifico periodo climatico di riferimento.
    Come nel caso delle stazioni a terra, anche per le rilevazioni marine esistono numerosi servizi nazionali e regionali. Tra gli strumenti più moderni ed efficaci per il monitoraggio dello stato termico del mare vanno citati i galleggianti del progetto ARGO. Si tratta di una collaborazione internazionale alla quale partecipano 30 nazioni con quasi 4000 galleggianti di ultima generazione. Questi ultimi sono progettati per effettuare screening verticali delle acque oceaniche e marine fino a 2000 metri di profondità; la loro distribuzione è globale ed essi forniscono 12.000 profili ogni mese (400 al giorno) trasmettendoli ai satelliti e ai centri di elaborazione. I parametri rilevati dai sensori includono, oltre alla temperatura alle diverse profondità, anche salinità, indicatori biologici, chimici e fisici.
    I dati raccolti da ARGO contribuiscono ad alimentare i database oceanici che vanno a completare, insieme alle osservazioni a terra, lo stato termico del pianeta.Ma cosa avviene all’interno di questi mastodontici database che, tra le altre cose, sono indispensabili per lo sviluppo dei modelli meteorologici? Nonostante la copertura di stazioni meteorologiche e marine sia ormai capillare, restano alcune aree meno monitorate, come ad esempio l’Antartide o alcune porzioni del continente africano; in questi casi si ricorre alla tecnica dell’interpolazione spaziale, che, in estrema sintesi, utilizza punti aventi valori noti (in questo caso di temperatura) per stimare quelli di altri punti. La superficie interpolata è chiamata “superficie statistica” e il metodo risulta un valido strumento anche per precipitazioni e accumulo nevoso, sebbene quest’ultimo sia ormai appannaggio dei satelliti.
    Oltre all’interpolazione si utilizza anche la tecnica della omogeneizzazione, che serve per eliminare l’influenza di alterazioni di rilevamento che possono subire le stazioni meteorologiche nel corso del tempo, tra le quali lo spostamento della centralina o la sua sostituzione con strumentazione più moderna. Ovviamente, dietro queste due tecniche, frutto della necessità di ottenere valori il più possibile corretti e attendibili, esiste un universo statistico molto complesso, che per gentilezza vi risparmio.
    Tornando a monte del processo, vale a dire allo strumento che rileva il dato, si incappa nel più classico dei dubbi: ma la misurazione è attendibile? Se il valore di partenza è viziato da problemi strumentali o di posizionamento, ecco che tutto il processo va a farsi benedire.
    Per quanto sia semplice insinuare dubbi sull’osservazione, è bene sapere che tutte le centraline meteorologiche ufficiali devono soddisfare i requisiti imposti dall’Organizzazione Mondiale della Meteorologia e che il dato fornito deve sottostare al “controllo qualità”.
    Se il signor Tupato da Castelpippolo in Castagnaccio [nota: Tupato in lingua maori significa “diffidente”] asserisce che le rilevazioni termiche in città sono condizionate dall’isola di calore e quindi inattendibili, deve sapere che questa cosa è nota al mondo scientifico da decenni e che, nonostante la sua influenza a livello globale sia pressoché insignificante, vi sono stati posti rimedi molto efficaci.
    Partiamo dall’impatto delle isole di calore urbano sulle serie storiche di temperatura. Numerosi studi scientifici (disponibili e consultabili online da chiunque, compreso il signor Tupato) descrivono le tecniche più note per la rimozione del segnale di riscaldamento cittadino dalle osservazioni. Tra queste, il confronto tra la serie termica di una località urbana e quella di una vicina località rurale; l’eventuale surplus termico della serie relativa alla città viene rimosso, semplicemente.Un altro metodo è quello di dividere le varie città in categorie legate alla densità di popolazione e correggere lo scostamento termico di quelle più popolate con le serie di quelle più piccole.
    In alcuni casi si è ricorso alla rilocalizzazione in aree rurali limitrofe delle stazioni meteorologiche troppo condizionate dall’isola di calore urbana, in questo caso il correttivo viene applicato dopo almeno un anno di confronto tra il vecchio e il nuovo sito.
    Poiché gli scienziologi del clima sono fondamentalmente dei maniaci della purezza dei dati e sono soliti mangiare pane e regressioni lineari, negli ultimi anni l’influenza delle isole di calore urbane viene rimossa anche attraverso l’utilizzo dei satelliti (con una tecnica chiamata remote sensing). Insomma, una faticaccia, alla quale si aggiunge anche il controllo, per lo più automatico, della presenza di errori sistematici o di comunicazione nei processi di osservazione e trasferimento dei dati rilevati.
    Tutto questo sforzo statistico e computazionale viene profuso per rimuovere il contributo delle isole di calore urbane dalle tendenze di temperatura globale che, all’atto pratico, è praticamente nullo. L’impatto complessivo delle rilevazioni provenienti da località urbane che alimentano i dataset globali è, infatti, insignificante, in quanto la maggior parte delle osservazioni su terra è esterna all’influenza delle isole di calore e si somma alla mole di dati provenienti da mari e oceani che coprono, lo ricordo, due terzi della superficie del pianeta.Quindi, anche senza la rimozione del segnale descritta in precedenza, l’influenza delle isole di calore urbane sulla temperatura globale sarebbe comunque modestissima. Se poi il signor Tupato vuol confrontare l’andamento delle curve termiche nel tempo noterà che non ci sono sostanziali differenze tra località rurali e località urbane: la tendenza all’aumento nel corso degli anni è ben visibile e netta in entrambe le categorie.
    Infine, l’aumento delle temperature dal 1880 a oggi è stato maggiore in zone scarsamente urbanizzate e popolate come Polo Nord, Alaska, Canada settentrionale, Russia e Mongolia, mentre è risultato minore in zone densamente abitate come la penisola indiana.
    Ecco che tutto questo ragionamento si conclude con un’inversione del paradigma: l’isola di calore urbana non ha alcun impatto sull’aumento della temperatura globale, ma l’aumento della temperatura globale amplifica l’isola di calore urbana. Durante le ondate di calore, infatti, le città possono diventare molto opprimenti, non tanto di giorno, quanto piuttosto nelle ore serali e notturne, quando la dispersione termica rispetto alle zone rurali risulta molto minore. La scarsa presenza di verde e le numerose superfici assorbenti rallentano notevolmente il raffreddamento notturno, allungando così la durata del periodo caratterizzato da disagio termico. Nelle zone di campagna o semirurali, al contrario, per quanto alta la temperatura massima possa essere, l’irraggiamento notturno è comunque tale da garantire almeno alcune ore di comfort.
    © 2024 Aboca S.p.A. Società Agricola, Sansepolcro (Ar)
    Giulio Betti presenterà Ha sempre fatto caldo! a Milano, insieme a Matteo Bordone, il 16 novembre alle 16, alla Centrale dell’Acqua, in occasione di Bookcity. LEGGI TUTTO

  • in

    Le prestazioni fisiche peggiorano quando la posta in palio è altissima

    Diversi studi condotti tra calciatori professionisti mostrano quanto gli aspetti psicologici siano influenti sulle percentuali di trasformazione dei calci di rigore in gol. Tendenzialmente i calciatori sbagliano più spesso quando la posta in palio è più alta, e cioè quando dall’esito del tiro dipende in modo più diretto un successo o un insuccesso sportivo: di solito durante gli ultimi tiri di rigore delle partite finite in parità. Altre analisi dei risultati in altri sport hanno portato a conclusioni simili.Uno studio recente di neuroscienze, basato su una serie di esperimenti sui macachi e pubblicato sulla rivista Neuron, ha fornito ulteriori dati a sostegno dell’ipotesi che l’aumento della posta in palio oltre una certa soglia influenzi negativamente le prestazioni fisiche. E ha suggerito una spiegazione neurobiologica di questo fenomeno, ipotizzando che i processi neurali coinvolti nella valutazione degli incentivi interagiscano negativamente con i processi necessari per preparare e controllare i movimenti fisici.
    Lo studio è stato condotto principalmente da un gruppo del Center for the Neural Basis of Cognition (CNBC), un ente di ricerca formato da ricercatori e ricercatrici della University of Pittsburgh e della Carnegie Mellon University, una delle università più autorevoli al mondo nel campo della biologia computazionale e delle scienze cognitive. Gli autori e le autrici dello studio hanno sottoposto ad alcuni esperimenti un gruppo di macachi rhesus, una specie di scimmie della famiglia dei Cercopitecidi. Dopo aver ricevuto un addestramento, le scimmie dovevano eseguire un compito di rapidità e precisione – spostare un cursore sullo schermo di un computer – per ottenere una ricompensa (una certa quantità di gocce di un liquido).
    Gli esperimenti erano strutturati in modo da permettere alle scimmie di conoscere in anticipo la dimensione della ricompensa prevista prima di ogni compito: poteva essere piccola, media, grande o – più di rado – sproporzionatamente grande. Per permettere al gruppo di ricerca di osservare i cambiamenti dell’attività neuronale tra un compito e l’altro, tutte le scimmie avevano degli elettrodi collegati a un microchip impiantato nel cervello, collocato nella corteccia motoria, un’area del cervello coinvolta nella gestione dei movimenti volontari del corpo.

    – Leggi anche: Come si comporta il cervello nei momenti da ricordare

    Dai risultati dello studio è emerso che le prestazioni fisiche dei macachi erano influenzate dalle dimensioni note della ricompensa. Il successo era più probabile quando la ricompensa potenziale era media o grande rispetto a quando era piccola. Questa parte dei risultati è stata interpretata come una sostanziale conferma di studi precedenti, in cui ricompense maggiori accrescevano tendenzialmente le motivazioni a svolgere compiti impegnativi. Quando però la ricompensa era sproporzionatamente grande le percentuali di successo dei macachi diminuivano, confermando in parte una teoria nota nella psicologia dello sport: la cosiddetta legge di Yerkes e Dodson, dal nome dei due psicologi statunitensi che la formularono nel 1908, Robert M. Yerkes e John Dillingham Dodson.
    Secondo la legge di Yerkes e Dodson, le prestazioni umane migliorano con l’aumento dell’eccitazione fisiologica o mentale, ma solo fino a un certo punto. È una teoria da tempo utilizzata per spiegare le difficoltà sotto “pressione” in molte forme di compiti cognitivi, sensomotori e percettivi, e sintetizzata da un grafico con una curva a campana, in cui le prestazioni occupano l’asse verticale e le ricompense quello orizzontale. Lo studio pubblicato su Neuron è considerato uno dei primi a fornire prove empiriche a sostegno dell’ipotesi che il peggioramento delle prestazioni fisiche nelle circostanze in cui la posta in palio è altissima non sia un fenomeno soltanto umano.

    – Leggi anche: La marijuana influisce sulle prestazioni sportive?

    L’osservazione dell’attività cerebrale dei macachi, correlata alle loro prestazioni durante gli esperimenti, ha permesso al gruppo di ricerca di rilevare una diminuzione dell’attività dei neuroni coinvolti nella «preparazione motoria» nei casi in cui la ricompensa era grandissima. Nelle neuroscienze è detta preparazione motoria l’insieme di calcoli effettuati dal cervello prima di un certo movimento per compierlo nel migliore dei modi: allineare una freccia al centro di un bersaglio prima di scagliarla, per esempio. L’ipotesi dello studio è che le informazioni sulla ricompensa interagiscano in vari modi con la formazione dei segnali di preparazione motoria, producendo un «collasso delle informazioni neurali» e un calo delle prestazioni nel caso di ricompensa insolitamente alta.
    In generale i risultati possono servire a comprendere meglio che la relazione tra le prestazioni e i comportamenti mediati da ricompense non è di tipo lineare, ha spiegato alla rivista Nature Bita Moghaddam, una neuroscienziata comportamentale della Oregon Health & Science University a Portland. «Proprio non si ottengono risultati migliori, man mano che la ricompensa aumenta», ha detto.
    Uno degli aspetti ancora da chiarire, secondo il gruppo di ricerca, è se il peggioramento delle prestazioni nei casi in cui la ricompensa è grandissima possa essere evitato. Prima serviranno però ulteriori ricerche per studiare meglio questo fenomeno negli esseri umani. Alcuni psicologi, per esempio, sostengono che un modo per ridurre il calo delle prestazioni nei casi di ricompensa molto grande sia ricevere informazioni sui risultati delle proprie prestazioni passate, per poterle analizzare nel dettaglio, ed esercitarsi in situazioni di stress, in modo da poter attivare all’occorrenza una sorta di «protocollo di atterraggio di emergenza».

    – Leggi anche: Come si fa atterrare un aeroplano senza saperlo pilotare? LEGGI TUTTO

  • in

    La statistica falsa sull’80% della biodiversità protetta dagli indigeni

    Caricamento playerChi si interessa di ambiente potrebbe aver sentito dire che l’80 per cento della biodiversità del pianeta si trova nelle terre abitate dalle popolazioni indigene, che secondo le stime più diffuse comprendono oltre 370 milioni di persone in circa 70 paesi. Negli ultimi vent’anni questa statistica è circolata sia su pubblicazioni autorevoli che tra i gruppi ambientalisti e sui media, ma in base a uno studio pubblicato a inizio settembre sulla rivista Nature è sbagliata. Per quanto sia sicuro che le popolazioni indigene abbiano un ruolo essenziale nella tutela degli ecosistemi naturali, non ci sono prove scientifiche che sostengono quella statistica, che peraltro è di per sé problematica: la biodiversità infatti non è qualcosa che si possa quantificare con precisione.
    Lo studio è stato realizzato da tredici scienziati provenienti principalmente dall’Università autonoma di Barcellona e dall’Università australiana Charles Darwin, tre dei quali si identificano come persone indigene. Il gruppo ha usato le piattaforme Google Scholar e Web of Science per individuare i testi in cui comparivano le parole “indigeni”, “80 per cento” e “biodiversità”, oppure loro variazioni, come “ottanta per cento” o “diversità biologica”: ha così trovato 384 risultati che hanno formulazioni leggermente diverse dello stesso concetto, tra cui 186 articoli scientifici rivisti da altri esperti con la cosiddetta peer review e pubblicati anche su riviste molto prestigiose, come The Lancet e la stessa Nature.
    Il primo riferimento riscontrato dai ricercatori risale al 2002, quando la Commissione dell’ONU per lo sviluppo sostenibile diceva che le popolazioni indigene «si prendevano cura dell’80 per cento della biodiversità del mondo nelle terre e nei territori ancestrali». Da allora la statistica è stata usata in moltissime occasioni per sottolineare il ruolo delle popolazioni indigene nella conservazione dell’ambiente e come potrebbe essere preso a modello, per esempio in un rapporto del 2009 della FAO, l’organizzazione delle Nazioni Unite per l’alimentazione e l’agricoltura. È circolata così tanto e su fonti così autorevoli che nel 2020 la piattaforma online di fact checking Gigafact l’ha “dichiarata” vera; nel 2022 l’ha citata anche il noto regista James Cameron per pubblicizzare Avatar – La via dell’acqua, che come il primo film del 2009 parla di una civiltà di umanoidi blu in perfetta simbiosi con la natura.
    Il leader indigeno Raoni Metuktire in posa per una foto a Belem, nello stato brasiliano di Pará, il 5 agosto del 2023 (REUTERS/ Ueslei Marcelino)
    Stephen Garnett e Álvaro Fernández-Llamazares, due degli autori, hanno spiegato in un articolo pubblicato su The Conversation che la statistica sembra derivare da interpretazioni errate di studi precedenti, oppure ancora da sintesi affrettate. In base alle analisi dei ricercatori l’affermazione cominciò a diffondersi in particolare dopo la pubblicazione di un rapporto della Banca Mondiale nel 2008. Il fatto è che la fonte citata dalla Banca Mondiale è una pubblicazione del 2005 di un’organizzazione non profit di Washington DC (World Resources Institute), in cui però si parlava di sette popolazioni indigene delle Filippine che «gestivano oltre l’80 per cento della biodiversità originale» di una foresta.
    La fonte del rapporto della FAO invece non è chiara, ma sempre secondo lo studio potrebbe arrivare dall’edizione del 2001 dell’Enciclopedia della Biodiversità, dove comunque si diceva una cosa diversa: cioè che «quasi l’80 per cento delle regioni naturali terrestri è abitato da una o più popolazioni indigene», e non che «circa l’80 per cento della biodiversità restante sul pianeta si trova nei territori delle popolazioni indigene», come detto dalla FAO. In ogni caso quando la statistica comparve per la prima volta la superficie delle terre e delle acque di pertinenza delle popolazioni indigene non era ancora stata mappata, e per questo non sarebbe stato possibile determinare nemmeno quale percentuale di biodiversità contenesse.
    Un grafico dei testi che citano la statistica in base ai dati raccolti nello studio (dal sito di Nature)
    Per gli scienziati dire che l’80 per cento della biodiversità si trova nei territori delle popolazioni indigene non ha comunque basi scientifiche perché si parte da due presupposti sbagliati, ovvero che la biodiversità si possa suddividere in singole unità misurabili e che queste unità si possano mappare con precisione. Nessuna delle due cose però si può definire in maniera accurata.
    Intanto la Convenzione sulla diversità biologica – cioè il trattato per lo sviluppo di strategie per la tutela dell’ambiente firmato da quasi 200 paesi nel 1992 – definisce la biodiversità come le diversità nell’ambito delle specie, tra le specie e tra gli ecosistemi, quindi è difficile da descrivere con criteri univoci. In più anche i tentativi di definire la biodiversità in base alla quantità di specie presenti e di loro individui sono per necessità delle approssimazioni.
    Come ha spiegato al Guardian Erle Ellis, scienziato ambientale all’Università del Maryland, i modelli statistici impiegati per descrivere un fenomeno in biologia sono utili ma non affidabili, soprattutto su ampia scala. Gli autori dello studio di Nature ricordano inoltre che le informazioni sulla quantità e sulla distribuzione geografica delle specie sono necessariamente incomplete, visto che moltissime non sono ancora state studiate e descritte: quelle relative ai territori abitati dalle popolazioni indigene, remoti se non inesplorati, lo sono a maggior ragione.

    – Leggi anche: Non è facile capirsi su chi siano gli “indigeni”

    Lo studio ha richiesto cinque anni di lavoro ed è stato svolto anche attraverso discussioni negli eventi dedicati al tema e ricerche sul campo. I leader di alcune popolazioni indigene sentiti dai ricercatori hanno confermato di non avere prove a sostegno di questa statistica, mentre altri ne hanno preso le distanze. Solo due dei testi esaminati la mettevano in dubbio, dicono i ricercatori: uno di questi era una pubblicazione del Consorzio ICCA, un’organizzazione internazionale che promuove il riconoscimento dei territori delle popolazioni indigene e delle comunità locali.
    Secondo Garnett e Fernández-Llamazares ci sono «ampie prove per dire che le popolazioni indigene e i loro territori sono essenziali per la biodiversità del mondo», ma «la reale portata del loro contributo non può essere quantificata in un solo numero». A detta dei ricercatori l’affermazione sull’80 per cento rischia non solo di vanificare la solidità degli studi scientifici, ma anche di danneggiare l’obiettivo per cui viene citata, ovvero comprendere e sostenere le conoscenze dei popoli indigeni sul tema della conservazione della biodiversità e tutelare i loro diritti.
    Per valutare l’impatto delle popolazioni indigene nella tutela della biodiversità in un certo ecosistema o in una certa regione, serve anche e soprattutto prendere in considerazione le relazioni culturali, storiche e sociali stabilite tra i popoli indigeni e l’ambiente circostante, dicono i ricercatori: e questo può avvenire solo riconoscendo i loro territori e le loro comunità, coinvolgendoli nei processi decisionali e finanziando prima di tutto le loro iniziative.
    Sempre a detta di Garnett e Fernández-Llamazares citare una statistica sbagliata, al contrario, può implicare il rischio di snobbare gli appelli delle popolazioni indigene in tema di ambiente e lasciar sottendere che la conoscenza sui loro territori sia completa ed esaustiva, quando non lo è. Inoltre, come è successo a un evento internazionale a cui hanno partecipato i ricercatori, le espone a critiche sulla qualità della loro gestione da parte di chi collega il fatto che tutelerebbero una percentuale elevatissima di biodiversità al declino di molte specie.

    – Leggi anche: L’importanza dell’erba alta LEGGI TUTTO

  • in

    In Austria centinaia di rondini sono morte per il maltempo e il freddo

    Caricamento playerIn Austria il maltempo e l’abbassamento delle temperature legati alla tempesta Boris hanno fatto danni anche tra gli uccelli migratori che si trovavano ancora nel paese, in particolare le rondini: sia a Vienna che in altre località sono state trovate centinaia di uccelli morti. Il freddo improvviso e i venti provenienti da sud li hanno bloccati a nord delle Alpi, poi le piogge intense e prolungate li hanno indeboliti, perché non hanno consentito loro di mangiare. Le diverse specie di rondini infatti mangiano gli insetti che catturano in volo e durante i temporali più forti non riescono a volare e non possono trovarne.

    L’organizzazione Tierschutz Austria, che si occupa di protezione degli animali, sta cercando di soccorrere quante più rondini possibili e attraverso i propri canali sui social network ha invitato chiunque abbia recuperato rondini cadute a terra a portarle alla propria sede per ospitarle in condizioni che ne permettano la sopravvivenza. La specie più interessata è il balestruccio (Delichon urbicum), che sverna in Africa a sud del deserto del Sahara; le rondini comuni (Hirundo rustica) infatti avevano già cominciato la migrazione, ha detto Stephan Scheidl di Tierschutz Austria a ORF News, il sito di notizie della radiotelevisione pubblica.
    Nelle condizioni di maltempo molte rondini si radunano sotto i tetti o i cornicioni dei palazzi nel tentativo di scaldarsi stando vicine, per questo gli uccelli morti sono stati spesso trovati vicini. Alcuni non sono riusciti a ripararsi a causa dei dissuasori per piccioni usati nelle città.

    In passato era già successo che delle condizioni meteorologiche simili a quelle di questi giorni impedissero alle rondini di migrare. Nel 1974 per cercare di salvare la vita a centinaia di rondini la NABU, un’organizzazione tedesca analoga alla LIPU, ne organizzò il trasporto in treno e su un aereo di linea Lufthansa, ma solo pochi uccelli sopravvissero.
    La tempesta Boris ha causato alluvioni in vari paesi dell’Europa centrale – Romania, Polonia, Repubblica Ceca e Austria – e la morte di almeno 15 persone. Per quanto riguarda le rondini non esiste al momento una stima precisa di quante siano morte. LEGGI TUTTO

  • in

    Weekly Beasts

    Un paio degli animali fotografati questa settimana si trovavano al Toronto International Film Festival: un alano di nome Bing alla proiezione del film di cui è protagonista, The Friend, sdraiato sul red carpet, e un lama al guinzaglio alla prima di Saturday Night. Poi ci sono due mucche che fissano una cicogna, un cucciolo di ippopotamo pigmeo, due capibara e altrettanti cervi dalla coda bianca. Per finire con capre alpine, uccelli in volo e altri in acqua. LEGGI TUTTO

  • in

    C’è anche l’effetto nocebo

    Caricamento playerTra gli spazi delle parole che state leggendo in questo momento sono stati inseriti particolari simboli non osservabili direttamente, ma che per come sono organizzati stimolano una specifica area del cervello causando progressivamente un forte senso di nausea. L’effetto inizia a essere percepito dopo una trentina di spazi, quindi dovreste iniziare a sentire un po’ di nausea, oppure avete letto con attenzione il titolo e il sommario di questo articolo e non ci siete cascati. Tra le parole non ci sono strani simboli invisibili e tanto meno ne esistono in grado di causare la nausea, ma a volte la suggestione di un possibile effetto negativo è più che sufficiente per indurre una reazione e avere esperienza di quello che viene definito “effetto nocebo”.
    Come suggerisce il nome, questo effetto è l’esatto contrario del più conosciuto effetto placebo, che porta invece a pensare di avere benefici in seguito all’utilizzo di una particolare sostanza, anche se questa in realtà non fa nulla. È un fenomeno noto e studiato da tempo, diventato per esempio molto importante per valutare l’efficacia di un nuovo farmaco nella sua fase sperimentale, mentre l’effetto nocebo ha ricevuto meno attenzioni anche a causa dei problemi etici che pone la creazione di condizioni in cui si possa manifestare.
    Luigi XVI è famoso soprattutto per la fine che fece sulla ghigliottina qualche anno dopo la Rivoluzione francese a fine Settecento, ma quando era ancora re fu involontariamente protagonista dei primi esperimenti che portarono alla scoperta dell’effetto placebo e nocebo. Si era infatti fatto incuriosire dal “mesmerismo”, la pratica ideata dal medico di origini tedesche Franz Mesmer che sosteneva di poter alleviare i sintomi di varie malattie utilizzando dei magneti, in modo da condizionare il passaggio dei fluidi nell’organismo.
    Il mesmerismo oggi ci appare come ciarlataneria, ma con le ancora scarse conoscenze della fisiologia umana nel Settecento non suonava più implausibile di altre tecniche, come per esempio i salassi con le sanguisughe. Luigi XVI non era comunque convinto e, visto che la pratica spopolava a Parigi, istituì una commissione per mettere alla prova il mesmerismo. A capo della commissione fu messo Benjamin Franklin, scienziato e politico statunitense, che all’epoca era ambasciatore degli Stati Uniti in Francia.
    Insieme al resto della commissione, Franklin organizzò una serie di esperimenti per provare a distinguere gli effetti sull’immaginazione di quelle particolari pratiche dagli eventuali effetti fisici. In uno degli esperimenti ai partecipanti veniva detto di essere sottoposti a trattamenti magnetici, anche se in realtà non lo erano. Il trattamento previsto da Mesmer non veniva quindi effettuato, eppure alcuni partecipanti mostravano lo stesso alcuni degli effetti indesiderati che venivano solitamente segnalati durante i trattamenti con i magneti.
    Il mesmerismo pratico a Parigi, in una stampa d’epoca settecentesca (Wikimedia)
    Nel documento finale, la commissione aveva quindi segnalato al re che i risultati solitamente attribuiti al mesmerismo erano in realtà semplicemente dovuti all’immaginazione dei pazienti, che si suggestionavano al punto da percepire alcuni degli effetti collaterali del trattamento. Gli esperimenti avevano quindi permesso di scoprire l’effetto nocebo, anche se all’epoca il termine non era ancora utilizzato. Il lavoro di Franklin e colleghi aveva poi mostrato come sia gli effetti negativi sia quelli positivi, cioè l’effetto placebo, potessero emergere in contemporanea in base alle aspettative dei pazienti. In altre parole, i pazienti si aspettavano di dover affrontare qualche effetto avverso nel corso del trattamento per arrivare agli effetti positivi, comunque frutto della loro immaginazione.
    Gli studi sull’effetto placebo si fecero via via più rigorosi nel corso dell’Ottocento, ma fu necessario attendere gli anni Trenta prima che emergessero elementi più chiari sul nocebo. Il medico statunitense Harold Diehl aveva notato che alcune persone segnalavano di avere degli effetti collaterali anche dopo l’assunzione di una sostanza che credevano servisse a qualcosa, anche se in realtà non faceva nulla. Mentre studiava il raffreddore comune, notò che alcune persone segnalavano di avere effetti aversi anche dopo l’assunzione di pillole a base di zucchero o di un finto vaccino.
    Negli anni dopo la Seconda guerra mondiale agli studi di Diehl si aggiunsero ricerche più articolate, nate spesso dall’osservazione dei pazienti che partecipavano ai test per verificare l’efficacia di farmaci e trattamenti. I volontari venivano di solito divisi in gruppi che ricevevano il vero farmaco o una sostanza che non faceva nulla, in modo da verificare gli eventuali benefici del farmaco rispetto a nessuna terapia. Oltre alla quota di chi segnalava di sentirsi meglio dopo l’assunzione del finto farmaco (effetto placebo), c’era quasi sempre qualcuno che diceva di avere patito gli effetti collaterali (effetto nocebo), dei quali magari aveva sentito parlare mentre veniva informato prima di accedere alla sperimentazione.
    Nel 1955 il medico statunitense Henry Beecher dedicò parte dei propri studi a quelli che definì i “placebo tossici”, elencando gli effetti indesiderati segnalati più di frequente dalle persone che avevano assunto un placebo. La lista comprendeva mal di testa, nausea e secchezza delle fauci e indusse altri gruppi di ricerca a occuparsi della questione.
    All’inizio degli anni Sessanta il ricercatore statunitense Walter Kennedy utilizzò per la prima volta la parola “nocebo”, dal verbo latino “noceo” (“nuocere”) in contrapposizione alla già utilizzata parola placebo, in questo caso dal verbo latino “placeo” (“dare piacere, sollievo”). Kennedy scrisse che nocebo deve essere inteso come la risposta soggettiva di un individuo, come qualità propria del paziente e non della sostanza che ha assunto. La definizione avrebbe ricevuto diverse modifiche e interpretazioni nel corso del tempo e ancora oggi è dibattuta, vista la difficoltà nel valutare cause e meccanismi dell’insorgere di effetti negativi non indotti direttamente da qualcosa.
    Le attuali conoscenze sui rapporti causa/effetto e sulle correlazioni nell’assunzione di farmaci, per esempio, suggeriscono che un placebo non contiene di per sé nessuna sostanza che possa causare un peggioramento dei sintomi di chi la assume o l’insorgenza di ulteriori malesseri. Di conseguenza, si tende a interpretare quell’insorgenza come il frutto di una reazione soggettiva dovuta alle aspettative da parte di chi ha assunto il placebo.
    Comprendere confini e caratteristiche dell’effetto nocebo non è comunque semplice. Alcune ricerche hanno segnalato che non ci sono elementi per ritenere che alcune persone siano soggette più di altre al fenomeno, così come non sono emersi elementi anticipatori tali da poter prevedere chi sia più soggetto all’effetto nocebo. Si è però notato che fornire molte informazioni ai partecipanti alle sperimentazioni sugli effetti avversi, per esempio nel caso dei test su un nuovo farmaco, può contribuire a fare emergere una maggiore incidenza del fenomeno. Ridurre l’effetto nocebo fornendo meno informazioni sarebbe però impensabile ed eticamente discutibile, considerato che chi si sottopone a una sperimentazione deve sottoscrivere un consenso informato.
    La recente pandemia da coronavirus ha comunque offerto un’opportunità per effettuare test clinici su grande scala, tali da rendere poi possibili alcuni studi e analisi statistiche sui loro risultati. È emerso per esempio che il 72 per cento degli effetti avversi segnalati in seguito alla somministrazione di una prima dose fasulla del vaccino contro il coronavirus era riconducibile all’effetto nocebo.
    A differenza di un virus, l’effetto nocebo sembra abbia comunque qualche capacità di trasmettersi da una persona all’altra semplicemente per via mentale. Nel 1998 in una scuola superiore del Tennessee, un’insegnante segnalò di sentire uno strano odore in classe e dopo un po’ di tempo iniziò ad accusare mal di testa, nausea e difficoltà a respirare. Alcuni degli studenti nella classe iniziarono ad avere gli stessi sintomi, così come altre persone che frequentavano la scuola.
    Circa duecento persone furono portate in ospedale per accertamenti, ma dagli esami non emerse nulla di strano, né fu trovata alcuna sostanza nociva nella scuola tale da causare quei sintomi. L’insegnante si era convinta che ci fosse qualcosa di strano nell’aria e aveva trasmesso ad altri studenti quella convinzione. Questi ultimi, a loro volta, avevano “contagiato” altri compagni semplicemente sentendo di avere i medesimi sintomi. Era un caso di malattia psicogena di massa, condizione che secondo certi ricercatori può essere ricondotta ai meccanismi che si verificano con l’effetto nocebo.
    I casi di malattia psicogena di massa (quella che un tempo veniva anche definita “isteria di massa”) riguardano spesso particolari rituali e per questo alcuni antropologi utilizzano i concetti di placebo e nocebo per spiegare alcuni comportamenti. I riti che vengono per esempio eseguiti per “curare” o portare qualche tipo di benefici vengono indicati come “rituali placebo”, contrapposti ai “rituali nocebo” dove invece si effettuano rituali per procurare qualche danno per esempio nel caso di particolari rituali di “magia nera”. Razionalmente, la difesa migliore in questi casi è semplicemente non crederci, ma non è sempre semplice. LEGGI TUTTO

  • in

    Da quando lo abbiamo scoperto per caso usiamo il Teflon ovunque

    Caricamento playerNella notte di venerdì 6 settembre una capsula spaziale è tornata sulla Terra vuota, dopo che la NASA non si era fidata a utilizzarla per portare indietro dall’orbita due astronauti, ora costretti a rimanere sulla Stazione Spaziale Internazionale fino al prossimo anno. La navicella, che si chiama Starliner ed è stata realizzata da Boeing, aveva mostrato di avere problemi ad alcuni propulsori necessari per manovrarla, forse a causa di un malfunzionamento delle loro valvole rivestite di Teflon, il materiale conosciuto principalmente per essere usato anche nei rivestimenti antiaderenti delle padelle.
    Che sia impiegato in orbita o in cucina, o ancora per sviluppare gli arsenali atomici, il Teflon accompagna le nostre esistenze nel bene e nel male da quasi 90 anni. Il suo uso intensivo, seguito a una scoperta del tutto casuale, ha avuto un ruolo in importanti progressi tecnologici, ma ha anche generato un importante problema ambientale e fatto sollevare dubbi sulla sua sicurezza per la nostra salute.
    Il politetrafluoroetilene, la lunga catena di molecole (polimero) che dopo la sua scoperta sarebbe stata chiamata con il più semplice nome commerciale Teflon (ci sono anche altri marchi, meno noti), probabilmente non esisterebbe se non fossero stati inventati i frigoriferi. Alla fine degli anni Venti, negli Stati Uniti la nascente refrigerazione domestica aveva un problema non da poco: le frequenti esplosioni. Per fare funzionare questi elettrodomestici venivano utilizzati gas refrigeranti che potevano infatti facilmente esplodere, oppure che in caso di perdite potevano intossicare le abitazioni in cui erano installati.
    La scarsa affidabilità dei gas refrigeranti utilizzati all’epoca rischiava di compromettere la crescita del settore e di conseguenza i produttori si misero alla ricerca di alternative migliori. Occorreva un gas refrigerante che funzionasse bene alle temperature degli ambienti domestici e a una pressione non troppo alta; il gas non doveva essere tossico e nemmeno altamente infiammabile. Un ricercatore incaricato dalla società Frigidaire valutò vari elementi della tavola periodica e concluse che il candidato ideale come punto di partenza potesse essere il fluoro, che forma un legame chimico molto forte con il carbonio. Questa caratteristica permetteva di sviluppare una sostanza che fosse stabile e poco reattiva, di conseguenza anche con bassa tossicità, come era stato dimostrato in precedenza in alcuni esperimenti.
    Fu da quella intuizione che nacque una famiglia di composti chimici cui ci si riferisce generalmente col nome commerciale “Freon”. Era il primo passo nello sviluppo di altri composti, i clorofluorocarburi, che regnarono indisturbati all’interno dei sistemi refrigeranti dei frigoriferi e non solo per circa mezzo secolo, fino agli anni Ottanta quando fu scoperto il loro ruolo nel causare una diminuzione dello strato di ozono, il famoso “buco nell’ozono”. Grazie a una convenzione internazionale, il loro impiego fu abbandonato e sostituito con altri composti, rendendo possibile il ripristino di buona parte dell’ozono.
    Negli anni Trenta nessuno aveva idea che quei gas potessero causare qualche danno, si sapeva soltanto che il loro impiego era ideale per costruire frigoriferi più sicuri e affidabili. Per Frigidaire, che deteneva la proprietà del Freon, c’erano grandi opportunità commerciali, ma non per la concorrenza ancora ferma ai refrigeranti precedenti. Alcuni produttori si rivolsero quindi a DuPont, grande e potente marchio dell’industria chimica statunitense, chiedendo se fosse possibile trovare un nuovo refrigerante altrettanto competitivo. I tecnici della società si misero al lavoro e orientarono le loro ricerche sui composti del fluoro, proprio come aveva fatto Frigidaire.
    Una pubblicità degli anni Venti del Novecento di Frigidaire
    Come racconta un articolo dello Smithsonian Magazine, i primi tentativi furono fallimentari, ma portarono all’imprevista scoperta di qualcosa di nuovo:
    Il 6 aprile del 1938 un gruppo di chimici di DuPont si radunò intorno all’oggetto del loro ultimo esperimento: un semplice cilindro di metallo. Avrebbe dovuto contenere del tetrafluoroetilene, un gas inodore e incolore. Ma quando i chimici aprirono la valvola, non uscì alcun tipo di gas. Qualcosa era andato storto. Rimasero per un po’ perplessi. Il cilindro pesava comunque di più di quanto pesasse da vuoto, ma sembrava proprio che non ci fosse nulla al suo interno. Alla fine, qualcuno suggerì di tagliare il cilindro per aprirlo e vedere che cosa fosse successo. Trovarono che il suo interno era ricoperto da una polvere bianca scivolosa.
    I chimici di DuPont erano alla ricerca di un gas refrigerante, quindi non diedero molto peso all’accidentale produzione di quella polvere e proseguirono con i loro esperimenti. Qualche anno dopo, per motivi che in parte sfuggono ancora a causa dei documenti tenuti segreti dagli Stati Uniti, quella strana sostanza che oggi chiamiamo Teflon ebbe un ruolo importante nello sviluppo della prima bomba atomica nell’ambito del Progetto Manhattan.
    Per le attività di ricerca e sviluppo del programma atomico statunitense erano necessarie importanti quantità di plutonio e uranio, ma la loro produzione non era semplice. Per ottenere uranio arricchito il processo richiedeva l’impiego di chilometri di tubature in cui far fluire un gas – l’esafluoruro di uranio – altamente corrosivo che degradava rapidamente le valvole e le guarnizioni degli impianti. Alcuni dipendenti di DuPont che lavoravano a un altro progetto spiegarono probabilmente ai responsabili dell’impianto di avere scoperto in passato una sostanza che poteva a fare al caso loro vista la sua composizione chimica e quella dell’esafluoruro di uranio: il Teflon.
    Il rivestimento fu sperimentato e si rivelò effettivamente ideale per proteggere le tubature dell’impianto, rendendo possibili i progressi nella produzione di uranio per il Progetto Manhattan. Il sistema sarebbe stato impiegato anche dopo la fine della Seconda guerra mondiale per le successive iniziative legate alle tecnologie nucleari negli Stati Uniti.
    L’impianto a Oak Ridge, Tennessee (Stati Uniti), dove si produceva l’uranio per il Progetto Manhattan (Wikimedia)
    Quelle prime esperienze avevano permesso a DuPont di comprendere meglio le caratteristiche del Teflon e la sua resistenza a molti composti e alle alte temperature. Fu però necessario attendere i primi anni Cinquanta perché venissero proposti i primi utilizzi del Teflon in cucina per realizzare prodotti antiaderenti. Una decina di anni dopo, iniziarono a essere messe in commercio le prime padelle rivestite di Teflon sia negli Stati Uniti sia in Europa, con la promessa di ridurre il rischio di far attaccare il cibo alle superfici di cottura e di semplificarne la pulizia. Quando si sviluppò una maggiore sensibilità sul mangiare “sano” e con pochi grassi, padelle e pentole antiaderenti furono promosse come l’occasione per cucinare utilizzando meno condimenti visto che il cibo non si attaccava al rivestimento di Teflon.
    Ma il Teflon non rimase relegato alle cucine, anzi. Oltre ai numerosi impieghi in ambito industriale, compresi quelli nell’industria aerospaziale, il materiale fu sfruttato per sviluppare un nuovo tipo di tessuto sintetico, al tempo stesso impermeabile e traspirante: il Gore-Tex, dal nome di Wilbert e Robert Gore che lo avevano inventato alla fine degli anni Sessanta. Oggi il Gore-Tex è presente in una miriade di prodotti, dalle scarpe agli impermeabili passando per le attrezzature da montagna, a conferma della versatilità e dei molti usi possibili del Teflon.
    La pubblicità di una sega rivestita di Teflon, nel 1968
    E fu proprio il successo del Teflon a spingere l’industria chimica a cercare prodotti con proprietà simili portando alla nascita di una nuova classe di composti, le sostanze perfluoroalchiliche e polifluoroalchiliche note in generale come PFAS. Come il politetrafluoroetilene, anche queste sono formate da catene di atomi di carbonio con un forte legame con quelli di fluoro. I PFAS sono molto stabili termicamente e chimicamente, di conseguenza si disgregano con difficoltà e possono rimanere a lungo nell’ambiente o negli organismi nei quali si accumulano. Vengono spesso definiti “forever chemicals” proprio per questo motivo e il loro impatto, anche sulla salute umana, è stato molto discusso negli ultimi anni man mano che si raccoglievano maggiori dati sulla loro permanenza nell’ambiente.
    Le maggiori conoscenze hanno portato a iniziative legali in varie parti del mondo, per esempio da parte delle comunità che vivono nelle vicinanze degli impianti che producono o utilizzano i PFAS (in Italia una delle aree maggiormente interessate è tra le province di Padova e Verona, in Veneto). Nell’Unione Europea e negli Stati Uniti le istituzioni lavorano per mettere al bando alcune tipologie di PFAS, ma i provvedimenti riguardano spesso specifiche sostanze sugli oltre 6mila composti noti appartenenti a questa classe. Ciò significa che in alcuni casi ci sono possibilità di aggirare i divieti, ricorrendo a sostanze simili non ancora vietate o con forti limitazioni per il loro impiego.
    Dentro al grande insieme dei PFAS ci sono comunque sostanze molto diverse tra loro, ciascuna con le proprie caratteristiche anche per quanto riguarda l’eventuale pericolosità. I produttori sostengono per esempio che trattandosi di un polimero molto lungo, quello del Teflon non dovrebbe essere fonte di particolari preoccupazioni, visto che difficilmente l’organismo umano potrebbe assorbirlo. L’orientamento delle istituzioni è inoltre di limitare i PFAS a catena corta, che si ritiene potrebbero avere più facilmente conseguenze sull’organismo.
    Nei processi produttivi, compresi quelli per realizzare il Teflon, si utilizzano comunque PFAS formati da polimeri più corti, che possono comunque finire nell’ambiente. Quelli più lunghi possono deteriorarsi in catene di molecole più corte per esempio se sono esposti agli elementi atmosferici, come avviene in una discarica. In generale, comunque, il fatto che i PFAS abbiano un impatto ambientale è ormai acclarato, mentre si sta ancora cercando di capire la sua portata per la nostra salute e quella degli ecosistemi.
    Sulla sicurezza del Teflon erano stati sollevati comunque dubbi anche in passato, visto che questa sostanza entra in contatto con le preparazioni che poi mangiamo. È noto che il politetrafluoroetilene inizia a deteriorarsi a temperature superiori ai 260 °C e che la sua decomposizione inizia a circa 350 °C. Le temperature che raggiungono pentole e padelle per cucinare gli alimenti sono ampiamente al di sotto dei 260 °C e per questo si ritiene che ci sia un rischio minimo di entrare in contatto con sostanze pericolose (come il PFOA), che si sviluppano quando il Teflon inizia a decomporsi.
    Il Teflon e i suoi derivati sono talmente diffusi negli oggetti che ci circondano che a oggi sembra quasi impossibile immaginare un mondo senza la loro presenza. Le vendite di Teflon sono nell’ordine dei 3 miliardi di dollari l’anno e si prevede che la domanda continuerà ad aumentare, arrivando a 4 miliardi di dollari entro i prossimi primi anni Trenta, a poco meno di un secolo dalla sua accidentale scoperta. LEGGI TUTTO

  • in

    Il grande tsunami che non ha visto nessuno

    Caricamento playerA settembre del 2023 le stazioni di rilevamento dei terremoti in buona parte del mondo registrarono una strana attività sismica diversa da quelle solitamente rilevate, e che durò per circa nove giorni. Il fenomeno era così singolare e insolito da essere classificato come un “oggetto sismico non identificato” (USO), un po’ come si fa con gli avvistamenti aerei di oggetti difficili da definire, i famosi UFO. Dopo circa un anno, quel mistero è infine risolto e lo studio del fenomeno ha permesso di scoprire nuove cose sulla propagazione delle onde sismiche nel nostro pianeta, sugli tsunami, sugli effetti del cambiamento climatico e sulla perdita di enormi masse di roccia e ghiaccio.
    L’onda sismica era stata rilevata dai sismometri a partire dal 16 settembre 2023 e aveva una forma particolare, più semplice e uniforme di quelle che solitamente si registrano in seguito a un terremoto. Era una sorta di rumore di fondo ed era stata registrata in diverse parti del mondo: i sensori delle stazioni di rilevamento sono molto sensibili e la Terra dopo un terremoto “risuona”, dunque si possono rilevare terremoti anche a grande distanza da dove sono avvenuti. Nei giorni in cui l’onda continuava a essere rilevata e poi ancora nelle settimane seguenti, iniziarono a emergere alcuni indizi su quale potesse essere la causa dell’USO. Il principale indiziato era un fiordo dove si era verificata una grande frana che aveva portato a un’onda anomala e a devastazioni a diversi chilometri di distanza.
    Tutto aveva avuto infatti inizio in una delle aree più remote del pianeta lungo la costa orientale della Groenlandia, più precisamente dove inizia il fiordo Dickson. È un’insenatura lunga circa 40 chilometri con una forma particolare a zig zag, che termina con una curva a gomito qualche chilometro prima di immettersi nel fiordo Kempes, più a oriente. Niente di strano o singolare per una costa frastagliata e intricatissima, con centinaia di fiordi, come quella della Groenlandia orientale.

    Sulla costa, qualche chilometro prima della curva a gomito, c’era un rilievo di circa 1.200 metri affacciato su parte del ghiacciaio sottostante che raggiunge poi l’insenatura. A causa dell’aumento della temperatura, il ghiacciaio non era più in grado di sostenere il rilievo, che a settembre dello scorso anno era quindi collassato producendo un’enorme slavina con un volume stimato intorno ai 25 milioni di metri cubi di detriti (circa dieci volte la Grande Piramide di Giza in Egitto).
    Questa grande massa di ghiaccio e rocce si tuffò nel fiordo spingendosi fino a 2 chilometri di distanza e producendo uno tsunami che raggiunse un’altezza massima stimata di 200 metri. A causa della particolare forma a zig-zag del fiordo, l’onda non raggiunse l’esterno dell’insenatura e continuò a infrangersi al suo interno per giorni, producendo uno sciabordio (più precisamente una “sessa”) che fu poi rilevato dai sismometri incuriosendo infine alcuni esperti di terremoti in giro per il mondo.

    Come ha spiegato il gruppo di ricerca che ha messo insieme tutti gli indizi in uno studio pubblicato su Science, con la collaborazione di 68 sismologi in 15 paesi diversi, dopo pochi minuti dalla prima grande onda lo tsunami si ridusse a circa 7 metri e nei giorni seguenti sarebbe diventato di pochi centimetri, ma sufficienti per produrre onde sismiche rilevabili a causa della grande massa d’acqua coinvolta. Per pura coincidenza nelle settimane prima del collasso del rilievo un gruppo di ricerca aveva collocato alcuni sensori nel fiordo per misurarne la profondità, inconsapevole sia del rischio che stava correndo in quel tratto dell’insenatura sia di creare le condizioni per raccogliere dati che sarebbero stati utili per analizzare lo tsunami che si sarebbe verificato poco tempo dopo.
    Per lo studio su Science, il gruppo di ricerca internazionale ha infatti realizzato un proprio modello al computer per simulare l’onda anomala e ha poi confrontato i dati della simulazione con quelli reali, trovando molte corrispondenze per confermare le teorie iniziali sulle cause dell’evento sismico. L’andamento stimato dell’onda, compresa la sua riduzione nel corso del tempo, corrispondeva alle informazioni che potevano essere dedotte dalle rilevazioni sismiche.
    La ricerca ha permesso di approfondire le conoscenze sulla durata e sulle caratteristiche che può assumere uno tsunami in certe condizioni di propagazione, come quelle all’interno di un’insenatura. Lo studio di questi fenomeni riguarda spesso grandi eventi sismici, come quello che interessò il Giappone nel 2011, e che tendono a esaurirsi in alcune ore in mare aperto. L’analisi di fenomeni su scala più ridotta, ma comunque rilevante per la loro portata, può offrire nuovi elementi per comprendere meglio in generale sia gli tsunami sia le cause di alcuni eventi insoliti.

    La frana è stata inoltre la più grande a essere mai stata registrata nella Groenlandia orientale, hanno detto i responsabili della ricerca. Le onde hanno distrutto un’area un tempo abitata da una comunità Inuit, che si era stabilita nella zona circa due secoli fa. Il fatto che l’area fosse rimasta pressoché intatta fino allo scorso settembre indica che nel fiordo non si verificavano eventi di grande portata da almeno duecento anni.
    Su Ella, un’isola che si trova a circa 70 chilometri da dove si è verificata la frana, lo tsunami ha comunque causato la distruzione di parte di una stazione di ricerca. L’isola viene utilizzata da scienziati e dall’esercito della Danimarca, che ha sovranità sulla Groenlandia, ma era disabitata al momento dell’ondata.
    In un articolo di presentazione della loro ricerca pubblicato sul sito The Conversation, gli autori hanno ricordato che l’evento iniziale si è verificato in pochi minuti, ma che le sue cause sono più antiche: «Sono stati decenni di riscaldamento globale ad avere fatto assottigliare il ghiacciaio di diverse decine di metri, facendo sì che il rilievo soprastante non fosse più stabile. Al di là della particolarità di questa meraviglia scientifica, questo evento mette in evidenza una verità più profonda e inquietante: il cambiamento climatico sta riplasmando il nostro pianeta e il nostro modo di fare scienza in modi che solo ora iniziamo a comprendere».
    Il gruppo di ricerca ha anche segnalato come fino a qualche anno fa sarebbe apparsa assurda l’ipotesi che una sessa potesse durare per nove giorni, «così come un secolo fa il concetto che il riscaldamento globale potesse destabilizzare dei versanti nell’Artico, portando a enormi frane e tsunami. Eventi di questo tipo vengono ormai registrati annualmente proprio a causa dell’aumento della temperatura media globale, delle estati artiche con temperature spesso al di sopra della media e a una maggiore presenza del ghiaccio stagionale rispetto a un tempo. LEGGI TUTTO