More stories

  • in

    Weekly Beasts di sabato 21 gennaio 2023

    Le foto di animali della settimana sono piene di tradizioni di varie parti del mondo: alcune riguardano pratiche che in molti posti sono illegali, come i combattimenti, altre invece hanno a che fare con consuetudini più innocue, come la benedizione degli animali in occasione della giornata di Sant’Antonio Abate. Una cosa che potreste imparare è che i vombati passano nel marsupio della madre il primo anno di vita, o che a volte gli zoo utilizzano gli alberi di Natale dismessi per intrattenere i loro ospiti, ma anche che in Kenya ci sono problemi con l’invasione di quelea beccorosso (chiamate per questo “locuste piumate”). Poi ci sono agnelli di razza Suffolk, aquile di mare, pinguini minori blu e un fennec, tra gli altri..single-post-new article figure.split-gal-el .photo-container .arrow::after{content:’LE ALTRE FOTO’} #gallery-5{margin:auto}#gallery-5 .gallery-item{float:left;margin-top:10px;text-align:center;width:12%}#gallery-5
    img{border:2px
    solid #cfcfcf}#gallery-5 .gallery-caption{margin-left:0} LEGGI TUTTO

  • in

    Un altro fallimento per i vaccini contro l’HIV

    Caricamento playerL’unica sperimentazione avanzata (“fase 3”) ancora in corso di un vaccino contro l’HIV è stata terminata in seguito ai risultati deludenti ottenuti nei test clinici, segnando un nuovo fallimento nello sviluppo dei vaccini contro il virus collegato all’AIDS. Janssen, la divisione della società Johnson & Johnson che si occupa di vaccini, ha annunciato questa settimana l’interruzione della sperimentazione che stava coinvolgendo 3.900 volontari tra Nord America, Sud America ed Europa e una 50ina di centri per la somministrazione e il controllo del trattamento.Il risultato negativo si aggiunge a quello di altre decine di vaccini sperimentali contro l’HIV sviluppati negli ultimi decenni e che sono stati poi scartati. Vari osservatori ritengono che il nuovo esito porti indietro la ricerca di tre-cinque anni, considerato che nuovi vaccini sono ancora in fase di sviluppo e passerà del tempo prima dell’avvio dei test clinici per verificarne sicurezza ed efficacia.Il test clinico ora interrotto si chiamava Mosaico ed era stato avviato nel 2019, utilizzando un particolare vaccino che conteneva una varietà (un “mosaico”, appunto) di componenti contro alcuni sottotipi di HIV, tra i più diffusi e riscontrati nella maggior parte dei contagi. Dai test era però emerso che la somministrazione non portava a una risposta immunitaria adeguata, soprattutto per quanto riguarda la produzione di anticorpi neutralizzanti, importanti nel rendere innocuo un determinato patogeno, come un virus.L’analisi dei dati preliminari aveva indotto il gruppo di controllo indipendente sul test clinico a dichiarare sicuro il vaccino, ma non in grado di prevenire più infezioni da HIV di quanto facesse una sostanza che non fa nulla (placebo). Di conseguenza era stata consigliata l’interruzione del test clinico per motivi etici e pratici. Qualcosa di analogo era successo nel 2021 con un altro studio sul vaccino, effettuato in alcuni paesi dell’Africa sub-sahariana.Almeno in un primo momento, Mosaico sembrava essere diretto verso risultati più promettenti visti i dati raccolti nelle precedenti fasi della sperimentazione (“fase 1” e “fase 2”), che avevano coinvolto un minor numero di persone e il cui obiettivo principale era verificare la sicurezza del sistema. In precedenza, almeno altri cinque vaccini sperimentali contro l’HIV non avevano dato i risultati sperati in nove test clinici che avevano raggiunto la “fase 3”, a conferma di quanto sia difficile sviluppare un vaccino atteso da molto tempo.Quando l’HIV fu identificato per la prima volta come la causa dell’AIDS, nei primi anni Ottanta, si pensò che un vaccino contro il virus potesse essere realizzato in tempi relativamente brevi, come del resto era avvenuto per diverse altre malattie nei decenni precedenti. Furono però sufficienti alcuni anni perché diventasse evidente quanto fosse difficile riuscirci. L’HIV tende a mutare velocemente, eludendo le difese immunitarie del nostro organismo e rendendo difficile l’impiego di un vaccino, specialmente se questo è calibrato su alcune specifiche caratteristiche del virus. Inoltre, l’HIV ha numerosi sottotipi e crea delle “riserve” nell’organismo, che possono rimanere inattive per anni senza che si manifesti l’AIDS.– Leggi anche: Cosa significa avere l’HIV oggiSi stima che ogni anno l’HIV infetti circa 1,5 milioni di persone e causi 650mila morti. Dall’inizio dell’epidemia di AIDS secondo le stime più condivise sono morti oltre 75 milioni di persone, soprattutto nei paesi economicamente meno avanzati, dove è più difficile ottenere cure adeguate per tenere sotto controllo la malattia e non c’è sempre grande consapevolezza sulla prevenzione. Alcuni tipi di farmaci come quelli antivirali impediscono al virus di continuare a moltiplicarsi nelle persone che lo hanno contratto. Alcuni trattamenti consistono nell’assunzione periodica di pillole o nel sottoporsi a iniezioni e trasfusioni. Non essendoci cura, il trattamento deve essere effettuato per tutta la vita e in alcuni soggetti può comportare effetti avversi, sia nel breve sia nel lungo periodo.Oltre a ridurre i rischi di infezione, un vaccino efficace contro l’HIV costituirebbe un importante beneficio per i paesi dove i trattamenti non sono accessibili perché troppo cari, o dove non possono essere effettuati seguendo in maniera adeguata i pazienti. L’interesse verso un vaccino rimane quindi alto, anche se il nuovo risultato negativo avrà ripercussioni sullo sviluppo di nuove soluzioni.– Leggi anche: Dobbiamo parlare diversamente di HIVVari esperti hanno iniziato a chiedersi se sia necessario un cambiamento di approccio, partendo proprio dal ripensare tecniche e modalità per indurre un’adeguata risposta immunitaria. Un nuovo ambito che potrebbe offrire qualche risultato promettente deriva dai vaccini a RNA messaggero, come quelli utilizzati contro il coronavirus in questi anni di pandemia. Alcune sperimentazioni sono già in corso, ma si dovrà ancora attendere per l’avvio dei test clinici, che a loro volta richiederanno diverso tempo prima di poter verificare l’efficacia del nuovo approccio. LEGGI TUTTO

  • in

    Facciamo meno scoperte rivoluzionarie?

    Negli ultimi decenni la quantità di ricerche scientifiche pubblicata ogni anno è aumentata enormemente, eppure secondo una nuova analisi le scoperte che segnano un punto di svolta rispetto alle conoscenze già acquisite è continuata a diminuire, in proporzione. Analizzando i dati su milioni di ricerche, è emerso che negli ultimi 20 anni le scoperte hanno portato a piccoli incrementi nella conoscenza, mentre nei decenni precedenti gli studi segnavano più spesso un radicale cambiamento, rendendo obsolete le ricerche e le conoscenze precedenti in un determinato settore. I motivi di questo cambiamento non sono ancora completamente chiari, né implicano necessariamente che la ricerca scientifica abbia smesso di portare innovazione.La nuova analisi, che sta attirando grande interesse da parte della comunità scientifica, è stata pubblicata su Nature e realizzata negli Stati Uniti da Russell Funk, professore di strategia di impresa all’Università del Minnesota, insieme al dottorando Michael Park e a Erin Leahy, docente di sociologia presso l’Università dell’Arizona. Il gruppo di ricerca ha analizzato 45 milioni di studi scientifici e quasi 4 milioni di brevetti, pubblicati a partire dalla metà del Novecento circa. Sulla base di vari parametri, hanno assegnato a ogni ricerca un valore, definito come “indice di consolidamento-svolta” (CD, da “consolidation-distruption”) a seconda che lo studio segnasse una radicale novità rispetto ai lavori precedenti nel medesimo settore, oppure solo un miglioramento delle conoscenze già acquisite.Per calcolare il CD, il gruppo di ricerca è partito da questo assunto: se uno studio segna un punto di svolta, le ricerche seguenti che lo citano difficilmente citeranno molti lavori precedenti a quello studio, considerato che quest’ultimo ha portato a un cambiamento di paradigma. Sulla base di questo presupposto, hanno poi calcolato il CD che varia da -1 nel caso in cui uno studio consolidi conoscenze già acquisite a +1 per uno studio che presenta invece una rottura con le conoscenze precedenti.In media, il valore del CD si è ridotto del 90 per cento tra il 1945 e il 2010 per quanto riguarda le ricerche scientifiche e del 78 per cento, tra il 1980 e il 2010, per quanto riguarda i brevetti. L’indice si è ridotto in tutti gli ambiti di ricerca esplorati dall’analisi: dalla fisica alla medicina, passando per la tecnologia e le scienze sociali. La riduzione è risultata via via più marcata tra gli anni Sessanta e Settanta, anche quando il gruppo di ricerca ha tenuto in considerazione altri parametri per compensare i cambiamenti nel modo in cui vengono citate le precedenti ricerche nei nuovi studi.Da diverso tempo, infatti, tra i principali parametri per valutare la reputazione di una ricerca e quella delle persone che l’hanno scritta si calcola il numero di citazioni che uno studio riceve, anche se ciò non implica sempre che un certo lavoro sia di grande qualità o particolarmente determinante per lo sviluppo di una disciplina. Il CD è basato in parte su questi criteri, ma li estende per comprendere quanto alcuni studi siano diventati meno rilevanti, perché antecedenti a una scoperta che ne ha smentito o messo fortemente in discussione le conclusioni.Dall’analisi è inoltre emerso come siano cambiati i termini più ricorrenti utilizzati nelle ricerche pubblicate. Negli anni Cinquanta era maggiore l’incidenza di parole legate alla scoperta di qualcosa o alla creazione di novità, mentre negli scorsi anni Dieci è diventato più frequente l’uso di parole legate a piccoli progressi come “miglioramenti” e “potenziamenti”.Per realizzare l’analisi sono stati presi in considerazione numerosi altri parametri su una mole enorme di ricerche, tale da rendere necessario l’impiego di computer molto potenti e un mese di lavoro per analizzare tutti i dati e costruire l’indice. Secondo il gruppo di ricerca, una decina di anni fa un lavoro simile non sarebbe stato possibile, proprio per la mancanza di sistemi di calcolo potenti a sufficienza per raccogliere tutti i dati ed effettuare i calcoli.In passato altre ricerche, basate su minori quantità di dati, avevano già evidenziato come l’innovazione in ambito scientifico avesse rallentato negli ultimi decenni. Quelle analisi avevano portato a un ampio dibattito sulle capacità e il ruolo della scienza, sugli ambiti in cui si possano ancora trovare veri punti di svolta e più in generale sulla capacità di innovare in numerosi settori. La nuova analisi porta ulteriori elementi e rende nuovamente attuale quel confronto.Già nel 1996 il giornalista scientifico statunitense John Horgan aveva scritto nel suo libro La fine della scienza che l’epoca delle grandi scoperte era finita. La sua tesi era che ci fosse un numero comunque finito di verità scientifiche da scoprire e di potenziali nuove scoperte che sovvertano alcune delle nostre conoscenze. Di conseguenza la quantità di punti di svolta è limitata ed è destinata a finire.L’idea di Horgan e più in generale della finitezza delle scoperte è discussa da tempo e non è ritenuta da tutti una spiegazione sufficiente. La minore quantità di ricerche che rompono con il passato deriva probabilmente da più fattori, a cominciare dal livello di specializzazione sempre più alto raggiunto da chi fa ricerca. Rispetto alla metà del Novecento, oggi gli ambiti di ricerca sono molto più definiti e racchiusi in specifici settori, condizione che rende più probabili i progressi per piccoli incrementi rispetto a grandi scoperte, che magari interessano contemporaneamente più ambiti di ricerca.Altri ancora segnalano come in fin dei conti la storia della scienza insegni come i veri momenti “eureka”, quelli di una grande e rivoluzionaria scoperta, siano stati relativamente pochi. In questo senso, la scienza è un progresso e le nuove scoperte si basano quasi sempre sulle conoscenze maturate in precedenza. Molti progressi sono stati inoltre realizzati partendo da scoperte nella ricerca di base, per le quali non si prevedevano da subito applicazioni pratiche e almeno inizialmente sembravano essere confinate ai laboratori dove erano state svolte.Infine, la grande quantità di ricerche scientifiche prodotte ogni anno costituisce una grande opportunità, ma anche un ostacolo alle nuove scoperte. Si stima che in un anno vengano ormai pubblicati circa un milione di studi, ciò significa che ogni giorno centri di ricerca, università, aziende e singole persone pubblicano 3mila studi su una miriade di riviste scientifiche. Districarsi in questa grande quantità di ricerche può essere molto difficile, con il rischio che alcuni importanti progressi in un determinato settore passino inosservati.Le cause della riduzione del CD non sono comunque ancora completamente chiare, dice il gruppo che ha curato la nuova analisi. La quantità di studi che hanno segnato un punto di svolta è rimasta relativamente costante nel periodo di tempo analizzato, mentre si è ridotta sensibilmente la loro proporzione rispetto alla quantità di ricerche prodotte. Idealmente, un buon misto tra ricerche rivoluzionarie e incrementali sarebbe l’ideale per avere importanti progressi in numerosi ambiti della ricerca scientifica. LEGGI TUTTO

  • in

    I “pesci” non esistono

    Per quanto possa sembrare strano, non esiste qualcosa come un “pesce”, almeno da un punto di vista prettamente scientifico e di classificazione delle specie. Certo Nemo, il protagonista del famoso film di animazione Pixar, è conosciuto da tutti come un “pesce pagliaccio”, ma se andiamo a vedere la sua classificazione scientifica, la parola “pesce” per come la intendiamo nel parlato comune non compare mai.Il nome della sua specie è Amphiprion ocellaris, appartiene quindi al genere Amphiprion che a sua volta rientra nella sottofamiglia Amphiprioninae, facente parte della famiglia Pomacentridae, che a sua volta rientra nel sottordine Labroidei che fa parte dell’ordine Perciformes, che prende il nome dal genere Perca: che vi diremmo sono un particolare tipo di pesci (da cui deriva “pesce persico”) se solo non vi avessimo rivelato appena poche righe fa che “pesce” dal punto di vista scientifico ci dice poco o nulla. A sgombro (ehm) di equivoci proviamo a chiarirci.Chiamiamo comunemente “pesci” più della metà delle specie di animali vertebrati oggi esistenti sulla Terra, e lo facciamo perché identifichiamo caratteristiche relativamente comuni tra le varie specie: ci sembrano così simili da farli ricadere nello stesso grande gruppo. Nel nostro immaginario un pesce ha una forma più o meno sempre uguale, stretta e allungata, squame e pinne per nuotare nell’acqua.La maggior parte delle migliaia di specie di questi animali ha un’ossatura ben definita, un cranio e mascelle facilmente distinguibili. Hanno inoltre pinne sostenute da elementi ossei articolari (“raggi”) e per questo sono chiamati “pesci dalle pinne con raggi” o attinopterigi, dal greco antico πτέρυξ (ala, pinna) e da actino-, cioè dotato di raggi.Ci sono però altri animali che comprendono una minore quantità di specie che chiamiamo comunemente pesci, ma che hanno caratteristiche un po’ diverse dagli attinopterigi. Sono i “pesci cartilaginei” o condroitti, come gli squali e le razze, con uno scheletro più flessibile e una forma asimmetrica. A questi si aggiungono in un altro gruppo di complicata classificazione i vertebrati acquatici privi di mandibole e mascelle e, infine, i “pesci dalle pinne lobate” o sarcopterigi caratterizzati da pinne e code morbide e carnose.Il grande squalo bianco (Carcharodon carcharias) appartiene ai condroitti (Wikimedia)Nella lunga storia dell’evoluzione, questi animali sono andati incontro a importanti modifiche con storie nettamente separate, tali da non poter essere classificati tutti con una stessa definizione come “pesci”. Per farsene meglio un’idea occorre andare indietro nel tempo di circa 500 milioni di anni, quando questi animali iniziarono a popolare le grandi masse d’acqua sulla Terra. Furono i primi a sviluppare una spina dorsale e un cranio, processo che richiese moltissimo tempo, se rapportato per esempio all’esistenza della nostra specie che risale solo a un centinaio di migliaia di anni fa.Secondo i paleontologi, circa 400 milioni di anni fa questi animali si erano differenziati in almeno sei gruppi: quattro erano quelli che esistono ancora oggi, mentre un altro paio dovette fare i conti con una serie di casuali disavventure e andò estinto. Fatto sta che quel periodo, chiamato Devoniano, durò una sessantina di milioni di anni e vide i pesci primeggiare tra le specie viventi.Evoluzione dei pesci (Wikimedia)Al termine del Devoniano, intorno a 358 milioni di anni fa, alcuni pesci dalle pinne lobate iniziarono a esplorare le terre emerse, grazie a mutazioni del tutto casuali che avevano equipaggiato alcune specie degli strumenti adatti per sopravvivere e muoversi fuori dall’acqua, almeno per brevi periodi di tempo. In circolazione c’erano già alcune specie vegetali come le felci e alcuni insetti, ma la loro è un’altra storia evolutiva. I primi esploratori delle terre emerse sarebbero poi diventati gli antenati degli altri vertebrati che conosciamo oggi: uccelli, rettili, anfibi, mammiferi. I pesci rimasti sott’acqua continuarono a evolvere, portando a numerose specie in particolare nel caso degli attinopterigi.Ancora oggi esistono alcune specie che ci ricordano in un certo senso da dove veniamo. Il barramunda (Neoceratodus forsteri) è tipico di un’area del Queensland in Australia ed è definito un “fossile vivente”, perché il suo aspetto e le sue caratteristiche non sono cambiate da almeno 380 milioni di anni. Ciò significa che ancora oggi possiamo osservare come si presentava una specie che nel suo caso contribuì alla comparsa degli anfibi.Un esemplare di barramunda (Neoceratodus forsteri) in Australia (Wikimedia)In centinaia di milioni di anni, sulla Terra si sono verificate enormi trasformazioni, con la formazione di nuovi continenti e la scomparsa di altri, la redistribuzione della grande massa d’acqua che ricopre buona parte del pianeta e la variazione al suo interno di nutrienti e minerali. Tutte queste modifiche hanno influito sui processi evolutivi e sono una delle cause della grande varietà di specie, non solo acquatiche, che possiamo osservare oggi o che troviamo nei fossili risalenti a epoche ormai remotissime.Ed è stato proprio con lo studio di quei cambiamenti e la progressiva disponibilità di tecniche per analizzare la storia evolutiva degli animali odierni che abbiamo capito che “pesci” non voleva dire molto, almeno per la classificazione scientifica. Mentre possiamo inserire tutti gli uccelli, per esempio, in una “classe” (uno dei livelli nella tassonomia) da suddividere poi in sottoclassi, per gli animali che chiamiamo pesci non esiste un’unica classe sistematica vera e propria. Possiamo dire che appartengono a un gruppo molto variegato di vertebrati che vivono per lo più in acqua e con in comune caratteristiche come pinne e branchie.Per farla ancora più breve, “pesce” è un termine ombrello per indicare un vertebrato per lo più acquatico che non è un mammifero, un uccello o qualsiasi altra cosa. Mettere insieme questi vertebrati appartenenti a gruppi diversi e non strettamente imparentati sarebbe come raggruppare tutti i vertebrati volanti, come gli uccelli, i pipistrelli, alcune specie di scoiattoli e quant’altro, definendoli allo stesso modo semplicemente perché volano. Il grado di parentela tra uno squalo e una lampreda non è più stretto rispetto a quello tra un cammello e una salamandra.Tendiamo a immaginare le tassonomie come stabilite e sempre uguali, ma in realtà il modo in cui sono organizzate e suddivise cambia a seconda delle nuove scoperte che smentiscono ricerche precedenti, che a loro volta possono essere poi riconfermate da nuovi studi. Nel corso del tempo ci sono stati scontri e talvolta furiose diatribe sulla collocazione di classi, famiglie e specie, a conferma di quanto sia complicato classificare in modo gerarchico l’estrema varietà che costituisce il nostro pianeta.Al di là dei litigi e delle tassonomie, “pesci” continua a essere un ottimo modo, seppure impreciso, per descrivere una grande quantità di esseri viventi e per questo è ampiamente utilizzato in ecologia. Il nome comune di tantissime specie contiene del resto la parola “pesce”, a dirla tutta compresi i pesciolini d’argento (lepismidi), che sono decisamente insetti.– Leggi anche: Va sempre a finire con un granchio, l’evoluzione LEGGI TUTTO

  • in

    Dovremmo vietare i fornelli a gas?

    Caricamento playerDa qualche settimana negli Stati Uniti si sta discutendo molto di fornelli a gas, della loro sicurezza e dei potenziali rischi che comportano per la salute. Il confronto è nato in seguito ad alcune dichiarazioni di Richard Trumka, un membro della Commissione che si occupa della sicurezza dei prodotti di largo consumo, che ha ipotizzato l’adozione di nuove regole per i sistemi di cottura a gas, che sono presenti nel 35 per cento circa delle abitazioni statunitensi.Le opinioni di Trumka, espresse a livello personale, sono circolate molto sui social network, finendo nel dibattito politico e generando qualche confusione. Negli Stati Uniti non è prevista una imminente messa al bando dei piani a cottura a gas, ma la vicenda ha contribuito a rendere attuale e discusso un argomento su cui da tempo si confrontano ricercatori e medici.Eredi delle stufe a legna e a carbone, i fornelli a gas iniziarono ad affermarsi in Inghilterra negli ultimi decenni dell’Ottocento, complice la progressiva diffusione dei gasdotti che raggiungevano le abitazioni e gli edifici commerciali. Furono poi necessari diversi decenni prima che diventassero comuni in Europa e negli Stati Uniti, dove per ragioni di distanza e difficoltà nel costruire gasdotti molto estesi sarebbero poi prevalsi altri sistemi, come i fornelli elettrici o le vecchie stufe. Oggi le cucine a gas continuano a essere molto diffuse in Europa, in particolare nei paesi dell’est. Si stima che più del 30 per cento dell’energia utilizzata nell’Unione Europea per cuocere gli alimenti derivi dal gas naturale. Il largo utilizzo ha fatto sì che nel tempo ne siano state analizzate le caratteristiche per capire se i fornelli a gas siano nocivi per chi li utilizza normalmente.Oltre all’anidride carbonica, i prodotti derivanti dalla combustione del gas comprendono il diossido di azoto (NO2) e polveri sottili, sostanze che si possono trovare anche nei gas di scarico del traffico veicolare. Nelle proprie linee guida più recenti, l’Organizzazione mondiale della sanità (OMS) ha indicato 10 microgrammi di NO2 per metro cubo come limite per la qualità dell’aria. In una cucina si sviluppa una concentrazione di NO2 molto più alta quando si utilizzano i fornelli a gas, ma è comunque difficile determinare se questa condizione abbia conseguenze concrete per la salute.Nell’aprile del 2022 un gruppo di ricerca aveva pubblicato i risultati di uno studio effettuato su 5mila abitazioni per rilevare e analizzare le sostanze inquinanti presenti in casa. Nelle abitazioni dove erano presenti fornelli a gas, e in cui non c’erano cappe aspiranti, era stata osservata una maggiore incidenza di persone con problemi respiratori e quantità più alte nel sangue dei marcatori associati a infiammazioni (ciò non implica necessariamente che si sviluppino poi particolari malattie).Altri studi si erano concentrati sulle cucine professionali, come quelle dei ristoranti, dove alcune variabili possono essere tenute più facilmente sotto controllo, essendoci norme e regole di sicurezza. Anche queste ricerche avevano rilevato la presenza di problemi respiratori in maggiori quantità nelle cucine che utilizzavano il gas, rispetto a quelle che impiegavano piastre elettriche o a induzione.Ci sono invece elementi un poco più chiari su possibili legami tra l’inalazione di sostanze come il NO2 e l’asma infantile, i cui sintomi tendono a peggiorare. Tra le numerose ricerche che se ne sono occupate, una pubblicata alla fine del 2022 e svolta negli Stati Uniti ha ottenuto grande attenzione ed è una delle cause del recente dibattito statunitense sui fornelli a gas. Il gruppo di ricerca ha calcolato la quantità di persone sotto i 18 anni che vivono in abitazioni dove si utilizzano piani cottura di quel tipo, concludendo che il 12,7 per cento dei casi di asma infantile possano essere attribuiti alla presenza di fornelli a gas nelle abitazioni.Secondo lo studio, passando a piani cottura di altro tipo si potrebbero ridurre di un quinto i casi di asma infantile in numerosi luoghi degli Stati Uniti dove sono più diffusi i fornelli a gas come l’Illinois, la California e lo stato di New York. La ricerca ha ricevuto grandi attenzioni e qualche titolo sensazionalistico, ma come spiegano gli stessi autori ci sono molti elementi da approfondire per valutare eventuali impatti e, di conseguenza, studiare le strategie per ridurre il problema.Intervistato da Bloomberg Trumka, il commissario statunitense, ha espresso opinioni alquanto nette sui fornelli: «Sono un pericolo nascosto. Non escludiamo nessuna possibilità. I prodotti che non possono diventare sicuri possono essere vietati». Lo scorso ottobre Trumka aveva provato a impegnare la Commissione a scrivere nuove regole per i fornelli a gas, senza però ottenere l’assenso da parte degli altri quattro commissari. La Commissione di cui fa parte Trumka è indipendente e la presidenza degli Stati Uniti ha chiarito che non ci sono piani per vietare i fornelli a gas.Nonostante le smentite, vari esponenti politici soprattutto tra i Repubblicani hanno mostrato una certa inquietudine per le dichiarazioni di Trumka, così come vari portatori d’interessi legati ai combustibili fossili. Il presidente dell’American Petroleum Institute, Mike Sommers, ha detto che non ci potrà essere un divieto e che eventuali restrizioni sarebbero male accolte dalla popolazione: «le persone amano i loro fornelli».Ultimamente alcuni stati e amministrazioni statunitensi hanno intanto introdotto limitazioni all’impiego dei fornelli a gas, richiedendo che gli edifici di nuova costruzione non siano collegati ai gasdotti. La legge sull’inflazione proposta da Biden e approvata dal Congresso la scorsa estate, che contiene moltissime voci per la transizione ecologica, prevede finanziamenti e incentivi per chi passa a piani cottura elettrici e che non utilizzano il gas, con l’obiettivo di ridurre le emissioni di gas serra.In Europa, dove i riscaldamenti e i fornelli a gas sono molto più diffusi, il dibattito è passato finora sotto traccia, senza avere grande riscontri né da parte della politica né della popolazione. Solo alcuni paesi hanno avviato iniziative legate a ridurre la propria dipendenza dal gas naturale, sia per motivi ambientali, sia economici e di salute pubblica. Come in parte degli Stati Uniti, anche in Danimarca e nei Paesi Bassi ci sono limitazioni per i collegamenti alla rete del gas delle case di nuova costruzione, mentre altri paesi hanno in programma piani simili.In seguito all’invasione russa dell’Ucraina e alla conseguente crisi energetica, lo scorso anno la Commissione Europea ha intensificato i propri piani per ridurre la dipendenza dal gas naturale, in particolare da quello russo. Le motivazioni sono sia economiche sia ambientali, considerato l’impatto ambientale derivante dalla combustione del gas, mentre non ne sono state presentate di natura sanitaria.I regolamenti dell’Unione Europea prevedono già numerose norme per i produttori di fornelli a gas, compresi requisiti minimi sulla loro sicurezza. Per esempio, «gli apparecchi vanno progettati e fabbricati in modo che, se usati normalmente, il processo di combustione sia stabile e i prodotti della combustione non contengano concentrazioni inaccettabili di sostanze nocive alla salute». I rischi non sono comunque legati alla sola combustione. Fornelli mal funzionanti o con guarnizioni usurate possono portare a microperdite di gas, difficili da rilevare, ma che possono comunque essere inalate e per lunghi periodi di tempo.La Commissione è al lavoro per introdurre nuove regole sulle emissioni nocive, ma al momento non si è parlato esplicitamente di fornelli a gas. Come negli Stati Uniti, un passaggio ai piani cottura elettrici e a induzione potrebbe incontrare resistenze, specialmente nei paesi dove l’impiego domestico del gas naturale è molto diffuso sia per il riscaldamento sia per la cottura degli alimenti. L’abbandono dei fornelli a gas comporterebbe inoltre un maggiore consumo di energia elettrica e non tutti i paesi europei sarebbero da subito attrezzati per rispondere adeguatamente alla maggiore richiesta. LEGGI TUTTO

  • in

    Sulle Alpi non ci sono più i giorni di neve di una volta

    Dal Quattrocento all’inizio del Novecento il numero di giorni dell’anno in cui le Alpi sono state coperte di neve è stato più o meno costante. Poi nell’ultimo secolo è via via diminuito e la media degli ultimi vent’anni è inferiore di 36 giorni a quella dei precedenti 600 anni. Sono le conclusioni di uno studio realizzato da un gruppo di ricerca dell’Università di Padova e dell’Istituto di scienze dell’atmosfera e del clima (ISAC) del Consiglio nazionale delle ricerche (CNR) di Bologna, appena pubblicato sull’autorevole rivista scientifica Nature Climate Change.I dati sui fenomeni meteorologici nelle Alpi arrivano al massimo alla metà dell’Ottocento e quelli sulla durata del manto nevoso, cioè sui giorni dell’anno con presenza di neve, risalgono solo agli ultimi decenni. I dati che avevamo a disposizione dicevano che tra il 1971 e il 2019 i giorni con presenza di neve tra novembre e maggio erano diminuiti del 5,6 per cento ogni dieci anni. Per andare più indietro nel tempo, i ricercatori dell’Università di Padova e dell’ISAC hanno utilizzato gli anelli di accrescimento nei fusti dei ginepri (Juniperus communis), arbusti molto comuni sulle Alpi, ad alta quota, e molto longevi.Il ginepro si presta a dare informazioni sul manto nevoso perché «ha un portamento strisciante sul terreno, ovvero cresce orizzontalmente molto vicino al suolo», ha spiegato l’ecologo forestale Marco Carrer dell’Università di Padova, primo autore dello studio. In pratica, i ginepri, essendo alti poche decine di centimetri, passano parte dei mesi invernali ricoperti dalla neve, quando c’è, e gli anelli di accrescimento nei loro fusti mostrano segni di questa permanenza sotto il manto nevoso. «La stagione di crescita del ginepro dipende fortemente da quanto precocemente riesce ad emergere dalla coltre bianca che lo ricopre», ha aggiunto sempre Carrer.Finché restano sepolti dalla neve, i ginepri non crescono e questo permette di stimare la durata del manto nevoso anno per anno.Il gruppo di Carrer ha analizzato gli anelli di accrescimento di una serie di ginepri vivi e morti cresciuti in Val Ventina, una valle laterale della Valtellina, in provincia di Sondrio, cresciuti ad altitudini comprese tra 2.100 e 2.400 metri sul livello del mare. Confrontando le informazioni ottenute in questo modo con i dati meteorologici disponibili, gli scienziati sono riusciti a stimare i cambiamenti nella durata del manto nevoso dal Quattrocento in avanti. «Ciò ci ha permesso di comprendere che quello che stiamo vivendo negli ultimi anni è qualcosa che non si era mai presentato precedentemente», ha concluso Carrer insieme a Michele Brunetti dell’ISAC. È il primo studio che dà informazioni riguardo ai giorni con la neve sulle Alpi andando tanto lontano nel tempo.Il numero di giorni con presenza di neve variano di anno in anno, in linea con la variabilità delle precipitazioni che c’è sempre stata. Ma l’andamento dei valori medi sul lungo periodo, che mostra una correlazione con l’andamento delle temperature medie, suggerisce che la riduzione dei giorni con la neve sia legata al riscaldamento globale dovuto alle attività umane.– Leggi anche: Nel 2022 le temperature medie degli oceani sono aumentate ancoraTra le altre cose, l’osservazione degli anelli dei ginepri ha anche confermato che nell’inverno tra il 1916 e il 1917, quando era in corso la Prima guerra mondiale e lungo le Alpi c’era un fronte di guerra tra l’Impero Austroungarico e l’Italia, il manto nevoso si mantenne per un periodo particolarmente lungo: il più lungo di tutto il Ventesimo secolo, con 67 giorni con la neve in più rispetto alla media secolare, che è di 251 giorni all’anno. Migliaia di soldati morirono per le condizioni meteorologiche, oltre che per i combattimenti, per via dell’inverno particolarmente rigido. LEGGI TUTTO

  • in

    Exxon sapeva del riscaldamento globale fin dagli anni Settanta

    Un nuovo studio pubblicato sulla rivista scientifica Science e basato su documenti interni della compagnia petrolifera Exxon rivela che l’azienda aveva a disposizione sin dagli anni Settanta un modello piuttosto accurato sugli effetti a lungo termine dei combustibili fossili sul clima.Per conto di Exxon alcuni ricercatori avevano previsto il riscaldamento globale, in misure simili a quelle effettivamente riscontrate finora. Oltre ad avere ignorato per decenni quei documenti senza renderli pubblici, l’azienda aveva a lungo contestato gli studi sul cambiamento climatico definendoli fino al 2013 «troppo incerti» e battendosi per evitare ogni limitazione all’uso dei combustibili fossili.Il nuovo studio pubblicato su Science, una delle più importanti riviste scientifiche al mondo, è stato condotto da un gruppo di ricerca dell’Università di Harvard e dell’Istituto Potsdam per la ricerca sull’impatto climatico e guidato da Geoffrey Supran. Quest’ultimo ha definito le conclusioni dello studio e alcuni grafici originali degli anni Settanta in esso contenuti la «pistola fumante», ossia la prova definitiva che Exxon fosse a conoscenza degli effetti a lungo termine dell’uso dei combustibili fossili, a cominciare proprio dal petrolio e dal carbone.Non solo nel corso degli anni Exxon «sapeva qualcosa» sulle cause del riscaldamento globale che ufficialmente negava, ma ha avuto a disposizione modelli e risultati scientifici prima dei ricercatori indipendenti.Uno dei grafici “interni” e la sovrapposizione con i dati reali (Supran et al.)Gli oltre cento documenti e ricerche, condotte da dipendenti della stessa Exxon o commissionate dall’azienda petrolifera a ricercatori esterni fra il 1977 e il 2003, prevedevano un aumento della temperatura media globale di circa 0,2 °C ogni dieci anni come effetto delle emissioni di gas serra riconducibili alla combustione di petrolio e carbone. Le analisi smentivano la teoria, che all’epoca aveva un certo sostegno, che il pianeta potesse andare incontro a una nuova glaciazione e invece prevedevano in modo piuttosto accurato un riscaldamento influenzato dalle attività umane e «indotto dall’anidride carbonica». Gli scienziati della compagnia avevano indicato anche i primi anni del Duemila come la data in cui gli effetti sarebbero stati universalmente riconosciuti e “scoperti” dal grande pubblico e indicavano una quota di utilizzo di combustibili fossili sotto cui sarebbe stato necessario rimanere per evitare un aumento della temperatura media globale superiore ai 2 °C.– Leggi anche: Da dove arrivano le emissioni inquinantiLo studio definisce i risultati a disposizione di Exxon in quegli anni più accurati e completi rispetto a quelli con cui gli scienziati della NASA, e in particolare James Hansen, avvertirono il mondo dei rischi anni più tardi, nel 1988. Non è la prima pubblicazione che evidenzia come le grandi società petrolifere e aziende energetiche fossero a conoscenza degli effetti sulle temperature globali della combustione di petrolio e carbone: l’esistenza di ricerche interne in questo senso fin dagli anni Cinquanta dello scorso secolo è già stata dimostrata, ma questo studio presenta risultati più completi e circostanziati.Exxon è una delle più grandi compagnie petrolifere al mondo ed è proprietaria, fra gli altri, del marchio Esso con cui è sul mercato in Italia. Giovedì ha smentito queste conclusioni, contattata da BBC News: «La questione è già stata presentata più volte e in ogni occasione la nostra risposta è la stessa: chi dice che “Exxon sapeva” sostiene conclusioni errate».Exxon, così come altre grandi aziende del settore, per decenni ha respinto le conclusioni scientifiche sul riscaldamento globale causato dalle attività umane, definendole ora “speculative”, ora “cattiva scienza” e osteggiando fino a pochi anni fa ogni regolamentazione delle emissioni. Lo studio dell’Università di Harvard rivela invece che internamente la compagnia usava gli stessi modelli ed era a conoscenza degli effetti a lungo termine. LEGGI TUTTO

  • in

    Il “Dry January” serve a qualcosa?

    Caricamento playerIl Dry January è un’iniziativa di origine inglese, che esiste da dieci anni e propone alle persone che vi aderiscono di astenersi dal bere bevande alcoliche di qualsiasi tipo per tutto il mese di gennaio, dopo gli eccessi a cui spesso ci si presta nel periodo delle festività. È diventata via via sempre più popolare, soprattutto nei paesi anglosassoni, e nel 2022 oltre 130 mila persone si sono iscritte alla campagna gestita dall’associazione di beneficenza che cura l’iniziativa, Alcohol Change UK. Anche in Italia, specialmente tra persone più giovani, è da qualche tempo entrata nei discorsi e nei propositi di inizio anno di molti.Oltre alla notorietà, nel tempo, è cresciuto il numero di riflessioni e studi sul valore del Dry January e sugli effetti a breve e medio termine sulle abitudini delle persone. A parte gli effetti noti sulla salute, esistono prove dell’influenza positiva che rimanere sobri per un certo periodo di tempo può esercitare sugli stili di vita. Non è chiaro tuttavia quanto questo tipo di sospensione dell’assunzione di alcol possa riflettersi in benefici duraturi e a lungo termine nel caso di persone il cui consumo abituale sia eccessivo, problematico o patologico.È un argomento che riguarda in particolare i paesi con elevati tassi di alcolismo: meno quelli in cui quei tassi sono più bassi, come l’Italia e altri del Sud Europa, anche in conseguenza di una diversa evoluzione delle funzioni e dei valori socioculturali del bere.Le origini del Dry January risalgono a un’iniziativa di un’attivista inglese, Emily Robinson, che nel 2011 decise di non bere alcuna bevanda alcolica per tutto il mese di gennaio per prepararsi a correre una mezza maratona. Robinson si iscrisse poi all’associazione Alcohol Change UK, che nel 2013 trasformò quell’iniziativa in una campagna ufficiale: la prima edizione coinvolse circa 4 mila persone. Due anni dopo, l’iniziativa fu promossa anche dalla Public Health England, un’agenzia del dipartimento della Salute britannico, che contribuì a estenderne molto la popolarità in tutto il paese.A dicembre scorso, secondo una stima di Alcohol Change UK, circa 9 milioni di persone nel Regno Unito avevano in programma di aderire al Dry January. E le percentuali di partecipazione sono cresciute molto anche negli Stati Uniti, sostenute dalle ricerche e dai sondaggi sui benefici dell’iniziativa.– Leggi anche: Beviamo da un pezzoUna ricerca della University of Sussex guidata dallo psicologo Richard de Visser e condotta su oltre 800 partecipanti al Dry January del 2018 mostrò che tra quelle persone non bere nel mese di gennaio aveva favorito una generale riduzione nel consumo di alcol riscontrabile ancora ad agosto. Erano mediamente diminuite sia la frequenza delle sbornie (da 3,4 a 2,1 al mese), sia i giorni della settimana in cui le persone bevevano (da 4,3 a 3,3), sia le unità di alcol assunto in quei giorni (da 8,6 a 7,1).Le persone riferirono inoltre notevoli benefici immediati tra cui un risparmio economico rilevante, una migliore qualità del sonno e una perdita di peso. E gli stessi benefici e cambiamenti dello stile di vita furono riferiti, seppure in misura minore, dalle persone che avevano aderito al Dry January ma non erano riuscite a rispettarlo perfettamente: dato interpretato dai ricercatori come una prova dell’influenza comunque positiva dell’iniziativa. Successivi sondaggi condotti dallo stesso gruppo di ricerca su campioni più estesi confermarono in parte gli stessi risultati.Benefici sulla salute simili a quelli descritti nella ricerca della University of Sussex e in parte già noti sono documentati in uno studio pubblicato nel 2018 sul British Medical Journal e condotto da ricercatori e ricercatrici di diverse università e istituti del Regno Unito e degli Stati Uniti. Lo studio, che coinvolse un gruppo di persone abituate a bere con moderazione, mostrò che rimanere sobri per un mese ha effetti positivi non soltanto sul sonno e sul peso ma anche sulla funzionalità epatica e in termini di riduzione dei rischi cardiovascolari e del rischio di sviluppare il diabete.– Leggi anche: I giovani sono meno scapestrati di un tempoLe prove scientifiche dei benefici associati all’interruzione provvisoria dell’assunzione di alcol tendono a diminuire o a essere meno omogenee quando si cerca di capire quale lasso di tempo senza bere alcol possa essere considerato un tempo sufficiente a produrre effetti positivi. O quando si cerca di valutare se, a parità di unità assunte, bere ogni tanto sia più o meno dannoso che bere più spesso. «Di quest’idea che una disintossicazione di un mese ti prepari al resto dell’anno, tipo pulizie di primavera, credo non esista alcuna prova scientifica», ha detto a Wired l’epatologo inglese Gautam Mehta, coautore dello studio pubblicato sul British Medical Journal.Alcune ricerche sostengono che una breve sospensione potrebbe non essere sufficiente a mitigare gli effetti del consumo di alcol. Due medici inglesi gemelli, Chris e Xand van Tulleken, condussero su sé stessi nel 2015 un esperimento supervisionato da specialisti dell’ospedale Royal Free a Londra. Dopo essere rimasti completamente sobri per un mese, cominciarono a bere la stessa quantità di alcol ogni settimana per un mese, ma in tempi diversi: Chris 3 unità di alcol (circa 250 ml di vino, un bicchiere) ogni sera, Xand 21 unità tutte insieme una volta a settimana.I risultati dell’esperimento, peraltro oggetto di una puntata del programma televisivo BBC Horizon, mostrarono che alla fine del mese il consumo di alcol aveva provocato un aumento dell’infiammazione del fegato in entrambi i gemelli. E che l’interruzione di sei giorni tra una bevuta e l’altra non era sufficiente a riportare i livelli di infiammazione a valori normali.– Leggi anche: Perché i gemelli identici ci affascinanoSmettere di bere per un certo periodo prolungato potrebbe inoltre comportare un rischio di “effetto rebound”, e cioè la possibilità che l’interruzione sia seguita successivamente da un consumo superiore rispetto al consueto. Secondo un’analisi condotta nel 2015 dal gruppo di ricerca della University of Sussex su un gruppo di partecipanti al Dry January, l’11 per cento delle persone che avevano aderito all’iniziativa ma senza portarla a termine aveva successivamente consumato più alcol del solito. Tra quelle stesse persone, a distanza di sei mesi, era inoltre significativamente più alta la frequenza delle sbornie rispetto a quella riferita dalle persone che avevano completato il Dry January.Per quanto limitati, i dati sulla sospensione provvisoria del consumo di alcol suggeriscono che iniziative come il Dry January siano efficaci soprattutto tra le persone che bevono abitualmente con moderazione. E potrebbero invece non esserlo, o essere pericolose, con quelle che hanno un problema con l’alcol e potrebbero manifestare sintomi associati all’astinenza, come avverte anche l’associazione che promuove il Dry January.– Leggi anche: Effettivamente gli elefanti non reggono l’alcolCome ha scritto sul sito The Conversation Ian Hamilton, esperto di dipendenze del Dipartimento di scienze della salute alla University of York, per alcune persone le probabilità che un cambiamento nelle abitudini di consumo di alcol sia stabile aumentano se quel cambiamento viene inteso non come «un processo binario, “bere” o “non bere”» ma più come un processo graduale. Questo approccio predispone inoltre a considerare eventuali insuccessi nel mantenere fede ai propri propositi in un senso non catastrofico e non colpevolizzante: sentimenti che tendenzialmente generano un’auto-approvazione deleteria a proseguire nell’abuso.Secondo Hamilton, sugli effetti del Dry January servirebbero più ricerche a lungo termine, quelle estese oltre il periodo di sei mesi generalmente preso in considerazione nei sondaggi attuali. Tenendo conto della popolarità dell’iniziativa, il Dry January potrebbe peraltro essere una fonte di dati scientifici molto preziosa. Studiarli aiuterebbe a comprendere meglio i benefici per le persone e la durata di quei benefici per ciascun gruppo di partecipanti, magari distinti per abitudini di consumo di alcol, frequenza dell’attività fisica e abitudini alimentari.Hamilton considera tutto sommato il Dry January un’iniziativa potenzialmente molto utile, purché non sia intesa dalle persone come un modo per sentirsi autorizzate a bere nel resto dell’anno.Condividendo le stesse cautele, altre riflessioni descrivono il Dry January come un modo per provare ad affermare o ripristinare un qualche tipo di controllo sociale sul consumo di alcol, a fronte di una disponibilità materiale oggi sostanzialmente illimitata. Lo considerano, in altre parole, un modo per applicare una moderazione che storicamente è sempre passata attraverso rituali e norme culturali: norme peraltro ancora presenti in diversi contesti e che limitano molto, per esempio, il consumo di alcol da soli e non in gruppo. LEGGI TUTTO