More stories

  • in

    Mascherine e depuratori per l’aria proteggono dall’inquinamento?

    Caricamento playerLa pessima qualità dell’aria di questi giorni nella Pianura Padana non ha soluzioni semplici e immediate perché è legata alle condizioni meteorologiche, alla geografia e alla presenza di numerose città, industrie e allevamenti nella regione. Chi si preoccupa dei rischi per la salute legati a questa forma di inquinamento può comunque adottare alcune abitudini come prevenzione: ad esempio usare mascherine per bocca e naso quando sta all’esterno e usare dispositivi per depurare l’aria negli ambienti chiusi.
    L’inquinamento atmosferico è una delle principali cause di malattie cardiovascolari e di un generale accorciamento delle aspettative di vita secondo l’Organizzazione mondiale della sanità (OMS). In particolare l’Agenzia europea per l’ambiente (AEA) ha stimato che nel 2021 almeno 253mila persone siano morte a causa dell’esposizione cronica alle micropolveri, anche note come particolato o PM, e almeno 52mila per l’esposizione cronica al biossido di azoto, un gas prodotto soprattutto dai motori diesel ma anche dagli impianti di riscaldamento e dalle industrie, che è il principale gas inquinante dannoso per la salute.
    Le misure di prevenzione per la salute personale che si possono applicare usando mascherine e depuratori riguardano il particolato. Entrambi questi strumenti infatti funzionano grazie a filtri per l’aria che trattengono le piccole particelle solide o liquide presenti nell’aria: le mascherine sono essenzialmente dei filtri per naso e bocca, mentre i depuratori contengono dei filtri al loro interno attraverso cui viene fatta passare l’aria presente in un ambiente chiuso. Non possono invece far nulla per i gas inquinanti perché le dimensioni delle particelle gassose sono dello stesso ordine di grandezza di quelle dei componenti dell’aria che invece dobbiamo respirare per vivere: una mascherina che li bloccasse sarebbe piuttosto dannosa per la salute.

    – Leggi anche: Ha senso confrontare l’inquinamento di Milano con quello di Delhi?

    Non sono ancora state fatte ricerche scientifiche che dicano qualcosa sugli effetti a lungo termine dell’uso metodico di mascherine per il viso per proteggersi dall’inquinamento dell’aria, dunque non è possibile dire in che misura garantiscano protezione dai rischi per la salute. Tuttavia vari studi hanno dimostrato che le mascherine sono efficaci nel trattenere il particolato, in particolare il PM10, quello composto da particelle di dimensioni maggiori, cioè con un diametro fino a un centesimo di millimetro (10 micrometri).
    Uno studio pubblicato nel 2021 ha riscontrato che praticamente qualsiasi tipo di mascherina per il viso (comprese quelle di cotone) rappresenta una qualche forma di filtro per il particolato. Realizzato da un gruppo di scienziati del Colorado, negli Stati Uniti, per valutare l’utilità delle mascherine più diffuse contro l’inquinamento da incendi boschivi, questo studio dice che però quelle più efficaci sono le N95, le cui caratteristiche corrispondono più o meno a quelle delle FFP2 in uso in Europa. Tali mascherine, secondo le analisi del gruppo di ricerca, proteggono dal particolato urbano tre volte di più rispetto alle mascherine chirurgiche, anche se l’efficacia diminuisce con le particelle di diametro inferiore al micrometro. Bisogna inoltre ricordare che si tratta di dispositivi usa e getta.
    Le mascherine chirurgiche potrebbero essere filtri efficaci se non fosse che non aderiscono bene al viso. Infatti per bloccare davvero il particolato le mascherine non devono lasciare spazi per il passaggio di aria non filtrata. La loro efficacia diminuisce se chi le indossa ha la barba o fa dei movimenti a causa dei quali le mascherine si spostano molto sulla pelle, come quelli che si possono fare mentre si va in bici.
    Un’altra precauzione che si può applicare in giorni di alto inquinamento dell’aria cittadina è evitare di fare attività sportiva all’aperto.
    Per quanto riguarda gli ambienti chiusi, l’inquinamento dell’aria può essere anche maggiore rispetto all’esterno. Negli interni infatti le fonti di sostanze inquinanti sono moltissime: a quelle dell’aria esterna si uniscono le particelle prodotte da esseri umani e animali (l’anidride carbonica che espiriamo, ma anche piccole gocce di saliva di quando tossiamo o starnutiamo, peli, forfora, eccetera), le sostanze rilasciate da processi di combustione come la cottura dei cibi, il riscaldamento, il fumo di sigaretta, incensi, candele e altro, e quelle rilasciate dai prodotti per la pulizia e altri.
    La misura più efficace per ripulire l’aria degli ambienti chiusi, anche se può sembrare controintuitivo in giornate di pessima qualità dell’aria, è aprire le finestre con una certa frequenza. «Almeno 2 o 3 volte al giorno per almeno 5 minuti», aveva spiegato alcuni anni fa al Post Alessandro Miani, presidente della Società Italiana di Medicina Ambientale: «L’apertura delle finestre porta a una dispersione e diluizione delle sostanze concentrate nell’aria delle case anche in giorni in cui l’aria esterna è particolarmente inquinata. Se vivete in città, meglio aprire le finestre che affacciano su vie poco trafficate o su cortili interni, in orari in cui ci sono meno macchine in giro come la sera, la mattina presto o l’ora di pranzo».
    In aggiunta si possono poi utilizzare dei dispositivi per filtrare l’aria spesso usati dalle persone allergiche ai pollini. Questi dispositivi sono efficaci per filtrare il particolato se contengono i cosiddetti filtri HEPA (dall’inglese High Efficiency Particulate Air filter), che spesso sono presenti negli impianti di condizionamento industriale ma non in quelli domestici, e sono in grado di trattenere anche il PM2,5 o “particolato fine”, quello formato da particelle con diametro inferiore a 2,5 micrometri.
    Come per le mascherine, non sono disponibili studi a lungo termine che diano informazioni sui benefici per la salute dell’uso di depuratori con filtri HEPA. Una rassegna delle ricerche fatte fino al 2020 su questi dispositivi ha però concluso che i depuratori riducano effettivamente la concentrazione di PM2,5 nell’aria degli ambienti chiusi e che siano una buona soluzione familiare per proteggersi da fonti di inquinamento esterne, se utilizzati correttamente e ben manutenuti. Si tratta di dispositivi che però costano alcune centinaia di euro. LEGGI TUTTO

  • in

    Ha senso paragonare l’inquinamento di Milano a quello di Delhi?

    Caricamento playerNegli ultimi giorni la qualità dell’aria molto bassa nella Pianura Padana è stata paragonata a quella di alcune grandi città note per essere molto inquinate, come Delhi in India e Pechino in Cina. Il confronto in molti casi si basa su alcune classifiche che circolano online, ma è in realtà difficile avere dati coerenti e affidabili da varie parti del mondo che permettano di fare un confronto completo. La qualità dell’aria viene calcolata con metodi diversi e non c’è un unico standard per farlo.
    La questione è diventata particolarmente discussa all’inizio della settimana dopo che il sindaco di Milano, Beppe Sala, ha risposto spazientito a un giornalista che gli aveva chiesto che cosa ne pensasse di una classifica che aveva indicato Milano come una delle tre città più inquinate al mondo, davanti a Delhi. Sala ha invitato a non fare affidamento su classifiche gestite da società private, contestando il dato e invitando a tenere in considerazione le rilevazioni ufficiali effettuate dall’Azienda regionale per la protezione ambientale (ARPA) della Lombardia.
    La classifica in questione è compilata da IQAir, una società svizzera che, oltre a vendere prodotti come rilevatori e purificatori per l’inquinamento, offre sul proprio sito una mappa interattiva per farsi un’idea della qualità dell’aria in buona parte del mondo. La mappa è realizzata utilizzando sia i dati forniti dalle istituzioni, sia dai sensori che la società vende e che possono essere collegati online per tenere sotto controllo i livelli di inquinamento dell’area geografica in cui si vive.
    Nel caso di Milano, IQAir impiega una decina di stazioni: la maggior parte è gestita da privati, mentre un paio è mantenuto da ARPA Lombardia, che pubblica i dati in tempo reale. Se si osserva una stazione di un privato in prossimità di una di quelle “ufficiali”, i dati delle rilevazioni non sono molto diversi per alcuni specifici parametri come per esempio la misurazione dei PM2,5, un tipo di polveri sottili molto presente nelle giornate con tanto inquinamento e che può causare vari problemi di salute. La valutazione delle qualità dell’aria tiene però in considerazione molti altri parametri, senza uno standard definito e condiviso a livello globale.
    Il cosiddetto “indice di qualità dell’aria” (IQA) è un indicatore utile per farsi un’idea immediata, per quanto approssimativa, dello stato dell’aria. Di solito prevede tra i 5 e i 6 livelli dal migliore (“qualità dell’aria buona”) al peggiore (“qualità dell’aria estremamente scarsa”), in modo da dare indicazioni alla popolazione su eventuali precauzioni da assumere, come per esempio ridurre l’attività fisica all’aperto e stare il più possibile al chiuso.
    Dopo anni in cui ogni stato membro usava IQA lievemente diversi, l’Unione Europea ha lavorato per uniformare il più possibile il calcolo della qualità dell’aria in modo da avere valori comparabili in tutto il proprio territorio. L’iniziativa ha portato nel 2017 alla realizzazione dell’Indice Europeo della Qualità dell’Aria, basato sui valori concentrazione di PM10, PM2,5, biossido di azoto, ozono e anidride solforosa, tra le principali sostanze inquinanti presenti in sospensione nell’aria.
    La realizzazione dell’IQA europeo ha reso più facilmente confrontabili le varie aree geografiche dell’Unione in termini di inquinamento, aggiungendosi alle classifiche che vengono pubblicate periodicamente sulla base di alcuni inquinanti. La più recente e completa è riferita agli anni 2021 e 2022 ed è stata realizzata tenendo soprattutto in considerazione i PM2,5, che vengono rilevati con maggiore frequenza e più diffusamente dagli stati membri: più una città è in basso, maggiore è il livello rilevato di questi inquinanti.
    Al fondo della classifica ci sono diverse città italiane a cominciare da Cremona, 372esima su 375, preceduta da: Padova (367), Vicenza (362), Venezia (359), Brescia (358), Piacenza (357), Bergamo (357), Alessandria (353), Asti (352), Verona (351), Treviso (350), Milano (349), Pavia (348) e Torino (347). Il risultato è in linea con le rilevazioni sulla Pianura Padana, una delle aree più inquinate di tutta Europa a causa delle sue caratteristiche geografiche e della presenza di numerosi centri urbani e industriali. È bene ricordare che la classifica tiene in considerazione i valori dei PM2,5 e avrebbe probabilmente città in posizioni diverse se fosse basata sull’intero IQA.

    L’IQA europeo utilizza soglie diverse rispetto al National Air Quality Index dell’India, di conseguenza le stime sulla qualità dell’aria non sono sempre facilmente confrontabili. I singoli valori che vengono impiegati per fare la stima sono comunque disponibili e da quelli si possono fare valutazioni più ampie, per esempio tenendo in considerazione i limiti indicati dalle principali istituzioni sanitarie come l’Organizzazione mondiale della sanità (OMS).
    Per quanto riguarda i PM2,5, per esempio, l’OMS indica che la media della concentrazione nell’arco di un intero anno non dovrebbe essere superiore a 5 microgrammi per metro cubo. Non si dovrebbero inoltre superare i 15 microgrammi per metro cubo per più di 3-4 giorni consecutivi, sempre secondo l’OMS. In alcune stazioni di rilevamento di ARPA Lombardia a Milano nei giorni scorsi sono stati rilevati in più casi valori ben al di sopra degli 80 microgrammi per metro cubo; negli stessi giorni in un’area centrale di New Delhi i livelli di PM2,5 sono stati di circa 100 microgrammi per metro cubo. LEGGI TUTTO

  • in

    Gli animali domestici possono essere un problema per le scene del crimine

    Caricamento playerUn recente studio pubblicato sulla rivista di medicina forense Forensic Science, Medicine and Pathology ha fornito una serie di suggerimenti e indicazioni metodologiche per investigatori, medici legali e anatomopatologi nei casi di ritrovamento di un cadavere in case in cui siano presenti cani o gatti domestici.
    Insieme ad altre ricerche dello stesso tipo pubblicate negli ultimi anni, lo studio è considerato una conferma di un fatto noto ai professionisti del settore ma in alcuni casi ignorato per via della tendenza di molti ad attribuire agli animali domestici sentimenti e comportamenti tipicamente umani: se costretti senza cibo in ambienti chiusi, gli animali domestici possono finire col nutrirsi dei corpi in decomposizione dei propri padroni, alterandoli in modo significativo e complicando le indagini.
    La frequenza di questi comportamenti da parte degli animali domestici verso i loro proprietari dipende da diversi fattori: principalmente dalle eventuali condizioni di isolamento sociale di quelle persone e, di conseguenza, dalla quantità di tempo in cui l’animale domestico rimane con il cadavere in mancanza di fonti di nutrimento alternative. Ma, per quanto sporadici, questi comportamenti hanno implicazioni importanti per la scienza forense e le indagini. La presenza di animali domestici costituisce infatti un fattore rilevante da tenere in considerazione nell’analisi dei traumi e delle lesioni presenti sui cadaveri, nella valutazione delle cause e nella stima dell’ora approssimativa della morte, e nel recupero della salma intera.
    Lo studio è stato condotto da due ricercatrici e un ricercatore dell’Istituto di medicina forense dell’Università di Berna, in Svizzera, che hanno revisionato la letteratura scientifica esistente e hanno preso in esame sette casi svizzeri mai studiati in precedenza. Il gruppo ha descritto, schematizzandoli in un diagramma di flusso, i comportamenti professionali più adatti a garantire una raccolta sistematica e completa dei dati durante sopralluoghi in ambienti chiusi in cui ci sia il sospetto che cani o gatti abbiano interferito nella scena in cui viene trovato un cadavere.
    (Attenzione: i link presenti nell’articolo rimandano a studi che contengono immagini di corpi mutilati e in avanzato stato di decomposizione, che possono risultare impressionanti e sgradevoli)
    La tendenza molto comune ad attribuire agli animali domestici percezioni, comportamenti e sentimenti tipicamente umani può in alcuni casi indurre le persone a trascurare o ignorare altre considerazioni: in breve, a pensare che un animale che ha passato tutta la vita con una persona si asterrà, per affetto, dall’approfittare del suo cadavere per saziarsi in assenza di cibo. Una maggiore consapevolezza del fatto che in particolari circostanze cani e gatti considerino i cadaveri una fonte di nutrimento dovrebbe invece indurre gli investigatori a raccogliere più informazioni sugli animali presenti sulla scena o nelle vicinanze, anche quando la loro presenza non sembra rilevante.
    La comprensione dei casi di necrofagia come parte di fenomeni naturali, secondo molte persone che li studiano, permetterebbe di ridurre gli errori nelle indagini e in generale di prendere decisioni più avvedute. E un approccio più scrupoloso da parte dei professionisti che si occupano di fare riscontri, ha scritto il gruppo, permetterebbe di accrescere un tipo di documentazione che attualmente nella pratica forense è limitata, per ragioni di negligenza o superficialità nella raccolta storica dei dati.
    Una condizione piuttosto comune tra le persone il cui cadavere viene trovato in uno stato alterato da animali domestici è la sindrome di Diogene, un disturbo caratterizzato dall’isolamento sociale e da un’estrema trascuratezza nell’igiene del proprio corpo e del proprio ambiente domestico. La valutazione forense di questi casi di morte è spesso resa molto difficile proprio dallo stato di abbandono e degrado della casa della persona morta e dalla presenza di animali da compagnia mai o raramente portati all’esterno.
    In un caso riportato in uno studio del 2015 il cadavere di una signora di 83 anni con la mandibola scarnificata fu trovato diversi giorni dopo la morte, causata da una cardiopatia ischemica, in una casa piena di cumuli di spazzatura e feci di cane, a Córdoba, in Argentina. Le mutilazioni post-mortem erano state causate da due cani domestici di razza mista, in mancanza di cibo a loro disposizione. Nonostante i cani fossero coinvolti nel caso soltanto indirettamente, le autorità ordinarono di sopprimerli entrambi per evitare che potessero mostrare quel comportamento alimentare in occasioni successive.
    La necrofagia da parte di animali domestici non riguarda soltanto cani e gatti, che sono comunque i casi più studiati, per quanto rari. Uno studio pubblicato nel 1995 riportò il caso di una donna di 43 anni trovata morta nel suo appartamento, seminuda e con estese lesioni dei tessuti molli del volto. I riscontri portarono inizialmente a pensare a una violenza sessuale, ma i risultati dell’autopsia indicarono che la morte era stata provocata dalle conseguenze di una polmonite lobare e una pleurite in stadio avanzato, e che i segni sul volto erano stati causati dopo la morte dai morsi di un roditore. Nella gabbia di un criceto che la donna teneva in casa furono successivamente trovati numerosi pezzetti di pelle, grasso e tessuto muscolare, poi associati alla donna tramite tipizzazione del DNA.
    A volte, se tessuti e organi interni da analizzare mancano perché sono stati mangiati, può essere difficile stabilire se la morte sia stata provocata da un’intossicazione da sostanze, oppure da un trauma. Come riportato nel recente studio uscito su Forensic Science, Medicine and Pathology, diversi casi oggetto della revisione scientifica mancano di informazioni fondamentali, perché gli investigatori che se ne occuparono non documentarono dettagliatamente la presenza di un animale domestico sulla scena. Quelle informazioni aiuterebbero, per esempio, a capire se certi rosicchiamenti e altre alterazioni presenti sui cadaveri siano stati provocati all’epoca da gatti o da cani: una distinzione non facilissima da fare soltanto sulla base dell’aspetto delle lesioni.
    Come ha detto alla rivista Science Carolyn Rando, antropologa forense dell’University College di Londra, la limitata letteratura scientifica sui comportamenti necrofagi degli animali domestici verso i loro proprietari suggerisce che i cani si concentrano su faccia e gola, mentre i gatti su naso, labbro superiore e dita. L’ipotesi più condivisa tra i ricercatori è che la fame sia la motivazione principale dei comportamenti necrofagi, ma non è necessario che l’animale trascorra molto tempo affamato prima di assumerli, anche se «tutti vogliono pensarlo», ha detto Rando. Gli animali domestici tendono a preoccuparsi se il proprietario o la proprietaria non risponde agli stimoli, soprattutto in caso di morte violenta o improvvisa: leccare il viso in cerca di conforto, secondo Rando, può quindi rapidamente trasformarsi in una ricerca di nutrimento.
    Il consiglio generale condiviso dal gruppo di ricerca dell’Università di Berna agli investigatori è di annotare le dimensioni, la razza e il numero di animali che trovano durante i sopralluoghi, anche quando non sembra importante farlo per comprendere il singolo caso (non lo è, nella maggior parte dei casi in cui è presente un animale domestico). Questo tipo di raccolta dei dati potrebbe comunque servire in un secondo momento per capire se un eventuale morso di un animale ha alterato una ferita, per esempio, influenzando altri fattori che servono a determinare l’ora della morte (la presenza di certi insetti che colonizzano le ferite, per esempio).
    Secondo Gabriel Fonseca, odontologo forense della Universidad de La Frontera a Temuco, in Cile, e uno degli autori dello studio del 2015, le indicazioni del gruppo dell’Università di Berna è utile ad attirare l’attenzione verso informazioni spesso ignorate da molte persone. «Si possono avere strumenti favolosi, medici legali affermati e formati, o antropologi forensi, ma se non sono formati i primi soccorritori, la possibilità di perdere fonti di prova può essere elevata», ha detto Fonseca a Science.
    Le indicazioni condivise nello studio recente sarebbero state di grande aiuto, secondo Fonseca, in un caso recente avvenuto in Cile in cui una donna anziana, apparentemente morta per cause naturali, è stata trovata con la faccia in parte mangiata dal suo cane. I risultati di una successiva TAC eseguita sul cadavere hanno mostrato un trauma profondo, fornendo agli investigatori informazioni fondamentali per arrivare a concludere sulla base di altre prove che la donna era stata colpita in faccia durante una rapina e che i morsi del cane avevano nascosto le ferite. LEGGI TUTTO

  • in

    Weekly Beasts

    Ci sono due storie curiose, tra gli animali fotografati in settimana. La prima è quella di un cinghiale di 80 chili che vive con due persone e un cane in Belgio, la seconda è quella del cosiddetto “Snettisham Spectacular”, un periodo in cui le maree particolarmente alte spingono migliaia di uccelli acquatici ad alzarsi in volo per poi posarsi altrove e aspettare che la marea si ritiri, prima di tornare nelle strisce di terra fangose dove cercano cibo. Tra gli altri animali da fotografare c’erano poi un condor delle Ande, lontre giganti e impala. LEGGI TUTTO

  • in

    Cos’è questa storia del riso alla carne coltivata

    Caricamento playerLa notizia di un nuovo riso arricchito con carne coltivata ha portato ulteriori elementi al già ampio e talvolta agguerrito dibattito sulle nuove tecnologie per produrre carne in modo più sostenibile. La novità è stata ripresa da molti giornali italiani, talvolta con qualche titolo creativo o allarmato, con il rischio di portare ulteriore confusione in un argomento complesso e dalle numerose implicazioni che ci riguarderanno sempre di più.
    Sulla rivista scientifica Matter, che fa parte del gruppo editoriale che pubblica anche la più famosa Cell, un gruppo di ricerca della Corea del Sud ha annunciato di essere riuscito a utilizzare il riso come “impalcatura” per far crescere piccole quantità di tessuto muscolare e di grasso sui chicchi, ottenendo un alimento con valori nutrizionali lievemente diversi rispetto a quelli del riso normale.
    L’esperimento non ha quindi riguardato in alcun modo la modifica genetica della pianta del riso e di conseguenza non ha portato alla formazione di nessun “ibrido” propriamente detto, anche se da alcuni articoli su agenzie di stampa e giornali poteva sembrare il contrario. Il lavoro di ricerca è consistito nello sperimentare un sistema alternativo per far crescere la carne, rispetto a quelli esplorati finora in numerosi laboratori in giro per il mondo.

    – Ascolta anche: La puntata di Ci vuole una scienza sulla “carne sintetica”

    A causa della mancanza di prodotti alternativi che si avvicinino all’esperienza di mangiare della carne (in particolare di bovino, la cui produzione ha un alto impatto ambientale), da tempo si cerca di creare della carne in vitro, cioè partendo da cellule animali che vengono fatte crescere e differenziare per produrre tessuti, imitando ciò che avviene normalmente con la crescita di un essere vivente. Le tecniche più diffuse prevedono di partire da cellule staminali, che non sono quindi ancora specializzate e che hanno la potenzialità di differenziarsi nei vari tipi di cellule mature che costituiscono poi un tessuto.
    Le cellule non sono “sintetiche”, ma derivano da un prelievo effettuato da animali già vivi o da embrioni, a seconda delle tecniche utilizzate. Dopo essere state selezionate e isolate, le cellule staminali vengono inserite in contenitori nei quali è presente un terreno di coltura, di solito una soluzione che contiene sostanze nutrienti di vario tipo. In questo modo le cellule iniziano a crescere e a replicarsi, ma il procedimento non è sufficiente per arrivare a un tessuto paragonabile al muscolo di un animale, cioè alla carne che si consuma normalmente. Le cellule hanno bisogno di una sorta di impalcatura che le sostenga, che le aiuti a svilupparsi e a continuare a differenziarsi e proliferare.
    La costruzione di questa impalcatura si è rivelata il passaggio più difficile da realizzare nella produzione della carne coltivata e per questo, da diverso tempo, vari gruppi di ricerca sono al lavoro per trovare il giusto sistema per realizzarlo. Il gruppo di ricerca sudcoreano si è quindi chiesto se non fosse possibile cambiare approccio, rinunciando a una impalcatura troppo complessa e sfruttando un alimento molto diffuso come il riso, sul quale far crescere minuscoli pezzi di carne.
    Come spiega lo studio su Matter, un primo tentativo era consistito nel far crescere cellule di bovino direttamente nelle minuscole fessure e irregolarità di ogni singolo chicco di riso, ma non aveva portato ai risultati sperati perché le cellule non si fissavano sulla sua superficie. Il gruppo di ricerca aveva allora esplorato varie alternative per favorire il legame tra riso e cellule, scoprendo di poter ottenere buoni risultati con la colla di pesce e la transglutaminasi, un enzima molto utilizzato nelle preparazioni di alimenti come alcuni tipi di salsicce, würstel o nel surimi (l’imitazione della polpa di granchio).
    (Yonsei University)
    I chicchi di riso crudi erano stati quindi glassati con quei due ingredienti e poi sottoposti al processo di coltivazione, usandoli come impalcatura sulla quale far aggregare e crescere le cellule di muscolo e grasso animale. Il preparato era stato tenuto poi in un terreno di coltura per circa una settimana, dando il tempo alle cellule di espandersi.
    Terminato il periodo di coltura, il riso era stato lavato e fatto bollire, come per la preparazione di un normale piatto di riso. Il gruppo di ricerca ha poi assaggiato il risultato finale, segnalando di avere assaggiato chicchi con un sapore lievemente diverso dal solito, con note di frutta secca, probabilmente dovute alla presenza dei minuscoli pezzi di carne.
    Il riso è stato poi analizzato per calcolarne i valori nutrizionali rispetto a una porzione identica, ma non sottoposta all’aggiunta della carne coltivata. Le differenze riscontrate non sono state enormi, ma comunque non trascurabili: tra riso normale e trattato c’è una differenza del 9 per cento di proteine e del 7 per cento di grasso a favore del secondo. Mangiarne circa 100 grammi equivale a mangiare poco meno di un etto di riso e un grammo di bistecca di manzo. Il contenuto di carne è quindi minimo, probabilmente perché le cellule creano una sottilissima pellicola intorno a ogni chicco, ma secondo il gruppo di ricerca ci sono margini per aumentarne in modo significativo la quantità.
    La produzione potrebbe essere relativamente semplice, perché esclude buona parte delle complicazioni legate alla costruzione dell’impalcatura per produrre pezzi di carne più grandi e dalla giusta consistenza, paragonabili quindi a una normale bistecca. Il riso con carne coltivata sarebbe meno costoso e avrebbe inoltre il pregio di avere un basso impatto ambientale, soprattutto dal punto di vista delle emissioni, se confrontato con la carne ottenuta dagli allevamenti. Il riso è inoltre uno degli alimenti più consumati in Asia e potrebbe aiutare a risolvere i problemi della malnutrizione, legata a un’assunzione non adeguata di proteine. Ci sono però molti aspetti da chiarire sulla praticità del sistema, soprattutto se confrontato con alternative per rendere direttamente più proteico il riso, intervenendo con tecniche di editing genetico.
    Come avviene spesso in questo ambito, al momento il lavoro svolto in Corea del Sud è sperimentale e dimostrativo: sarà necessario ancora del tempo prima di una eventuale messa in vendita, anche perché al momento solamente Stati Uniti e Singapore rendono possibile la commercializzazione di prodotti contenenti carne coltivata. Secondo il gruppo di ricerca, una produzione su scala industriale potrebbe comunque consentire di contenere i costi e di avere un riso con carne coltivata che costa l’equivalente di pochi centesimi di euro in più al chilogrammo rispetto al riso non trattato. LEGGI TUTTO

  • in

    Il “più antico fossile italiano” non è quello che sembrava

    Caricamento playerNell’estate del 1931 nell’altopiano di Piné, in provincia di Trento, fu scoperto quello che è stato a lungo considerato il più antico rettile fossile trovato in Italia. Si tratta di un blocco di pietra in cui è scolpita la sagoma intera di una specie di rettile di cui non si sono mai scoperti altri individui, e che era stato denominato Tridentinosaurus antiquus. Era stato trovato da Gualtiero Adami, ingegnere che ai tempi lavorava per l’ente statale che si occupava di opere pubbliche (Genio Civile) e che successivamente l’aveva donato al Museo della Scienza e dell’Uomo di Padova, dove è tuttora esposto.
    A vederlo, il fossile è piuttosto sorprendente perché presenta la sagoma del rettile, lungo una ventina di centimetri, per intero. Uno studio condotto da un gruppo di ricercatori dell’Università di Cork, in Irlanda, e pubblicato giovedì sulla rivista scientifica Palaeontology, ha dimostrato però che buona parte dei tessuti del Tridentinosaurus antiquus sono in realtà strati di un particolare tipo di vernice. «Si tratta di un pigmento chiamato nero d’ossa: può essere acquistato in qualsiasi ferramenta, ed è ottenuto dalla combustione delle ossa di alcuni animali», spiega Valentina Rossi, una delle autrici dello studio.
    Il Tridentinosaurus antiquus è descritto come un rettile simile a una lucertola risalente al Permiano inferiore (più o meno 270 milioni di anni fa). Per almeno novant’anni il Tridentinosaurus antiquus ha suscitato l’interesse dei paleontologi per le sue condizioni di conservazione, considerate piuttosto eccezionali perché scaturite da un processo di fossilizzazione comune nei resti vegetali, ma più raro in quelli di vertebrati: la cosiddetta carbonificazione, dovuta all’azione di batteri anaerobi (cioè che vivono in ambienti privi di ossigeno), che fanno fermentare le sostanze organiche eliminando ossigeno e idrogeno lasciando solo il carbonio.
    La lettura più diffusa sosteneva che, proprio grazie alla carbonificazione, il fossile fosse riuscito a mantenere intatti i cosiddetti tessuti molli, che nella paleontologia rappresentano una delle più importanti fonti da cui ricavare informazioni biologiche ed evolutive.
    Rossi, che ha guidato la ricerca, è una paleontologa italiana specializzata nello studio dei cosiddetti “fossili eccezionalmente preservati”, cioè quelli che conservano elementi originali, come tracce della pelle, degli occhi, degli organi interni, e in certi casi persino la colorazione originale. «Tutto quello che si preserva nei fossili di solito sono resti mineralizzati, ossia materiali duri che per questa caratteristica sono in grado di resistere nel tempo. È molto raro trovare uno scheletro completo». Il Tridentinosaurus antiquus era considerato un reperto eccezionale proprio per la sua apparente integrità: «A prima vista sembrava un fossile quasi integro, peraltro dotato di tessuti molli ancora intatti e quindi di informazioni biologiche inestimabili».
    Rossi racconta che l’indagine preliminare sul fossile è stata svolta a Padova, utilizzando delle lampade a raggi ultravioletti. «Abbiamo scoperto che la pelle era ricoperta da una sorta di materiale di rivestimento», ma inizialmente questa circostanza non generò particolari perplessità, anche perché «rivestire i fossili con vernici o lacche in passato era un’usanza piuttosto diffusa tra i paleontologi, e in alcuni casi viene impiegata ancora oggi, per esempio quando i reperti vengono conservati in teche prive di sistemi per il controllo dell’umidità. Pensavamo che la pelle vera e propria potesse essere celata da questo materiale coprente, e così abbiamo prelevato dei minuscoli campioni, per analizzarli nuovamente in laboratorio».
    I campioni del fossile sono stati analizzati con la spettroscopia a raggi infrarossi (FTIR), un metodo di analisi utilizzato per studiare la chimica dei materiali. «La sostanza celata dal materiale coprente non era quella tipica della pelle di un fossile. Non c’erano strutture biologiche preservate, come accade quando la conservazione del fossile ha un carattere eccezionale, ma soltanto degli strati composti da granuli spigolosi. Alla fine abbiamo scoperto che ciò che stavamo esaminando non erano tessuti molli, ma strati di nero d’ossa, un pigmento inorganico facilmente reperibile da chiunque».
    È ancora presto per dire come ci sia finito. Rossi ipotizza che il fossile possa essere stato modificato da qualche appassionato di archeologia per provare a ricavare una specie di forma, ma specifica che è solo un’idea: «quel che è certo è che la pittura è stata applicata da qualcuno, ma non sappiamo quando e da chi».
    Rossi ha sottolineato che, comunque, il Tridentinosaurus antiquus «non è del tutto un falso», dato che «c’è del materiale originale: alcune ossa e delle piccole scaglie ossee, che si chiamano osteodermi, sono autentiche». Il lato positivo è che «adesso sappiamo da dove partire: dato che i tessuti molli non erano altro che strati di vernice, gli studi futuri dovranno concentrarsi sulle parti autentiche, ossia le ossa».
    Finora il Tridentinosaurus antiquus era stato considerato come appartenente all’ordine dei prolacertiformi, ma gli autori della ricerca hanno chiesto che la tassonomia venga rivista in attesa che i resti reali del fossile vengano sottoposti a nuovi esami. Rossi ha comunque detto che secondo lei «la scoperta non deve essere vissuta come una delusione, ma come un’opportunità: l’autenticità delle ossa è un fatto positivo, e ci darà la possibilità di tornare sul campo per capire l’ordine di appartenenza di questo rettile». Le analisi hanno comunque confermato il valore del fossile nella ricostruzione degli ecosistemi del periodo Permiano. LEGGI TUTTO

  • in

    Il riscaldamento globale bloccherà la corrente del Golfo?

    Caricamento playerL’Irlanda si trova più o meno alla stessa latitudine del Labrador, in Canada, ma ha generalmente temperature più alte grazie a una corrente oceanica che dal Golfo del Messico trasporta acqua relativamente calda verso il Nord Europa. È la corrente del Golfo, uno dei fenomeni naturali che più influenzano il clima della Terra. Da più di cinquant’anni la climatologia ne studia il funzionamento per capire se, e quando, il riscaldamento globale potrebbe bloccarla, e così stravolgere il clima di buona parte del mondo. Ora una ricerca pubblicata sulla rivista Science Advances ha aggiunto vari elementi rilevanti a ciò che sappiamo sull’argomento.
    Il cambiamento climatico e la corrente del Golfo sono legati a causa dello scioglimento dei ghiacci della Groenlandia e degli altri territori dell’Artico, che è dovuto all’aumento delle temperature medie. Più i ghiacci fondono, più cresce la quantità di acqua dolce che finisce nel nord dell’oceano Atlantico. Questo altera le dinamiche delle correnti oceaniche, che sono regolate da differenze di temperatura e salinità dell’acqua, e potrebbe farlo al punto da bloccare la corrente del Golfo. Tuttora non sappiamo quando potrebbe accadere, ma il nuovo studio conferma che il pianeta si sta avvicinando a questa situazione. Dice che ci sono buone probabilità che il processo di blocco della corrente si inneschi in questo secolo e che finora i rischi associati siano stati sottovalutati.
    Insieme ai venti, le correnti oceaniche si possono considerare un motore del clima, o più precisamente una “pompa di calore” che lo regola, perché trasportano aria e acqua calda verso i Poli e aria e acqua fredda verso l’Equatore. Tutte le correnti oceaniche, così come i venti del pianeta, sono collegate tra loro e fanno parte di un unico sistema. La comunità scientifica si riferisce alla parte del sistema che riguarda l’oceano Atlantico con la sigla AMOC, acronimo dell’espressione inglese Atlantic Meridional Overturning Circulation, in italiano “capovolgimento meridionale della circolazione atlantica”. La corrente del Golfo è un pezzo dell’AMOC.
    Le correnti, cioè il movimento delle masse d’acqua oceaniche, sono causate dalle differenze di temperatura e salinità dell’acqua stessa che si creano negli oceani. Temperatura e salinità determinano la densità dell’acqua (più l’acqua è calda meno è densa, più è salata più è densa) e masse d’acqua di densità diverse si muovono le une in relazione alle altre proprio in base alla differenza di densità. L’acqua meno densa tende a salire verso l’alto, mentre l’acqua più densa tende a scendere in profondità (allo stesso modo l’olio in un bicchier d’acqua galleggia perché è meno denso dell’acqua). Le correnti possono essere di superficie o di profondità a seconda della densità dell’acqua in movimento.
    Nelle zone equatoriali fa più caldo quindi l’acqua si scalda e al tempo stesso evapora di più, ragion per cui la concentrazione di sale è maggiore. Dal Golfo del Messico, dove l’acqua raggiunge una temperatura attorno ai 30 °C, una massa d’acqua calda e salata viene spinta dalla rotazione della Terra e dai venti verso l’Europa. Avvicinandosi al Polo Nord questa massa d’acqua si raffredda gradualmente e di conseguenza diventa più densa. Inoltre, risulta ancora più densa dell’acqua circostante, perché provenendo dalla zona equatoriale è più salata. Tra Groenlandia, Norvegia e Islanda la differenza di densità tra l’acqua della corrente del Golfo e quella che la circonda crea degli enormi flussi d’acqua verticali, delle specie di gigantesche cascate sottomarine chiamate “camini oceanici”, che spingono l’acqua proveniente da sud-ovest in profondità.
    L’AMOC è spesso paragonata a un nastro trasportatore perché il flusso d’acqua fredda verso le profondità oceaniche e da lì verso sud, dunque in senso opposto alla corrente del Golfo, è fondamentale per mantenere attivo tutto il meccanismo. Il riscaldamento globale potrebbe incepparlo proprio perché rischia di disturbare questa parte dell’AMOC.
    Rappresentazione schematica semplificata del sistema delle correnti oceaniche della Terra, detto “circolazione termoalina”, cioè regolata dalla temperatura e dalla salinità dell’acqua; dove il flusso è rappresentato in viola le correnti sono in profondità, dove è rappresentato in blu sono in superficie. L’AMOC è il sistema di correnti nella parte più a sinistra dell’immagine (Wikipedia Commons)
    L’AMOC è la ragione principale per cui a Parigi le temperature medie generalmente variano tra 26 e 3 °C nel corso dell’anno, mentre a Montreal, la cui latitudine si trova circa 400 chilometri più a sud della capitale francese, variano tra 26 e -12 °C. Se non ci fosse l’AMOC gran parte della superficie del mare di Norvegia sarebbe ghiacciata nei mesi invernali, e molte regioni d’Europa avrebbero inverni più simili a quelli del Canada e del nord degli Stati Uniti, che sono più rigidi pur trovandosi alla stessa latitudine.
    A partire dagli anni Sessanta, con gli studi dell’oceanografo statunitense Henry Stommel, si iniziò a ipotizzare che un aumento eccessivo della quantità d’acqua dolce proveniente dai fiumi e dai ghiacciai del Nord America e della Groenlandia avrebbe potuto bloccare l’AMOC. Il motivo è che l’acqua proveniente dai continenti diluisce quella salata degli oceani. Nel caso specifico dell’Atlantico settentrionale, le acque continentali diluiscono quelle della corrente del Golfo: l’ipotesi sul blocco dell’AMOC è che se dovessero farlo in modo eccessivo, diminuirebbe quella differenza di densità che crea i camini oceanici e che spinge l’acqua calda dal Golfo del Messico al nord Europa.
    Questa ipotesi prevede anche che ci sia quello che in inglese è chiamato tipping point, letteralmente “punto estremo”, cioè una soglia critica oltre la quale un sistema viene stravolto, spesso in modo brusco, o irreversibile, o entrambe le cose. In italiano questa espressione è tradotta di frequente con “punto di non ritorno”, che però non è la stessa cosa perché contiene necessariamente l’irreversibilità.
    Nel caso dell’AMOC, si ipotizza che – una volta che il flusso di acqua dolce nel Nord Atlantico abbia raggiunto un certo tipping point – si ottenga un rapido blocco della corrente del Golfo. Sappiamo che in passato è già successo, durante le ere glaciali. L’ultima volta accadde 12mila anni fa: il conseguente periodo di raffreddamento dell’Europa, che portò a diminuzioni della temperatura media di 5 °C in alcune zone, è chiamato “Dryas recente”. Lo studio pubblicato la scorsa settimana ha confermato con maggiore precisione rispetto al passato che il tipping point legato all’aumento della fusione dei ghiacci artici esiste e che il riscaldamento globale causato dalle attività umane potrebbe davvero fermare la corrente che rende il clima dell’Europa quello che è.
    Questo risultato è basato su una complessa simulazione che ha preso in considerazione uno scenario di 4.400 anni e non tiene conto solo delle correnti ma anche delle condizioni dell’atmosfera: per farla eseguire sono serviti 6 mesi di calcoli nel più grande centro computazionale dei Paesi Bassi. Lo studio è stato fatto da René M. van Westen, Michael Kliphuis e Henk A. Dijkstra, tre scienziati dell’Istituto per la ricerca marina e atmosferica dell’Università di Utrecht, uno degli enti scientifici più autorevoli per le analisi sull’AMOC.
    Lo studio conferma anche che le condizioni dell’oceano Atlantico si stanno avvicinando a quelle del tipping point (varie ricerche degli ultimi vent’anni avevano già osservato un rallentamento della corrente del Golfo) e propone come si potrebbe fare a capire con un certo anticipo quando ci saremo pericolosamente vicini, cioè con una misurazione del trasporto di acqua dolce da parte dell’AMOC. Lo studio però non dice quando potremmo raggiungere la condizione che porterebbe al blocco della corrente, che nelle parole dell’oceanografo e climatologo Stefan Rahmstorf, professore di Fisica degli oceani all’Università di Potsdam, resta «la domanda da un miliardo di dollari».
    Van Westen, Kliphuis e Dijkstra si sono limitati a dire che una previsione proposta l’anno scorso, secondo cui il tipping point sarà raggiunto tra il 2025 e il 2095, «potrebbe essere accurata».
    Secondo Rahmstorf, che ha commentato lo studio olandese in un intervento tradotto in italiano sul blog Climalteranti, questa ricerca «conferma le preoccupazioni del passato secondo cui i modelli climatici sovrastimano sistematicamente la stabilità dell’AMOC». Lo scienziato ritiene che l’Intergovernmental Panel on Climate Change (IPCC) dell’ONU, il principale organismo scientifico internazionale per la valutazione dei cambiamenti climatici, abbia finora sottovalutato i rischi di un blocco della corrente del Golfo perché i suoi rapporti sono basati su studi non sufficientemente precisi.
    Lo studio di van Westen, Kliphuis e Dijkstra contiene anche qualche ipotesi sulle conseguenze del blocco dell’AMOC sul clima europeo, che però non tengono conto degli altri effetti del riscaldamento globale. Dicono che l’Europa settentrionale, e in particolare la Scandinavia, la Gran Bretagna e l’Irlanda, subirebbero una grossa diminuzione delle temperature medie invernali, tra i 10 e i 30 °C nel giro di un secolo, con cambiamenti di 5 °C a decennio, cioè molto più veloci del riscaldamento attualmente in corso. Al tempo stesso ci sarebbero grandi variazioni nel livello del mare e nelle precipitazioni delle regioni tropicali, in particolare in Amazzonia, dove una prateria potrebbe prendere il posto della foresta pluviale.
    Dato che la simulazione non tiene conto degli altri effetti del cambiamento climatico in corso questo scenario non può essere considerato del tutto verosimile. In ogni caso, un cambiamento anche di pochi gradi nelle temperature medie se avvenisse nel giro di un secolo, che è un tempo molto breve per la storia del pianeta, avrebbe grossi impatti sul clima e su tutto ciò che ne dipende, compresa la vita di piante e animali, umani inclusi. «Dati gli impatti, il rischio di un collasso dell’AMOC è qualcosa da evitare a tutti i costi», ha detto sempre Rahmstorf:
    Il problema non è se siamo sicuri che questo accadrà. Il problema è che avremmo bisogno di escluderlo con una probabilità del 99,9%. Una volta che avremo un segnale di avvertimento inequivocabile e definitivo, sarà troppo tardi per fare qualcosa al riguardo, data l’inerzia del sistema. LEGGI TUTTO

  • in

    Il lander statunitense Nova-C Odysseus è partito verso la Luna

    Giovedì mattina da una base NASA in Florida è stato lanciato verso la Luna il lander Nova-C soprannominato Odysseus: l’obiettivo della missione è quello di raggiungere la superficie della Luna giovedì 22 febbraio. Se riuscirà sarà il primo allunaggio fatto con mezzi statunitensi dopo quello della missione Apollo 17 del 1972. Non sarebbe solo il primo allunaggio controllato da allora (ossia fatto senza schianti), ma anche il primo nella storia fatto con un mezzo privato: il lander è stato costruito dalla società aerospaziale Intuitive Machines, che ha anche dato il nome alla missione, IM-1. Per il decollo è stato usato un razzo Falcon 9, della compagnia SpaceX di Elon Musk.[embedded content] LEGGI TUTTO