More stories

  • in

    La scoperta di una misteriosa creatura marina su Instagram

    Ryo Minemizu è un fotografo giapponese specializzato in foto sottomarine che mostrano creature variopinte, spesso minuscole, che vivono a varie profondità nell’oceano Pacifico al largo della costa del Giappone. Come molti altri fotografi, Minemizu condivide le proprie immagini su Instagram, in un profilo fitto di immagini di animali dalle forme più strane che ricorda i grandi cataloghi di specie di un tempo, non sempre conosciute e che talvolta attirano la curiosità dei ricercatori. Questa è la storia di una di quelle foto e di quanto possa essere complicato e sorprendente scoprire qualcosa di nuovo su esseri viventi mai visti prima, che magari sono qualcos’altro rispetto a ciò che sembrano.Come racconta il sito della rivista Science, tra le persone incuriosite dalle foto di Minemizu c’era Igor Adameyko, un neurobiologo dell’Università di Vienna, che aveva notato sul profilo Instagram del fotografo un’immagine scattata nel 2018 e condivisa nel 2020 che mostrava una strana creatura marina non identificata. Adameyko si era messo in contatto con Minemizu chiedendogli se per caso avesse raccolto un esemplare di quello strano animale e se fosse interessato a spedirglielo, così da poterlo analizzare. Il fotografo accettò e dopo qualche tempo Adameyko ricevette un pacchetto contenente l’esemplare, grande più o meno quanto una lenticchia e conservato in formalina.L’analisi rivelò che l’animale aveva una parte esterna fluttuante, con una struttura che ricordava tanti piccoli tentacoli collegata a una parte centrale semisferica. A prima vista sembrava che le strutture simili ai tentacoli fossero piccole appendici, ma osservando più attentamente Adameyko si accorse che non si trattava di un singolo animale, ma di una serie di tanti piccoli organismi lunghi pochi millimetri. Erano almeno una ventina e Adameyko iniziò a riferirsi a loro informalmente come “marinai”, visto che sembravano avere la funzione di far muovere nell’acqua la creatura.Una successiva analisi della semisfera rivelò qualcosa di ancora più particolare: era formata da un insieme di centinaia di minuscoli organismi simili ai girini, con una testa grande quanto la punta di una matita e una coda più sottile di un capello umano. Le varie code, ha spiegato di recente Adameyko con un gruppo di colleghi sulla rivista scientifica Current Biology, erano tutte annodate insieme al centro della semisfera, con la testa di ogni organismo rivolta verso l’esterno.(Current Biology)Invece di semplificare le cose, l’analisi della struttura di quello strano animale aveva complicato la ricerca di una possibile specie di appartenenza. Né Adameyko né diversi altri colleghi erano in grado di stabilire che cosa avesse fotografato Minemizu qualche anno prima.Fu solo dopo alcune analisi per rivelare particolari dettagli anatomici, come quelli del sistema nervoso dell’organismo, che Adameyko e colleghi iniziarono a ipotizzare che si trattasse di un esemplare appartenete ai Lophotrochozoa, il vasto gruppo (“clado”) che comprende i molluschi, vari invertebrati acquatici e gli anellidi come i lombrichi, per citarne alcuni. L’ipotesi era che si trattasse di un parassita, ma servivano analisi del DNA per poterlo confermare. L’esemplare era stato conservato in formalina, una sostanza usata spesso per conservare materiali biologici, ma che degrada velocemente il DNA. Fu quindi necessario utilizzare tecniche solitamente impiegate per la raccolta di materiale da reperti antichi, in modo da ottenere ugualmente qualche informazione.Infine, l’analisi del DNA permise di restringere il campo: l’organismo apparteneva ai digenei (Digenea), una sottoclasse di animali vermiformi noti per avere spesso un ciclo vitale particolare, che comporta la colonizzazione di animali di diverse specie. Le modalità variano, ma in generale i parassiti adulti vivono all’interno di un ospite e producono uova che finiscono nell’ambiente circostante, di solito attraverso le feci dell’animale che hanno colonizzato. Le uova si trasformano in larve all’interno di altri animali entrati in contatto con le feci, che a loro volta vengono poi mangiati dagli animali in cui il parassita può passare dalla larva alla fase adulta. Dopodiché produce le uova e il ciclo ricomincia.Le larve simili a girini raggruppate nella parte centrale dell’esemplare analizzato (Current Biology)Nel caso di alcune specie, le larve vivono liberamente e hanno sviluppato la capacità di rimanere insieme, imitando la forma dei piccoli organismi che vivono negli ambienti acquatici di cui si nutrono i pesci. In questo modo un pesce le ingerisce pensando di avere davanti qualcosa di cui va ghiotto e rimedia una parassitosi.Lo strano insieme di organismi fotografato da Minemizu sembra fare qualcosa di simile, ma ciò che è veramente insolito è che lo facciano utilizzando due diverse forme della fase larvale (“cercaria”). Sia i marinai sia i “girini” appartengono infatti alla stessa specie. Secondo la ricerca, i girini sono responsabili della colonizzazione vera e propria dei pesci attraverso le loro branchie o l’apparato digerente, mentre i marinai hanno il compito di portare in giro il groviglio di girini nell’acqua.Questa separazione dei compiti era stata osservata in passato in alcune specie di digenei che conducono il loro stadio larvale all’interno di un altro animale, mentre non era stato ancora osservato nel caso di larve che vivono liberamente nell’ambiente esterno.La scoperta apre nuove possibilità sulla ricerca di altre specie simili nelle quali le larve non hanno da subito bisogno di un ospite e, in un certo senso, collaborano per raggiungerne e invaderne uno. Adameyko ha in programma di proseguire le ricerche per comprendere come funzioni questa forma di collaborazione e se le larve abbiano un sistema per orientarsi, forse seguendo la luce. Minemizu nel frattempo ha pubblicato centinaia di fotografie di altre creature marine, che potrebbero nascondere qualche altra sorpresa a conferma di quanto ci sia ancora da scoprire negli oceani, che del resto ricoprono più del 71 per cento della superficie del nostro pianeta. LEGGI TUTTO

  • in

    L’estensione invernale del ghiaccio marino in Antartide è stata molto minore del solito

    Secondo un’analisi preliminare del Centro dati nazionale sulla neve e i ghiacci degli Stati Uniti (NSIDC), a settembre il massimo di estensione del ghiaccio marino intorno all’Antartide è stato il più basso mai registrato. Il nuovo record, che dovrà essere confermato da altre analisi i cui risultati sono previsti per inizio ottobre, si aggiunge alle rilevazioni svolte nell’ultimo periodo che hanno segnalato un periodo di sensibile riduzione nella presenza di ghiaccio in Antartide, con conseguenze che si estendono oltre quelle per gli ecosistemi del continente.A settembre il ghiaccio marino antartico raggiunge il proprio massimo, più o meno in corrispondenza con la fine dell’inverno nell’emisfero australe. L’andamento è infatti ciclico e legato alle stagioni: il minimo della copertura si registra a febbraio con l’estate antartica, quando fonde una parte del ghiaccio, che inizia poi a riformarsi nei mesi seguenti fino al picco di settembre.La linea gialla mostra la media del massimo di copertura di ghiaccio marino nel periodo 1981-2010, in bianco la copertura rilevata il 10 settembre scorso (NSIDC)In media tra il 1981 e il 2010 la copertura massima di ghiaccio marino è stata di 18,7 milioni di chilometri quadrati. A settembre di quest’anno il massimo è stato invece di 16,9 milioni di chilometri quadrati, registrato il 10 di settembre: in sensibile anticipo rispetto al solito e senza riscontrare ulteriori aumenti nei giorni seguenti. Il nuovo record è di circa un milione di chilometri quadrati inferiore rispetto al precedente minimo nella stagione di picco rilevato nel 1986.Estensione del ghiaccio marino tra giugno e ottobre in Antartide (NSIDC)Secondo i gruppi di ricerca, le cause sono probabilmente riconducibili ad alcune condizioni del meteo nelle ultime settimane (specialmente nell’area del Mare di Ross, la grande baia nella parte meridionale dell’Antartide) e agli effetti del riscaldamento globale. Saranno necessarie altre analisi per confermare il ruolo del cambiamento climatico, ma la perdita di ghiaccio è comunque in linea con i modelli che studiano gli effetti dovuti all’aumento della temperatura media ai poli. LEGGI TUTTO

  • in

    È iniziato l’autunno

    Caricamento playerAlle 8:50 di sabato 23 settembre è finita l’estate e iniziato l’autunno. L’equinozio d’autunno è quel momento dell’anno in cui il Sole si trova allo zenit dell’equatore della Terra, cioè esattamente sopra la testa di un ipotetico osservatore che si trovi in un punto specifico sulla linea dell’equatore. Spesso si parla dell’equinozio come di un giorno intero ma è tecnicamente scorretto, perché è solo l’istante preciso in cui si verifica un fenomeno astronomico. E l’ora in cui avviene quell’istante cambia ogni anno.Visto che l’equinozio d’autunno può essere in giorni diversi, le stagioni non cambiano sempre lo stesso giorno. Il giorno dell’equinozio d’autunno ha comunque una caratteristica particolare: è uno dei due soli giorni all’anno – l’altro è l’equinozio di primavera – in cui il dì ha la stessa durata della notte (anche se poi non è esattamente così a causa di alcune interazioni della luce con l’atmosfera terrestre).L’inizio delle stagioni è scandito da eventi astronomici precisi: l’estate e l’inverno cominciano con i solstizi, in cui le ore di luce del giorno sono al loro massimo (estate) o al loro minimo (inverno); mentre la primavera e l’autunno cominciano il giorno degli equinozi, i momenti in cui la lunghezza del giorno è uguale a quella della notte.Tuttavia, oggi in Italia il giorno sarà ancora un po’ più lungo della notte per qualche minuto e la vera parità tra dì e notte sarà tra qualche giorno. Questo si deve a un fenomeno chiamato “rifrazione atmosferica” per cui la luce del Sole è curvata dall’atmosfera: è quella cosa per cui vediamo il Sole qualche minuto prima che sorga effettivamente.Gli equinozi e i solstizi (e le durate del dì e della notte) sono determinati dalla posizione della Terra nel suo moto di rivoluzione intorno al Sole, cioè il movimento che il nostro pianeta compie girando intorno alla sua stella di riferimento. L’equinozio è il momento in cui il Sole si trova all’intersezione del piano dell’equatore celeste (la proiezione dell’equatore sulla sfera celeste) e quello dell’eclittica (il percorso apparente del Sole nel cielo). Al solstizio invece il Sole a mezzogiorno è alla massima o minima altezza rispetto all’orizzonte.Le variazioni del momento in cui avvengono equinozi e solstizi sono causate dalla diversa durata dell’anno solare e di quello del calendario (è il motivo per cui esistono gli anni bisestili, che permettono di rimettere “in pari” i conti).In Italia, la primavera cade tra il 20 e il 21 marzo, l’estate tra il 20 e il 21 giugno, l’autunno tra il 22 e il 23 settembre, l’inverno tra il 21 e il 22 dicembre. Oltre alle stagioni astronomiche, poi, ci sono anche quelle meteorologiche: iniziano in anticipo di una ventina di giorni rispetto a solstizi ed equinozi, e durano sempre tre mesi. Indicano con maggiore precisione i periodi in cui si verificano le variazioni climatiche annuali, specialmente alle medie latitudini con climi temperati.Il momento dell’equinozio non c’entra con quello del cambio dell’ora, che quest’anno andrà spostata indietro tra sabato 28 e domenica 29 ottobre. LEGGI TUTTO

  • in

    La più antica struttura in legno mai scoperta

    Una ricerca pubblicata mercoledì sulla rivista Nature sostiene che due tronchi incastrati insieme e trovati in un sito archeologico in Zambia, in Africa, costituiscano la più antica struttura in legno prodotta da una specie umana mai scoperta finora. Secondo lo studio hanno più di 450mila anni e precedono quindi di oltre 100mila anni i più antichi resti di Homo sapiens, l’unica specie umana attualmente esistente, la nostra. In precedenza la più antica struttura in legno mai trovata risaliva ad appena 9mila anni fa: si trattava dei resti di alcune piattaforme trovate in un lago nel Regno Unito. È ancora più vecchio il più antico oggetto manufatto di legno mai rinvenuto, il frammento di un’asse scoperto in Israele e risalente a 780mila anni fa, ma se l’abilità di altre specie umane estinte di realizzare piccoli strumenti era nota, non si sapeva che costruissero anche strutture più grandi e complesse.I due tronchi trovati nel 2019 in Zambia, e più precisamente nella riva del fiume Kalambo presso una cascata vicino al confine con la Tanzania, sono incrociati ad angolo retto. Secondo i ricercatori che li hanno studiati sono stati modificati dall’azione umana con degli strumenti di pietra, in modo che potessero incastrarsi. I risultati della datazione implicherebbero che la struttura possa essere stata costruita da ominini (il termine per definire le specie più vicine agli esseri umani moderni) come Homo erectus o Homo naledi, specie che si evolvettero dagli stessi antenati da cui proviene Homo sapiens. Si stima che la nostra specie sia comparsa circa 300mila anni fa, quindi successivamente alla realizzazione della struttura trovata in Zambia.Rispetto ai reperti in pietra, è molto più difficile che reperti in legno così antichi si conservino. In questo caso, i tronchi si trovavano immersi nell’acqua di una falda sotterranea, che ha permesso loro di preservarsi per quasi mezzo milione di anni senza andare incontro al decadimento naturale che interessa normalmente il legno. La datazione è avvenuta tramite lo studio della luminescenza dei sedimenti che li ricoprivano, una tecnica che permette di determinare l’ultima volta che delle rocce furono esposte alla luce solare. Il noto metodo di datazione con il carbonio-14 permette di stimare l’età di materiale organico vecchio fino a 50mila anni fa.La struttura al momento della scoperta e in uno schema (Larry Barham/Università di Liverpool)Gli studiosi che hanno analizzato la struttura – appartenenti a università e istituzioni britanniche, all’Università di Liegi, in Belgio, e al Museo Moto Moto di Mbala, in Zambia – sono quasi certi che i tronchi siano stati modificati dall’azione umana: per verificarlo sono state prodotte delle repliche degli utensili di pietra trovati nel sito sotto la cascata del Kalambo e le hanno usate per lavorare legni con caratteristiche simili a quello dei tronchi. I segni lasciati dalle repliche sono analoghi a quelli ritrovati sui reperti, per cui si pensa che furono fatti «intenzionalmente con utensili di pietra».La scoperta potrebbe significare che l’abilità di usare il legno per costruire degli oggetti è molto più antica di quanto noto finora e ampliare la nostra conoscenza di altre specie di ominini. Inoltre potrebbe mettere in dubbio la nozione che i primi esseri umani conducessero esclusivamente una vita nomade. Il più piccolo dei due tronchi è lungo 1 metro e mezzo: complessivamente le loro dimensioni indicano che probabilmente facevano parte di una struttura abbastanza grande. Anche se non è possibile dire con certezza che degli ominini si fossero stabiliti permanentemente nella zona della cascata, la realizzazione di una struttura come quella trovata avrà sicuramente richiesto sforzi notevoli, difficilmente spiegabili se il sito era solo un accampamento.La struttura (Larry Barham/Università di Liverpool)Gli studiosi che hanno partecipato allo studio ritengono che la complessità della struttura implichi la possibilità che fu progettata e costruita da ominini che potevano collaborare in modo efficace grazie all’uso del linguaggio. Un’altra ipotesi del gruppo di ricerca è che la struttura non fosse parte di una vera e propria abitazione: poteva essere parte delle fondamenta di un riparo, di un camminamento o di una piattaforma per pescare nel fiume, ma è molto difficile giungere a conclusioni precise al riguardo.Al momento i tronchi sono conservati in Inghilterra, dove sono stati studiati, in una cisterna che replica le condizioni in cui sono stati preservati naturalmente per centinaia di migliaia di anni. Ma saranno riportati in Zambia per essere esposti al pubblico.– Leggi anche: La nuova teoria secondo cui i nostri antenati rischiarono di estinguersi LEGGI TUTTO

  • in

    Il cambiamento climatico potrebbe aver reso più probabile l’alluvione in Libia

    Caricamento playerSecondo un primo studio scientifico, la possibilità che nel nord-est della Libia piovesse come nella notte tra il 10 e 11 settembre è stata resa 50 volte più probabile dal cambiamento climatico causato dalle attività umane. In altre parole, le alluvioni causate dalla tempesta Daniel sono legate al modo in cui l’umanità ha modificato l’atmosfera terrestre: è la conclusione di 13 scienziati della World Weather Attribution (WWA), una collaborazione tra ricercatori esperti di clima che lavorano per diversi autorevoli enti di ricerca del mondo, nata per rispondere in modo rapido alla domanda “c’entra il cambiamento climatico?” quando si verifica un evento meteorologico estremo.Decenni di studi di climatologia dicono che una delle conseguenze del riscaldamento globale è l’aumento della frequenza di alcuni fenomeni, come precipitazioni particolarmente intense e siccità in diverse parti del pianeta. Ma solo confrontando i dati su un particolare evento con le statistiche del passato è possibile dire quali eventi meteorologici estremi abbiano davvero un legame con il cambiamento climatico. I risultati di questo primo studio vanno in questa direzione e sebbene ci siano ampie incertezze contestualizzano un po’ ciò che è successo rispetto al clima.Per la tempesta che ha interessato la Libia, e che prima aveva causato intense piogge anche su Grecia, Bulgaria e Turchia, gli scienziati della WWA hanno usato delle simulazioni: hanno confrontato la probabilità che un tale evento di precipitazione avvenga col clima attuale con quella che avrebbe avuto col clima di 200 anni fa, prima che le emissioni di gas serra dovute alle attività umane riscaldassero l’atmosfera. Rispetto a quell’epoca la temperatura media globale è aumentata di 1,2 °C.Gli scienziati hanno condotto analisi diverse per la Libia da una parte e per la Grecia, la Bulgaria e la Turchia dall’altra, dato che si tratta di zone geografiche con caratteristiche diverse, per quanto affacciate sul mar Mediterraneo.Per la Libia la quantità di pioggia caduta tra il 10 e l’11 settembre è piuttosto straordinaria, «estremamente insolita» anche per il clima attuale, secondo lo studio: statisticamente ha una probabilità di verificarsi una volta ogni 3-6 secoli. In epoca pre-industriale tuttavia era ancora meno probabile. Le alluvioni generate hanno provocato la morte di più di 11mila persone secondo le stime della Mezzaluna Rossa (come si chiama la Croce Rossa nei paesi arabi), anche per via del cedimento di due vecchie dighe maltenute e in conseguenza del contesto politico instabile della Libia.Secondo lo studio della WWA, anche le precipitazioni come quelle che ci sono state in Grecia, Turchia e Bulgaria, e che complessivamente hanno causato la morte di almeno 28 persone, sono state rese più probabili dal cambiamento climatico: di 10 volte. Col clima attuale, per questi territori dobbiamo aspettarci che precipitazioni simili siano relativamente comuni: lo studio dice che c’è il 10 per cento di probabilità che accadano ogni anno.Lo studio ha dei limiti perché i modelli climatici di cui disponiamo sono molto efficaci nel descrivere eventi atmosferici su larga scala, meno quando si studiano territori circoscritti come quelli interessati dalle recenti alluvioni. Gli scienziati della WWA sono tuttavia piuttosto sicuri che il cambiamento climatico abbia avuto un’influenza su questi eventi, perché le proiezioni climatologiche per questa parte del Mediterraneo prevedono un aumento delle precipitazioni con l’aumento delle temperature, già rilevato nei dati degli ultimi anni.La World Weather Attribution (WWA) fu creata nel 2015 da due climatologi, la tedesca Friederike Otto e l’olandese Geert Jan van Oldenborgh, affinché la comunità scientifica possa rispondere il più velocemente possibile alla domanda “c’entra il cambiamento climatico?” ogni volta che giornalisti e altre persone di tutto il mondo si chiedono se un certo evento meteorologico abbia un legame con il riscaldamento globale.La WWA pratica quella branca della climatologia relativamente nuova che è stata chiamata “scienza dell’attribuzione”: indaga i rapporti tra il cambiamento climatico ed eventi meteorologici specifici, una cosa più complicata di quello che si potrebbe pensare. Per poter dare risposte in tempi brevi, cioè prima che il ciclo delle notizie sposti l’attenzione delle persone su altri argomenti d’attualità, gli studi della WWA sono pubblicati senza essere sottoposti al processo di revisione dei risultati da parte di altri scienziati competenti (peer-review) che nella comunità scientifica garantisce il valore di una ricerca, ma che richiederebbe mesi o anni di attesa. Tuttavia i metodi usati dalla WWA sono stati certificati come scientificamente affidabili proprio da processi di peer-review e i più di 50 studi di attribuzione che ha realizzato finora sono poi stati sottoposti alla stessa verifica e pubblicati su riviste scientifiche senza grosse modifiche.Tra gli enti che collaborano alla WWA ci sono l’Imperial College di Londra, l’Istituto meteorologico reale dei Paesi Bassi e il Laboratorio delle scienze del clima e dell’ambiente (LSCE) dell’Istituto Pierre Simon Laplace, un importante centro scientifico francese. Gli scienziati che collaborano agli studi dell’iniziativa lo fanno gratuitamente. LEGGI TUTTO

  • in

    La scomparsa dei crateri

    Caricamento playerFlagstaff è una città al centro dell’Arizona (Stati Uniti), ci vivono circa 66mila persone e non ha particolari attrattive se non quella di essere una delle vie di accesso per raggiungere il Grand Canyon, a un’ora di auto più a nord. L’enorme gola è la principale attrazione turistica nella zona, una delle migliori e più evidenti testimonianze dei lenti processi geologici che in milioni di anni plasmano la Terra. Ma c’è un’altra attrazione meno nota una sessantina di chilometri a est di Flagstaff che mostra invece come una grande area del nostro pianeta possa cambiare in pochi istanti. È il Meteor Crater, un grande cratere largo 1,2 chilometri e profondo 170 metri che si formò in seguito all’impatto di un meteorite circa 50mila anni fa.Il cratere si formò quando l’altopiano del Colorado aveva un clima più fresco e umido dell’attuale: era un ampio pianoro erboso popolato da molti animali compresi i mammut. Un giorno in cielo apparve una grande meteora, probabilmente con un diametro di una cinquantina di metri, che iniziò a sgretolarsi nell’atmosfera prima di raggiungere il suolo ad alta velocità. L’energia liberata al momento dell’impatto fu enorme (10 megatoni), produsse un’ampia depressione con un margine alto una sessantina di metri, un effetto che ricorda quello che si osserva nell’acqua nei primi istanti dopo aver lanciato un sasso in una pozzanghera.Complice la sua giovane età, il Meteor Crater è considerato uno dei crateri meglio conservati della Terra, anche se i processi di erosione hanno fatto sì che le creste lungo la sua circonferenza perdessero una ventina di metri di altezza. Lentamente, ma inesorabilmente, il cratere continuerà a modificarsi fino a diventare sempre meno visibile. Accadrà in tempi lunghissimi per noi umani, ma relativamente brevi per i processi geologici che in milioni di anni cambiano il nostro pianeta. E sono proprio questi fenomeni a rendere difficile lo studio degli impatti con meteoriti che hanno riguardato la Terra e che potrebbero aiutarci a comprendere molte cose del suo passato.(NASA)Uno studio da poco pubblicato sulla rivista scientifica Journal of Geophysical Research: Planets ha segnalato che le tracce dei crateri più antichi, dunque molto più vecchi rispetto al Meteor Crater, stanno scomparendo e sono ormai difficili da studiare. Secondo l’analisi, i crateri più vecchi di due miliardi di anni sono probabilmente ormai indistinguibili dalle altre formazioni rocciose, soprattutto a causa dei fenomeni di erosione naturale. Due miliardi di anni sono una dimensione temporale difficile da immaginare per i nostri tempi umani, ma non sono moltissimi per un pianeta come il nostro che ha circa 4 miliardi e mezzo di anni.La ricerca cita in particolare il caso del cratere Vredefort, il più grande cratere meteoritico conosciuto della Terra, che si trova in Sudafrica. Quando si formò a causa del grande impatto, la struttura aveva un diametro massimo stimato tra i 180 e i 300 chilometri. Si formò poco più di due miliardi di anni fa nel Paleoproterozoico, la prima delle tre ere geologiche del Proterozoico, in cui i continenti iniziarono a stabilizzarsi e iniziarono a emergere i primi lontani parenti degli eucarioti, che avrebbero poi portato a buona parte delle forme di vita che conosciamo oggi.Ciò che resta del cratere Vredefort (NASA)Secondo i calcoli dello studio se il cratere si fosse formato 200 milioni di anni prima, oggi non sarebbero più visibili le sue tracce, già ampiamente ridotte rispetto a quanto poteva essere osservato nei milioni di anni dopo l’impatto. Il fatto che i crateri scompaiano non è certo una novità, ma soffermarsi sulle implicazioni del fenomeno può aiutare a mettere nella giusta prospettiva un pezzo importante della storia del pianeta.I dati satellitari, le ricognizioni aeree e lo studio dei minerali hanno permesso di identificare con certezza circa 200 crateri dovuti a un impatto con un meteorite. I più antichi hanno intorno ai 2 miliardi di anni, proprio come nel caso del cratere Vredefort, ma secondo gli autori dello studio è probabile che i crateri siano molti di più. Non sappiamo di preciso dove avvennero alcuni degli impatti più importanti, ma sappiamo che si sono verificati perché ancora oggi possiamo riscontrarne gli effetti per lo meno indiretti.Per capire quando l’erosione fa sì che un cratere non possa essere più definito tale, semplicemente perché sono scomparse le sue strutture più rilevanti e si sono modificate le caratteristiche geologiche del territorio interessato, il gruppo di ricerca ha studiato il cratere Vredefort, concentrandosi sui minerali che si trovano nella zona dell’impatto. I ricercatori hanno raccolto campioni per 20 chilometri, mettendo a confronto le caratteristiche fisiche delle rocce presenti nel cratere con quelle che non avevano invece subito gli effetti dell’impatto, con la produzione di alte temperature che modificano la struttura dei minerali.Dal confronto è emerso che ormai le rocce legate all’impatto sono indistinguibili da quelle che non erano state coinvolte dall’arrivo del meteorite. Nel corso di miliardi di anni di piogge, vento, altri processi di erosione e geologici le differenze sono scomparse. «A un certo punto, perdiamo tutte le caratteristiche che rendono un cratere un cratere» ha spiegato uno degli autori della ricerca.Su una scala ancora più grande del cratere Vredefort, la ricerca segnala che probabilmente una parte rilevante della storia geologica del nostro pianeta è persa per sempre. La riduzione delle differenze tra aree di impatto e non, fino al loro azzeramento, è la causa principale della grande difficoltà nell’identificare zone di impatto molto antiche che potrebbero aiutare i gruppi di ricerca a comprendere altri processi. Gli impatti non solo determinarono il repentino cambiamento di ampie aree, ma ebbero probabilmente un influsso sulla formazione dei primi esseri viventi, senza contare eventi più catastrofici come quello legato all’estinzione dei dinosauri, forse il caso di impatto meteoritico più conosciuto e ancora oggi molto discusso.È probabile che crateri molto antichi siano sommersi nelle profondità oceaniche, dove la raccolta dei minerali per compiere analisi e fare confronti è più difficoltosa e richiede importanti investimenti economici. I sistemi per rilevare a distanza le caratteristiche dei fondali, nell’ambito dei progetti per mapparli, offrono talvolta indizi sulla presenza di siti anticamente interessati da un impatto meteoritico. Come mostra il caso di Vredefort, comunque, più si va indietro nel tempo più diventa difficile distinguere quelle zone.Il cratere lunare Shackleton (NASA)Per trovare nuovi spunti di ricerca e comprendere meglio le caratteristiche dei crateri alcuni gruppi di ricerca preferiscono guardare verso l’alto, spingendosi oltre l’atmosfera terrestre. La Luna, il nostro satellite naturale, è famosa per avere una grande quantità di crateri che si sono formati in seguito a impatti con meteoriti di varie dimensioni. A differenza della Terra, la Luna ha un’atmosfera del tutto trascurabile ed è quindi meno interessata dai processi di erosione, circostanza che porta i suoi crateri a non modificarsi più di tanto nel corso del tempo. LEGGI TUTTO

  • in

    Abbiamo usato per anni farmaci contro il “naso chiuso” inefficaci

    Dopo anni di studi, test clinici e ricorsi, la scorsa settimana una commissione della Food and Drug Administration (FDA, l’agenzia governativa statunitense che si occupa di farmaci) ha definito inefficaci i farmaci orali che contengono fenilefrina, venduti da quasi vent’anni come una soluzione per alleviare la congestione nasale dovuta al raffreddore e all’influenza. I farmaci che la contengono sono molto diffusi negli Stati Uniti, ma alcune versioni simili sono vendute anche in Europa e in Italia, insieme ad altri principi attivi: come il Tachifludec, il prodotto da banco contenente fenilefrina per uso orale più venduto e pubblicizzato proprio per le sue proprietà decongestionanti.Sulla base delle conclusioni della commissione, la FDA dovrà decidere che cosa fare dei farmaci di questo tipo, che secondo la stessa agenzia negli ultimi anni hanno portato a vendite annuali intorno agli 1,7 miliardi di dollari, numero che probabilmente sottostima l’effettivo giro di affari di questi medicinali. In Italia si stima che nel 2022 siano stati venduti tra 3,5 e 4 milioni di confezioni di farmaci orali con fenilefrina indicati come decongestionanti. In entrambi i casi sono volumi di vendite ingenti per un principio attivo sul quale c’erano forti dubbi per lo meno sul suo impiego per via orale già da tempo.La fenilefrina era stata approvata dalla FDA a metà degli anni Settanta, ma aveva iniziato a essere presente nei farmaci contro il “naso chiuso” soprattutto dopo il Duemila, in seguito alla decisione di imporre maggiori limitazioni all’utilizzo della pseudoefedrina, una molecola dalla provata efficacia nel ridurre la congestione nasale. La decisione di limitarla, prima a livello statale e poi federale, derivava dal tentativo di ridurre la produzione illegale di alcune sostanze come le metanfetamine sfruttando i composti della pseudoefedrina. Messe davanti alle limitazioni che avrebbero reso più complicata la vendita dei loro prodotti, varie aziende farmaceutiche decisero di passare alla fenilefrina, nonostante circolassero già molti dubbi sull’efficacia della molecola nei prodotti orali (l’efficacia della molecola negli spray nasali è ancora dibattuta, invece).Le farmacie iniziarono a consigliare i decongestionanti con fenilefrina ai propri clienti e alcuni segnalarono ai loro medici di non avere trovato giovamento dalla terapia. Tra questi c’era Randy Hatton, oggi professore di farmacia all’Università della Florida, che fece richiesta per ottenere la documentazione utilizzata dalla FDA che aveva portato all’approvazione per quell’uso del principio attivo negli anni Settanta. Dall’analisi del materiale emerse che la FDA si era basata su 14 studi e che cinque di quelli che riportavano esiti positivi erano stati effettuati dallo stesso centro di ricerca, con risultati migliori rispetto alle altre ricerche. Escludendo quei cinque studi, la fenilefrina per uso orale ai dosaggi studiati non sembrava essere un decongestionante particolarmente efficace.Gli studi erano comunque datati ed era difficile trarre qualche conclusione più solida. Nel 2007 Hatton presentò insieme ad alcuni colleghi una petizione alla FDA, chiedendo che fosse rivista la dose di fenilefrina da impiegare arrivando a un dosaggio tale da sortire qualche effetto. La richiesta non era quindi di interrompere l’impiego della molecola, visto che il riesame delle analisi condotte negli anni Settanta aveva evidenziato qualche stranezza, ma nulla che facesse mettere completamente in dubbio il processo di approvazione o l’efficacia in assoluto della fenilefrina.In seguito alla petizione la FDA attivò un nuovo gruppo di lavoro per fare il punto sulla situazione. Furono presentati alcuni dati raccolti da un’azienda farmaceutica – poi confluita dentro Merck (al di fuori del Nordamerica è nota col nome Merck Sharp Dohme o MSD) – che voleva utilizzare la fenilefrina in un proprio prodotto contro le allergie. I dati erano a dir poco deludenti: il gruppo di ricerca per conto dell’azienda farmaceutica aveva rilevato che dopo l’ingestione buona parte della fenilefrina veniva disgregata nell’apparato digerente, con bassissime percentuali (intorno all’1 per cento) di principio attivo che finiva poi in circolazione nel sangue. La quantità di fenilefrina che raggiungeva le mucose nasali era quindi trascurabile al punto da non poter intervenire per ridurre la congestione. Erano stati inoltre segnalati studi nei quali era emerso come la fenilefrina non fosse meglio di una sostanza che non fa nulla (placebo) nel trattare la congestione nasale dovuta alle allergie da pollini.Nonostante i nuovi elementi, i lavori della commissione consultiva si conclusero senza decisioni sulla fenilefrina per uso orale: i farmaci che la impiegavano come decongestionanti potevano continuare a essere venduti, ma si richiedevano nuovi studi per capire se dosi maggiori del principio attivo portassero a qualche risultato, come già richiesto nella petizione inviata da Hatton e colleghi.I più interessati a proseguire le ricerche erano gli scienziati di Merck, alla ricerca di un prodotto per trattare le allergie. Effettuarono due test clinici i cui risultati furono pubblicati nel 2015 e nel 2016 dai quali emerse che anche aumentando molto i dosaggi, fino a quattro volte, non si riscontravano effetti nel ridurre la congestione nasale.Dopo la pubblicazione di quegli studi, Hatton e colleghi presentarono una nuova petizione alla FDA che ha infine portato alle conclusioni della scorsa settimana di un nuovo gruppo di lavoro dell’agenzia. Dei suoi sedici componenti, tutti hanno votato a favore del parere non vincolante sull’inutilità della fenilefrina. Sulla base di questa indicazione, la FDA nei prossimi mesi deciderà che cosa fare, ma secondo gli esperti appare improbabile che non siano assunte decisioni più incisive sulla questione rispetto al passato.Le decisioni della FDA potrebbero avere qualche conseguenza anche nell’Unione Europea, dove la responsabilità sui farmaci è dell’Agenzia europea per i medicinali e delle agenzie nazionali, come l’Agenzia italiana del farmaco (AIFA) in Italia. Nell’Unione Europea sono venduti vari prodotti decongestionanti che oltre alla fenilefrina comprendono altri principi attivi, come per esempio il paracetamolo o antinfiammatori non steroidei. In alcuni casi queste altre molecole hanno un blando effetto decongestionante, legato alla loro capacità di ridurre l’infiammazione: un minimo risultato c’è, ma non è legato alla fenilefrina.A differenza degli Stati Uniti, nell’Unione Europea sono inoltre reperibili con maggiore facilità i farmaci che contengono pseudoefedrina, la cui capacità decongestionante è nota da tempo. La molecola è presente in numerosi prodotti da banco come Actigrip e Aspirina Influenza e Naso Chiuso in Italia, con chiare indicazioni sui potenziali effetti indesiderati legati alla pseudoefedrina. Nel nostro paese questo tipo di farmaci ha fatto registrare più del doppio delle vendite rispetto a quelli con fenilefrina.In futuro anche la pseudoefedrina potrebbe essere limitata nell’Unione Europea come negli Stati Uniti, ma per motivi diversi. A febbraio di quest’anno, l’EMA ha infatti avviato una revisione in seguito a un piccolo numero di casi in cui l’assunzione di farmaci contenenti la molecola è avvenuta in persone che hanno sofferto di alcune patologie ai vasi sanguigni cerebrali. La valutazione è ancora in corso e richiederà del tempo per analizzare tutti i dati disponibili, le segnalazioni da parte della farmacovigilanza e le conoscenze maturate sulla pseudoefedrina. Al termine del processo, se necessario, la Commissione Europea adotterà nuove regole vincolanti per tutti gli stati membri. La procedura viene svolta per numerosi principi attivi e non sempre porta a nuove regole e limitazioni. LEGGI TUTTO

  • in

    La giusta atmosfera per cercare vita aliena

    Caricamento playerQuando nel luglio del 2022 il James Webb Space Telescope (JWST) – il telescopio spaziale più potente mai realizzato – iniziò a mostrare stelle, galassie e nebulose in grande dettaglio fu immaginato che presto grazie ai suoi strumenti avremmo potuto trovare indizi su mondi lontanissimi da noi che potrebbero ospitare la vita. E in poco più di un anno di attività alcuni dati raccolti dal JWST mostrano in effetti che un pianeta che si trova al di fuori del nostro sistema solare (un “esopianeta”) ha nella propria atmosfera alcuni composti chimici noti per essere legati alla vita, qui sulla Terra.Siamo ancora molto distanti dal poter confermare l’esistenza di forme di vita diverse da quelle terrestri, almeno per come le conosciamo, ma i risultati ottenuti grazie al JWST confermano quanto sia promettente lo studio delle atmosfere degli esopianeti per rispondere alla domanda delle domande: siamo soli nella vastità del cosmo?È una questione che si sono posti pensatori, filosofi, scrittori, poeti e scienziati ben prima che iniziassimo ad avventurarci oltre l’atmosfera terrestre poco meno di 70 anni fa. Dare una risposta si è rivelato molto più complesso del previsto non solo nel caso di mondi così lontani illuminati da stelle la cui luce impiega un’enorme quantità di anni per raggiungerci, ma anche per i pianeti che si trovano nel nostro vicinato cosmico e che possiamo esplorare direttamente con sonde e robot, come Marte. Negli ultimi decenni chi si occupa di astronomia e astrobiologia ha raccolto indizi importanti, a volte convincenti e a volte meno, ma comunque insufficienti per dichiarare con certezza l’esistenza della vita fuori dalla Terra.La scoperta di una grande quantità di sistemi solari oltre al nostro, cioè di stelle con pianeti che orbitano loro intorno, ha permesso di rivedere analisi e modelli sulla probabilità che alcuni di quei mondi ospitino qualche forma di vita. Sono posti troppo distanti per essere raggiunti con le sonde, ma ci sono comunque modi per studiarli e andare alla ricerca di eventuali “firme biologiche”, cioè di sostanze o fenomeni che possono rivelare la presenza della vita. L’eventualità di riuscirci appare oggi molto più probabile di un tempo e per i più ottimisti è solo questione di tempo, e soprattutto di guardare nel punto giusto.K2-18b, l’esopianeta a 124 anni luce da noi osservato dal JWST, è un buon esempio di dove andare a guardare. Si chiama così perché orbita intorno a K2-18, la sua stella di riferimento. I sistemi solari sono tanti e catalogarli tutti con nomi particolari non sarebbe pratico, di conseguenza per convenzione si utilizzano combinazioni di lettere e numeri scelte con alcuni criteri. Uno di questi prevede di nominare i pianeti con il nome della loro stella di riferimento seguito da una lettera dell’alfabeto partendo dalla “b”. L’assegnazione della lettera avviene in ordine cronologico, quindi la “b” indica il primo esopianeta a essere scoperto in un sistema solare, la “c” il secondo e così via. K2-18b è stato quindi il primo esopianeta a essere scoperto in orbita a K2-18.K2-18b in una rappresentazione artistica (NASA)Trovare gli esopianeti non è semplice, ma negli ultimi decenni le possibilità di ricerca sono migliorate grazie ad alcuni telescopi spaziali realizzati per questo scopo, come Kepler della NASA. Non possiamo osservare direttamente questi corpi celesti perché sono troppo distanti da noi, ma possiamo rilevarne (o più correttamente “rivelarne”) la presenza calcolando come varia la luminosità della stella intorno a cui orbitano. Quando le passano davanti, rispetto al nostro punto di osservazione, fanno diminuire temporaneamente la luminosità apparente della stella dandoci un indizio sulla loro presenza. Rilevare questa debolissima oscillazione richiede strumenti molto precisi e messi a debita distanza dai disturbi dovuti all’atmosfera terrestre: per questo i telescopi sono “spaziali”, perché effettuano le loro osservazioni stando direttamente nello Spazio.K2-18b, che ha una massa otto volte quella della Terra, fu scoperto nel 2015 proprio grazie a Kepler e attirò presto l’attenzione di vari gruppi di ricerca per la sua posizione rispetto alla stella K2-18, una “nana rossa” meno luminosa e più fredda del Sole. Questo significa che per essere esposto alla stessa quantità di energia che riceve la Terra, l’esopianeta deve essere più vicino alla sua stella di quanto lo sia il nostro pianeta al Sole.K2-18b si trova infatti a una distanza media di circa 24 milioni di chilometri da K2-18, poco più del 15 per cento della distanza media Terra-Sole. Considerata l’energia prodotta dalla nana rossa, l’esopianeta riceve circa 1,22 kilowatt per metro quadrato, non molto distante dagli 1,36 del nostro pianeta. In altri termini: la stella è poco potente, ma la maggiore vicinanza permette comunque all’esopianeta di ricevere quantità di energia paragonabili alle nostre.Le stime sono derivate dalle conoscenze sulle caratteristiche di K2-18 e della distanza a cui si trova K2-18b, ma sono appunto stime e non possono fornirci informazioni molto più precise. Il calcolo è basato su un pianeta ideale e non tiene in considerazione numerose altre variabili, come per esempio quanto la sua superficie sia riflettente o se ci siano nuvole nella sua atmosfera, che a loro volta potrebbero riflettere una parte della radiazione solare come avviene qui sulla Terra.Distanza e caratteristica della stella ci dicono che K2-18b si trova in una “zona abitabile”, cioè a una distanza tale dalla sua stella da avere una temperatura superficiale media paragonabile a quella terrestre, di conseguenza potenzialmente idonea a ospitare acqua senza che questa sia sempre congelata o che si vaporizzi completamente. Dove c’è acqua sulla Terra c’è quasi sempre vita, di conseguenza l’indicazione di “zona abitabile” riceve sempre grandi attenzioni soprattutto da parte dei media, che rinnovano periodicamente le grandi aspettative sugli annunci legati alla vita aliena. La presenza di acqua è infatti una condizione importante, ma non necessariamente sufficiente per sostenere che su un mondo diverso dal nostro ci siano organismi viventi.Quella creazione di grandi aspettative aveva coinvolto anche K2-18b qualche anno fa. Rimasto un sorvegliato speciale dopo la sua scoperta, nel 2019 l’esopianeta era finito su tutti i giornali in seguito ad alcune osservazioni effettuate con il telescopio spaziale Hubble, che insieme ad altri dati avevano portato a ipotizzare la presenza di vapore acqueo nell’atmosfera del pianeta, un indizio della possibile presenza di acqua sulla sua superficie.Ulteriori studi avrebbero poi portato a indicare K2-18b come un probabile “pianeta hycean”, cioè un pianeta in una zona abitabile ricoperto da un oceano e con un’atmosfera ricca di idrogeno, potenzialmente compatibile con la vita (hycean deriva dalle parole inglesi hydrogen e ocean). La presenza dell’oceano, l’esistenza di un grande strato di ghiaccio superficiale e le ipotesi sulla natura rocciosa del pianeta sono ancora dibattute, proprio a causa della quantità limitata di dati che possiamo raccogliere a così grande distanza.Un telescopio più potente può però aiutarci a capire qualcosa di più ed è quello che sta facendo il James Webb Space Telescope. Grazie ai suoi strumenti è stato possibile raccogliere nuovi dati su K2-18b, che sembrano indicare la presenza di gas a noi familiari, perché presenti nella nostra atmosfera, la cui composizione deriva in buona parte dagli organismi viventi che popolano il pianeta. Oltre all’anidride carbonica e al metano sono stati trovati indizi sulla presenza di dimetil solfuro (DMS), una sostanza organica che è prodotta per lo più dalle alghe marine: è, insieme ad altri composti, ciò che costituisce la salsedine, o più in generale l’odore del mare.Le firme biologiche rivelate dagli strumenti del JWST sono a oggi il più grande indizio su cosa potrebbe accadere su K2-18b a 124 anni luce da noi. La notizia dei nuovi dati è stata comunicata con una certa enfasi dai gruppi di ricerca che se ne sono occupati, ma è bene ricordare che al momento non possiamo sapere quanto siano corrispondenti alla realtà i risultati dei loro studi. L’incertezza dipende dalla tecnica che viene usata per trovare le firme biologiche e che ha sempre a che fare con l’impossibilità di osservare direttamente un mondo così lontano da noi con gli attuali strumenti.Il metodo consiste nello scegliere una fonte luminosa e misurare come cambia la luce quando questa attraversa l’atmosfera dell’esopianeta che le passa davanti. I vari composti atmosferici lasciano passare la luce in modo diverso, assorbendo solo alcune delle sue lunghezze d’onda, e queste differenze possono essere colte dagli spettrografi, speciali strumenti per osservare e analizzare la radiazione elettromagnetica emessa da una determinata sorgente. Potete immaginarli come una versione molto elaborata dei prismi che si usano negli esperimenti a scuola per “scomporre” la luce nei colori dell’arcobaleno. Il JWST è dotato di due spettrografi molto precisi e sensibili, per l’osservazione di sorgenti a grande distanza.(Wikimedia)Immaginate di osservare una lampadina con o senza un foglio di plastica trasparente di mezzo: noterete più o meno la stessa cosa. Aggiungete qualche decina di altri fogli sempre trasparenti, ma di colori diversi: la lampadina continuerà a essere visibile, ma la sua luce apparirà molto diversamente da prima. Ora immaginate di dover partire da quella luce e di dover ricostruire i vari colori dei fogli attraverso cui passa. Su una scala molto diversa, si fa qualcosa di simile con la spettrografia per capire quali sostanze siano presenti nell’atmosfera del pianeta, ma utilizzando una parte della radiazione elettromagnetica che non riusciamo a vedere a occhio nudo. Non è una cosa da poco e i dati lasciano spazio a stime e interpretazioni che possono poi essere smentite con la raccolta di nuove analisi e dati.La rivelazione del DMS, per esempio, è stata effettuata con due sole osservazioni di K2-18b da parte del James Webb Space Telescope, a dimostrazione delle potenzialità del nuovo telescopio. Ulteriori osservazioni potranno consentire di raccogliere nuovi dati e di affinare le analisi su un tipo particolare di pianeti, con caratteristiche diverse dai pianeti rocciosi. Per le loro caratteristiche, i pianeti hycean sono considerati ideali per le osservazioni atmosferiche.Risultato di una ipotetica analisi dello spettro dell’atmosfera di un esopianeta durante il transito davanti alla propria stella di riferimento (NASA)Per quanto ne sappiamo finora, le probabilità che ci sia vita su K2-18b continuano a essere molto basse, anche se l’eventualità non può essere esclusa del tutto. Lo studio delle caratteristiche del pianeta è comunque molto importante per affinare e sviluppare nuove tecniche di ricerca delle firme biologiche. Per vari esopianeti e per alcune lune del nostro sistema solare si ipotizzano condizioni ambientali estreme in cui gli organismi viventi avrebbero poche possibilità di resistere. Al tempo stesso, sulla Terra vengono scoperte spesso nuove specie in grado di sopravvivere a grandi profondità negli oceani, per esempio in prossimità dei getti caldissimi delle sorgenti idrotermali o tra i ghiacci dei Poli. Tra questi ci sono i microrganismi “estremofili”, sui quali si concentrano spesso gli studi di astrobiologia per capire come potrebbero essere fatte forme di vita su altri mondi all’apparenza poco ospitali.Capire come si è fatti è del resto fondamentale per capire gli altri. Qualcosa di analogo vale anche per la Terra e gli altri pianeti. Alla fine degli anni Ottanta, l’astrofisico e divulgatore scientifico statunitense Carl Sagan propose con alcuni colleghi di utilizzare la sonda Galileo della NASA per capire se si potesse rilevare la vita sulla Terra dallo Spazio utilizzando i sensori di una sonda. Galileo era stata progettata per avvicinarsi a Giove e alle sue lune per studiarle, sfruttando la spinta orbitale di altri corpi celesti compresa la Terra compiendo alcuni passaggi ravvicinati. Nel 1993 Sagan pubblicò i risultati del suo lavoro sulla rivista scientifica Nature, elencando ciò che era stato possibile rilevare con la sonda e che in seguito sarebbe diventato noto come i “criteri di Sagan per la vita”.Quella ricerca viene spesso indicata come una delle fondamenta dell’astrobiologia, disciplina che negli ultimi anni ha avuto una rapida evoluzione e che come abbiamo visto con K2-18b offre strumenti e prospettive importanti per la ricerca della vita in altri mondi. Sagan insieme al collega Frank Drake era del resto tra i più convinti sostenitori del “principio di mediocrità”, secondo il quale sulla grande scala dell’Universo non c’è proprio niente di particolare nella Terra e nello sviluppo dell’umanità, perché non c’è nulla che impedisca agli stessi fenomeni che lo hanno reso possibile di verificarsi altrove e in molte altre circostanze nel cosmo. È un principio che si contrappone all’ipotesi della rarità della Terra, secondo cui la vita sul nostro pianeta si è sviluppata grazie a un insieme estremamente improbabile di condizioni e per questo difficilmente replicabile. I due approcci sono discussi da tempo e contrastanti, ma condividono una possibile soluzione: continuare a cercare. LEGGI TUTTO