More stories

  • in

    Le spettacolari orme di dinosauri trovate in una cava in Inghilterra

    Caricamento playerLo scorso giugno in una cava di calcare dell’Oxfordshire, in Inghilterra, sono state trovate circa 200 orme fossili di dinosauri risalenti a 166 milioni di anni fa, quando al posto della cava c’era una laguna poco profonda. Secondo gli scienziati delle università di Oxford e di Birmingham, che si sono occupati degli scavi, le orme furono lasciate da due diversi tipi di dinosauri: il carnivoro Megalosaurus, che aveva una lunghezza di circa 9 metri, e degli erbivori probabilmente appartenenti al genere Cetiosaurus, che erano lunghi il doppio.
    Un’orma di Megalosaurus (Emma Nicholls, Museo di storia naturale dell’Università di Oxford)
    Le orme tracciano cinque piste, la più estesa delle quali è lunga 150 metri. Quattro sono state attribuite a Cetiosaurus, la quinta a un Megalosaurus. Quest’ultima si può attribuire con maggiore certezza perché la forma delle zampe di questo carnivoro è molto riconoscibile: avevano tre dita dotate di artigli, molto visibili nelle orme fossili. «Sembrano quasi la caricatura di un’impronta di dinosauro», ha commentato la paleontologa Emma Nicholls del Museo di storia naturale dell’Università di Oxford parlando con BBC News: «Nel gergo tecnico parliamo di un’orma tridattile».
    Il Megalosaurus è peraltro il primo genere di dinosauri che sia mai stato descritto in modo scientifico, dal paleontologo inglese William Buckland nel 1824, dopo che i primi fossili furono trovati proprio nell’Oxfordshire.
    (Università di Birmingham)
    La scoperta delle orme, annunciata solo il 2 gennaio, è stata fatta da un operaio della cava, Gary Johnson, che aveva notato delle irregolarità nel terreno mentre lavorava con un escavatore per rimuovere uno strato di argilla nella cava. Successivamente per studiare le orme sono state coinvolte più di cento persone tra scienziati, studenti e volontari che hanno riportato alla luce le impronte, ne hanno fatto dei calchi e più di 20mila fotografie, anche utilizzando dei droni.
    Le fotografie sono state usate per realizzare dei modelli in tre dimensioni molto dettagliati delle orme, che potranno essere usati nelle ricerche future su come e quanto velocemente i dinosauri si spostavano. Uno degli aspetti più interessanti di questo ritrovamento specifico è che la pista del Megalosaurus si incrocia con una di quelle dei dinosauri erbivori: è possibile che i due animali che lasciarono le orme in questione avessero interagito in qualche modo.
    Illustrazione di uno scenario ipotetico in cui furono lasciate le orme (© Mark Witton)
    È probabile che nell’area della cava possano esserci altre piste fossili. Nel 1997 ne erano già state trovate in un’altra cava della stessa zona: in quel caso le piste più lunghe arrivavano a 180 metri di lunghezza. Tuttavia il sito in questione non è più accessibile e le fotografie fatte al tempo dello scavo hanno una qualità molto inferiore rispetto a quella che si può ottenere attualmente.
    Non si sa con precisione come mai le orme trovate nella cava quest’estate si siano preservate, ma si possono fare delle ipotesi simili a quelle già fatte per casi simili. Richard Butler, paleobiologo dell’Università di Birmingham, ha spiegato che forse una tempesta fece depositare dei sedimenti sulle tracce delle orme fresche, che così non furono cancellate.
    (Emma Nicholls, Museo di storia naturale dell’Università di Oxford)
    Il ritrovamento di impronte di dinosauri fossilizzate non è così inconsueto e anche in Italia esistono vari siti in cui se ne possono vedere. Anche nella recente scoperta di fossili di 280 milioni di anni fa in Valtellina sono state trovate delle orme di anfibi e rettili: risalgono a un’epoca in cui i dinosauri ancora non c’erano.

    – Leggi anche: È stato scoperto un ricchissimo sito di fossili in Valtellina LEGGI TUTTO

  • in

    La probabilità probabilmente non esiste

    Caricamento playerDavid Spiegelhalter estrae una moneta dalla tasca e prima di lanciarla in aria chiede la probabilità che il risultato sia “testa”, e le persone che lo stanno ad ascoltare rispondono praticamente in coro «50 per cento». Ottenuta la risposta, lancia la moneta, la raccoglie e sbircia velocemente il risultato prima di coprirla e chiedere: qual è adesso la vostra probabilità che sia “testa”? Seppure con qualche esitazione, rispondono tutti «50 per cento», ma la situazione è radicalmente cambiata: da un’incertezza aleatoria su ciò che non si può prevedere si è passati a un’incertezza epistemica, cioè su ciò che non si conosce.
    Spiegelhalter mostra infine il risultato e, per dimostrare che la probabilità è spesso basata su ipotesi soggettive, svela che la sua è una moneta particolare con “testa” su entrambe le facce, a conferma che anche l’assunzione iniziale del pubblico era basata sulla fiducia nei suoi confronti, più che su valutazioni matematiche.
    Da 50 anni, lo statistico inglese David Spiegelhalter (che di anni ne ha 71) studia la probabilità ed è convinto che il modo in cui viene definita sia spesso fallace, lontano dalla sua vera essenza, che ha molto di umano e meno di matematico. Nel corso della sua carriera universitaria, ha insegnato in alcune delle più importanti università del mondo come Cambridge e Berkeley, ma da qualche tempo si dedica con maggiore assiduità alla divulgazione. Ha scritto libri sulla statistica e la probabilità, ha tenuto centinaia di conferenze, ha partecipato a programmi televisivi e nel periodo della pandemia si era fatto notare nel Regno Unito per le sue spiegazioni chiare sulla diffusione del COVID-19 e l’analisi dei rischi legati alla malattia.
    Nelle sue conferenze, Spiegelhalter racconta di avere cambiato il proprio modo di pensare alla probabilità quando lesse i lavori del matematico Frank Plumpton Ramsey e dello statistico italiano Bruno De Finetti. Tra gli anni Venti e Trenta del Novecento avevano entrambi iniziato a sostenere, in maniera indipendente l’uno dall’altro, che in molti casi la probabilità dovesse essere intesa come una misura della fiducia che una persona attribuisce a un certo evento, sulla base delle informazioni di partenza che possiede.
    Il loro lavoro derivava in parte da quello del matematico inglese Thomas Bayes, che già nel XVIII secolo aveva iniziato a interpretare la probabilità come qualcosa riferito a una certa aspettativa razionale o convinzione personale, e non a ciò che ci si può aspettare dalla frequenza con cui solitamente avviene un fenomeno. Ciò vale soprattutto per gli eventi aleatori, dove non c’è possibilità di sapere veramente come si svolgerà un determinato evento fino a quando questo non sarà terminato. In una gara di Formula 1, per esempio, la frequente vittoria sempre dello stesso pilota non permette comunque di determinare la sua probabilità di vittoria nel Gran Premio successivo, perché ogni Gran Premio è diverso.
    De Finetti scriveva che la probabilità non esiste di per sé e che è una costruzione umana. «Ci ho rimuginato sopra per 50 anni e ho deciso che aveva ragione» dice spesso Spiegelhalter, che ha di recente scritto un libro su queste cose e un articolo pubblicato su Nature, una delle riviste scientifiche più famose al mondo.
    L’articolo parte proprio dalle riviste scientifiche e nota come una grande quantità di studi abbia sempre da qualche parte valori P, cioè riferiti alla probabilità che si verifichi un determinato fenomeno: «Tuttavia, sostengo che qualsiasi probabilità numerica – che si tratti di una ricerca scientifica, di una previsione del meteo o di un evento sportivo, o ancora di un rischio legato alla salute – non è una proprietà oggettiva del mondo, ma una costruzione basata su valutazioni e ipotesi (spesso dubbiose) personali o collettive. Inoltre, in molte circostanze, non si sta nemmeno stimando una quantità “reale” sottostante. In effetti, solo raramente si può dire che la probabilità “esista” del tutto».
    Spiegelhalter fa l’esempio del meteo, che di solito contiene previsioni sulla temperatura, sulla velocità del vento e sulla quantità di pioggia, ma spesso anche sulla probabilità che piova in un certo momento in un determinato luogo; il dato è espresso con una percentuale, per esempio: “70 per cento probabilità di pioggia”. Le previsioni su temperatura, vento e quantità di pioggia possono essere confrontate con i veri valori poi registrati, ma quella sulla probabilità di pioggia non può essere confrontata con una vera probabilità: o è piovuto o non è piovuto.
    Nell’articolo Spiegelhalter torna spesso sul suo argomento preferito: per qualsiasi impiego nella pratica della probabilità ci sono di mezzo valutazioni soggettive.
    Ciò non significa che io possa attribuire qualsiasi numero ai miei pensieri: sarei un pessimo valutatore di probabilità se affermassi con il 99,9 per cento di certezza di poter spiccare il volo dal tetto di casa mia, per esempio. Il mondo oggettivo entra in gioco quando le probabilità e i presupposti sottostanti vengono messi alla prova rispetto alla realtà, ma ciò non significa che le probabilità stesse siano oggettive.
    La soggettività può quindi influire fortemente sul modo in cui si fa una valutazione della probabilità. Se posso esaminare una moneta prima di giocare a “testa o croce” per verificare che non sia truccata, e se posso osservare il lancio e la sua caduta su una superficie dura con i vari rimbalzi, sarò più propenso a fare una previsione sul 50 per cento di probabilità sull’esito tra testa e croce. Se invece il lancio viene effettuato da un tipo un po’ losco che non mi fa esaminare la moneta prima e la lancia in un modo strano, divento più diffidente e cambio il mio modo di vedere la probabilità. La stessa cosa avviene per fenomeni con maggiori livelli di complessità, per esempio legati alla valutazione del rischio durante una pandemia.
    Per stessa ammissione di Spiegelhalter ci sono comunque ambiti dove la probabilità assume una connotazione diversa. È per esempio il caso della meccanica quantistica: a livello subatomico eventi senza una determinata causa possono avvenire con probabilità “fisse”, la via principale per poter indagare quei fenomeni. Nella vita di tutti i giorni possono comunque essere trascurati perché sono su un piano decisamente diverso.
    Nel corso del tempo in molti hanno provato a spiegare come funziona la probabilità, confrontandosi con la difficoltà dell’impresa. L’approccio frequentista immagina che cosa accadrebbe ripetendo un esperimento identico infinite volte, ma non è una cosa che si possa fare nel mondo reale per esempio per valutare un test clinico. Il matematico inglese Ronald Fisher propose di pensare a un certo insieme di dati come appartenente a una popolazione ipotetica e infinita, un’altra astrazione lontana dalla concretezza di tutti i giorni. Un altro approccio ancora è quello della “propensione”, secondo cui certi eventi hanno una tendenza naturale a verificarsi in un determinato contesto, come avere un infarto nei prossimi dieci anni, un altro assunto difficile se non impossibile da verificare.
    Spiegelhalter scrive che i casi in cui possiamo calcolare probabilità in modo chiaro e affidabile sono pochi e ben controllati, come i giochi d’azzardo: roulette, carte, dadi, monete lanciate o le palline della lotteria. Anche i computer, con i loro generatori di numeri pseudo-casuali, rientrano in questo ambito: usano algoritmi complessi che sembrano produrre numeri casuali, anche se in realtà seguono regole determinate.
    In natura ci sono alcuni casi di probabilità pseudo-oggettiva (nel comportamento delle molecole dei gas e in alcuni ambiti della genetica), ma per il resto dove si utilizzano le probabilità le cose funzionano diversamente:
    In ogni altra situazione in cui vengono utilizzate le probabilità tuttavia — da vaste aree della scienza allo sport, all’economia, al meteo, al clima, all’analisi del rischio, ai modelli di catastrofi e così via — non ha senso pensare ai nostri giudizi come stime di “vere” probabilità. Queste sono solo situazioni in cui possiamo tentare di esprimere la nostra incertezza personale o collettiva in termini di probabilità, sulla base della nostra conoscenza e del nostro giudizio.
    Nel 1926, Frank Ramsey propose un approccio innovativo: le leggi della probabilità possono essere derivate dalle nostre preferenze nelle scommesse. Scegliamo in base all’utilità attesa, un calcolo che combina il valore che attribuiamo a un risultato (utilità) con la nostra personale stima della sua probabilità (credenza parziale). In pratica, le nostre scelte rivelano le nostre probabilità soggettive. De Finetti formalizzò il concetto attraverso il principio della coerenza: se una persona assegna probabilità incoerenti, può essere messa in una posizione in cui perderà sicuramente una scommessa, indipendentemente dall’esito.
    Spiegelhalter ricorda che forse non ha nemmeno molto senso incaponirsi per decidere se le probabilità oggettive esistano davvero nel mondo (non quantistico) di tutti i giorni, e che si possa invece seguire un approccio pragmatico ispirandosi proprio ai lavori di Ramsey e De Finetti. Se l’ordine in cui osserviamo una serie di eventi non influenza la nostra valutazione sulla probabilità, allora possiamo comportarci come se questi eventi fossero indipendenti e governati da probabilità oggettive, anche se in realtà in questo modo esprimiamo la nostra incertezza soggettiva attraverso una distribuzione di probabilità. Detta in termini più semplici, partendo da convinzioni soggettive, possiamo giustificare l’impiego di strumenti che presuppongono l’esistenza di probabilità oggettive.
    Orientarsi in questa visione della probabilità, che tiene insieme matematica e filosofia, non è semplice e può apparire spiazzante. Non c’è del resto un’unica definizione di probabilità che metta d’accordo tutti, nonostante nei secoli ne siano state proposte in grandi quantità da alcuni dei più importanti matematici e filosofi del loro tempo. Su questo Spiegelhalter mantiene un approccio se non indulgente per lo meno comprensivo: «Le persone trovano la probabilità difficile e poco intuitiva perché è difficile e poco intuitiva. Ed è poco intuitiva perché ce la siamo inventata». Ciò non significa che non sia utile e che non possa aiutarci, se non a comprendere meglio, per lo meno a farci domande sulla realtà: «Nel mondo di tutti i giorni, la probabilità probabilmente non esiste, ma spesso è utile far finta che esista». LEGGI TUTTO

  • in

    Best of bestie

    Da anni ogni weekend sul Post pubblichiamo una raccolta di foto di animali (o “bestie”, come le chiamiamo affettuosamente). La rubrica, il cui scopo è mostrare animali di specie diverse ma anche intrattenere, ha il limite che gli animali mostrati sono solo una piccolissima parte di quelli con cui condividiamo il pianeta: le immagini vengono dalle agenzie fotografiche, i cui fotografi le scattano per lo più negli zoo, in riserve naturali o situazioni di vita quotidiana urbana, e tra questo materiale gli animali non in cattività scarseggiano (da un certo punto di vista anche giustamente, visto che l’attività dei fotografi naturalistici può anche essere una fonte di disturbo per i selvatici). A volte le foto vengono scelte perché sono semplicemente bellissime, in altri casi perché raccontano una storia (come quelle del pinguino arrivato per sbaglio in Australia o dei macachi a Lopburi). Spesso dicono qualcosa di una specie o del contesto in cui vive,  ci insegnano un nome nuovo o una curiosità in più su un pezzo di mondo. Qui trovate la nostra selezione delle migliori dell’anno. LEGGI TUTTO

  • in

    Non ci eravamo mai spinti così vicino al Sole

    Caricamento playerNella notte tra il 24 e il 25 dicembre, la sonda spaziale Parker Solar Probe (PSP) della NASA è diventata la cosa costruita dall’umanità che più si sia avvicinata al Sole. La sonda ha resistito alle forti sollecitazioni e, dopo essersi nuovamente allontanata dal Sole, ha inviato un segnale nelle prime ore del 27 dicembre. Al di là del record, il passaggio ravvicinato è servito per raccogliere dati per studiare come si forma e quali sono le caratteristiche del vento solare, che ha una grande influenza su ciò che accade nel nostro vicinato cosmico.
    Parker Solar Probe si chiama così in onore di Eugene Newman Parker, l’astrofisico statunitense che negli anni Cinquanta fu tra i primi a ipotizzare l’esistenza del vento solare, cioè di un flusso continuo di particelle cariche (soprattutto protoni ed elettroni) che si propaga nello Spazio interplanetario. Parker aveva fatto la propria previsione in un periodo in cui non c’erano ancora satelliti e sonde per confermare l’esistenza del vento solare, confrontandosi con lo scetticismo di molti colleghi che ritenevano improbabile l’esistenza di un flusso di particelle di quel tipo. Parker aveva invece ragione e la sua teoria fu confermata nei primi anni Sessanta, soprattutto grazie ad alcune missioni della NASA come Mariner 2.
    La conferma dell’esistenza del vento solare aprì un nuovo importante ambito di studio e di ricerca per comprendere non solo come funzionano le cose nel Sistema solare, ma anche altrove, considerato che stelle come il Sole sono piuttosto comuni nell’Universo. Il vento solare non può essere osservato direttamente a occhio nudo qui dalla Terra, ma diventa evidente con le aurore, quando le sue particelle interagiscono con il campo magnetico terrestre, che ci protegge proprio dagli effetti dannosi del vento solare.

    Fu in questo contesto che nel 2009 la NASA avviò la progettazione di una sonda per avvicinarsi il più possibile al Sole, in modo da studiare i fenomeni che portano alla produzione di quel flusso di particelle. Il progetto portò alla costruzione di Parker Solar Probe, una sonda con una massa intorno ai 700 chilogrammi che fu lanciata nel 2018 per un lungo viaggio di avvicinamento al Sole. Il percorso era stato infatti studiato per permettere alla sonda di effettuare più passaggi ravvicinati, alla giusta velocità per avere il tempo di raccogliere dati a sufficienza, senza arrostire i propri componenti.
    Nel suo ultimo passaggio ravvicinato, quello del record, la sonda è arrivata a 6,1 milioni di chilometri di distanza dalla superficie solare, pochissimo in termini astronomici se consideriamo che il Sole ha un diametro di 1,4 milioni di chilometri (più di cento volte quello della Terra) e che mediamente è a circa 150 milioni di chilometri dal nostro pianeta. La sonda ha quindi attraversato una porzione della corona, la parte più esterna dell’atmosfera solare nonché una delle sue aree più calde.
    Negli scorsi anni la sonda aveva effettuato altri passaggi ravvicinati superando più volte la soglia dei 14 milioni di chilometri dalla superficie solare. Il record precedente era della sonda Helios 2, che nell’aprile del 1976 aveva raggiunto una distanza di 42,7 milioni di chilometri.
    Per studiare il vento solare è necessario trovarsi al suo interno, come ha spiegato Nicky Fox, che ha lavorato per vario tempo al progetto della NASA, è un po’ come studiare una foresta: non puoi farlo osservandola dall’esterno, devi entrarci e vedere che cosa c’è tra un albero e l’altro. Solo che puoi farlo per pochissimo tempo, perché la foresta sta bruciando. Ed è per questo motivo che PSP è stata progettata per resistere a temperature estreme.
    Parker Solar Probe durante le ultime fasi di preparazione prima del lancio nel 2018 (NASA)
    La sonda è protetta da uno scudo termico, che nell’ultimo passaggio ravvicinato ha resistito a temperature superiori a 1.300 °C. Lo scudo protegge buona parte della sonda, ma non può fare molto per il sensore (una “coppa di Faraday”) collocato nella parte posteriore di PSP e utilizzato per misurare il flusso di elettroni e particelle cariche nel vento solare. Lo strumento è stato realizzato alternando strati di titanio, zirconio e molibdeno, ottenendo una coppa che resiste a temperature ben al di sopra dei 2mila °C. I cavi che alimentano il sistema sono stati realizzati invece in niobio, un metallo con un punto di fusione intorno ai 2.500 °C.
    Il segnale ricevuto dalla sonda il 27 dicembre conferma che i suoi sistemi di comunicazione funzionano ancora dopo il passaggio ravvicinato, ma saranno necessari alcuni giorni prima di ottenere i dati raccolti dalle strumentazioni della sonda. La NASA confida di ricevere maggiori informazioni sulle condizioni di PSP il prossimo primo gennaio e di ottenere in seguito i dati dagli strumenti scientifici, che saranno analizzati qui sulla Terra, ma non da Parker in persona.
    Eugene Parker è morto nel marzo del 2022, pochi mesi dopo l’ingresso della sonda nell’atmosfera solare. A proposito di primati, quando la NASA scelse di chiamarla come lui, Parker divenne la prima persona ancora vivente ad avere intitolata una sonda dell’agenzia spaziale statunitense. LEGGI TUTTO

  • in

    Quando scoprimmo l’animale più longevo di sempre, uccidendolo

    Caricamento playerPochi anni dopo l’arrivo di Cristoforo Colombo nelle Americhe nel 1492, nelle acque intorno all’Islanda nacque una vongola artica, all’apparenza come le altre. Mentre il mondo continuava a cambiare, tra scoperte sensazionali e guerre sanguinarie, quel mollusco continuò a vivere e a svilupparsi per secoli, diventando l’animale più longevo conosciuto. Poco meno di venti anni fa un gruppo di ricerca ebbe il merito di scoprire quella vongola anzianissima, ma ebbe anche la responsabilità di determinarne la fine.
    Tutto era iniziato nell’autunno del 2006 quando alcuni ricercatori della Bangor University (Regno Unito) avevano organizzato una spedizione per lo studio della piattaforma settentrionale islandese, che si estende dalla costa settentrionale dell’Islanda verso l’oceano Atlantico del nord. In molte aree non è particolarmente profonda, qualche centinaio di metri, e la raccolta di campioni dal fondale può essere utile per studiare come sono cambiati gli ecosistemi che ospita, in particolare nella recente fase di riscaldamento globale.
    Con una nave da esplorazione, i ricercatori avevano effettuato il dragaggio di parte del fondale, cioè la rimozione di sedimenti e detriti, per selezionare campioni da analizzare. Le attività avevano portato alla raccolta di vari tipi di molluschi, comprese alcune vongole artiche (Arctica islandica) di particolare interesse, per via delle loro dimensioni e di altre caratteristiche, anche se non si pensava che una di queste di circa 9 centimetri per 7 potesse essere così antica.
    Inizialmente si riteneva che buona parte dei molluschi bivalvi come le vongole raggiungesse al massimo i 100 anni di vita. Verso la fine degli anni Ottanta questa convinzione era stata però messa in crisi da alcuni ricercatori, che avevano sviluppato un sistema per calcolare l’età di questi animali contando gli anelli di accrescimento delle loro conchiglie, un po’ come si fa con gli anelli degli alberi.
    Man mano che i molluschi bivalvi invecchiano diventando più grandi, le conchiglie che li racchiudono si espandono e il segno di questa espansione sono le linee che le attraversano. Fu necessario un po’ di tempo prima che venisse accettato il calcolo degli anni in questo modo, ma è ormai un sistema condiviso in particolare per alcune conchiglie come quelle delle vongole artiche.
    Il conteggio degli anelli non è particolarmente difficile, ma può comunque portare a qualche errore di calcolo. Dopo avere analizzato una delle conchiglie raccolte dalla spedizione in Islanda, il gruppo di ricerca concluse inizialmente che avesse 405 anni e che fosse quindi l’animale vivente più antico mai osservato, anche attraverso analisi per la datazione al radiocarbonio. Nel 2013 la stima fu rivista grazie a un calcolo più accurato degli anelli, in particolare nella zona dove si congiungono le due valve, cioè le parti distinte e pressoché simmetriche della conchiglia. In quel punto gli anelli sono molto più vicini tra loro e distinguerli chiaramente richiede analisi più accurate. Il gruppo di ricerca concluse che la vongola artica fosse ancora più vecchia e avesse 507 anni.
    Caratteristiche di Ming, nella ricerca svolta nel 2006 (Radiocarbon)
    Il mollusco era però già morto nel 2006 proprio a causa delle attività di ricerca. Dopo essere stato prelevato dal fondale, era stato congelato direttamente sulla nave, una pratica che viene seguita spesso per preservare le caratteristiche dei campioni. La morte del mollusco fu confermata in seguito, quando la conchiglia era stata aperta per effettuare la datazione.
    Al momento della scoperta la vongola artica era stata chiamata Ming come la famosa dinastia cinese, che era già al potere quando il mollusco era nato. Il nome non cambiò quando l’età passò da 405 a 507 anni, perché i Ming erano al potere anche considerando la nuova datazione. Ma la conchiglia ha anche un altro nome, forse più appropriato.
    Alcuni dei partecipanti alla spedizione iniziarono a chiamare il mollusco “Hafrún”, dalle parole islandesi “haf” che significa “oceano” e “rún”, cioè mistero. È un nome femminile, anche se il genere del mollusco non fu ricostruito, perché la sua capacità riproduttiva era ormai esaurita.
    Il quadrato sulla mappa indica l’area dell’oceano Atlantico in cui fu trovata Ming (Radiocarbon)
    Al di là del nome, lo studio di questa vongola artica e di altre sue colleghe può essere utile per ricostruire l’andamento dei loro ecosistemi nel corso dei secoli. A seconda della disponibilità di cibo, della temperatura dell’acqua e di altri fattori gli anelli di accrescimento hanno infatti dimensioni diverse, utili per ricostruire particolari periodi storici. Lo studio di Ming potrebbe inoltre offrire spunti per comprendere meglio i processi di invecchiamento negli animali, con potenziali riflessi nella ricerca di nuove soluzioni per lo studio di come invecchiano anche gli esseri umani.
    Prima della scoperta di Ming, l’essere vivente più longevo mai scoperto era un’altra vongola con un’età stimata di 220 anni, trovata lungo la costa del Nord America. Il primato era comunque conteso da un’altra vongola artica trovata al largo dell’Islanda. Ogni anno vengono comunque raccolte migliaia di vongole artiche per uso commerciale, quindi è altamente probabile che qualche peschereccio abbia pescato inconsapevolmente animali ancora più longevi di Ming.
    Stabilire la longevità degli esseri viventi non è comunque semplice e i primati sono comunque dibattuti e contesi. Secondo alcune stime gli organismi viventi più antichi sono alcuni individui di spugne vitree (classe delle Hyalospongiae), che potrebbero avere più di 10mila anni. Datarle non è però semplice e per questo ci si orienta spesso verso specie su cui si possono avere maggiori certezze, vongole comprese. Molte specie altamente longeve sono inoltre clonali, cioè formate da individui che producono nel tempo nuovi individui geneticamente identici che a loro volta ne produrranno altri, e sono quindi una cosa diversa da un singolo individuo per come lo intendiamo di solito. LEGGI TUTTO

  • in

    Weekly Beasts

    Tre delle fotografie di animali scelte questa settimana vengono da un concorso per giovani fotografi organizzato dalla Royal Society for the Prevention of Cruelty to Animals (RSPCA), ente benefico britannico che promuove il benessere degli animali, e che ha compiuto quest’anno duecento anni dalla sua fondazione. L’RSPCA Young Photographer Awards, questo il nome del concorso, è stato vinto dalla quindicenne Anwen Whitehead, che ha fotografato una pulcinella di mare. Ma oltre al premio generale c’erano anche altri riconoscimenti, divisi per fasce d’età dei fotografi o per tema, e abbiamo selezionato anche la fotografia di una volpe e quella di un barbagianni. Poi ci sono un leone marino finito su una spiaggia di Rio de Janeiro, in un periodo dell’anno in cui è insolito che questi animali vengano spinti fin lì dalle correnti oceaniche, il primo piano di una lince pardina e per finire un uistitì che penzola da un ramo mentre mangia una banana. LEGGI TUTTO

  • in

    È iniziato l’inverno

    Caricamento playerAlle 10:20 del 21 dicembre c’è stato il solstizio d’inverno, cioè il momento astronomico nel corso del moto annuale di rivoluzione della Terra che nell’emisfero boreale segna l’inizio della stagione invernale. Nel nostro emisfero il giorno del solstizio d’inverno è quello con meno ore di luce all’anno, mentre quello d’estate è il giorno con più luce.
    Solstizi ed equinozi sono fenomeni astronomici piuttosto semplici da osservare, e per questo molte culture li usano per determinare il susseguirsi delle stagioni. In questa usanza c’è però un certo grado di approssimazione, dato che solstizi ed equinozi dipendono da eventi che prescindono dai nostri calendari. Di conseguenza le stagioni non cambiano sempre lo stesso giorno ma ogni anno, a causa della diversa durata dell’anno solare e di quello del calendario, la data può variare leggermente.
    In Italia di solito la primavera inizia tra il 20 e il 21 marzo, l’estate tra il 20 e il 21 giugno, l’autunno tra il 22 e il 23 settembre e l’inverno tra il 21 e il 22 dicembre. Questa volta l’inverno durerà fino al prossimo 20 marzo, quando ci sarà l’equinozio di primavera.

    I solstizi e gli equinozi dividono il tragitto che la Terra compie attorno al Sole – detto “moto di rivoluzione” – in quattro parti di circa tre mesi ciascuna, ognuna delle quali corrisponde a una stagione. Tradizionalmente misuriamo i giorni in 24 ore e l’anno in 365 giorni, ma in realtà la Terra impiega tempi leggermente diversi a ruotare su se stessa e a compiere la propria orbita attorno al Sole: è proprio per questo che l’ora e il giorno degli equinozi non sono fissi.
    Il solstizio è il momento in cui il Sole raggiunge il punto di declinazione massima o minima nel suo moto lungo l’eclittica, cioè il percorso apparente che il Sole compie in un anno rispetto alla sfera celeste (ovvero il cielo, per come lo vediamo dalla Terra). È un moto “apparente” perché in realtà per il sistema solare è la Terra a girare intorno al Sole, ma muovendoci noi con il pianeta abbiamo l’impressione che a spostarsi nel cielo sia il Sole e non viceversa.
    Il Sole raggiunge il valore massimo di declinazione positiva a giugno (quando iniziano l’estate nel nostro emisfero e l’inverno in quello australe), mentre a dicembre raggiunge il valore massimo di declinazione negativa (segnando l’inizio dell’inverno boreale e dell’estate australe).

    – Leggi anche: L’invenzione dell’inverno

    Oltre alle stagioni astronomiche ci sono quelle meteorologiche, che indicano in modo preciso i periodi in cui si verificano le variazioni climatiche annuali, specialmente alle medie latitudini con climi temperati. Iniziano una ventina di giorni in anticipo rispetto a solstizi ed equinozi, e durano sempre tre mesi. LEGGI TUTTO

  • in

    La Commissione Europea vuole fare concorrenza a Elon Musk

    Caricamento playerNegli ultimi anni il miliardario Elon Musk ha portato in orbita intorno alla Terra oltre 7mila satelliti per offrire Internet dallo Spazio ai privati e ai governi, anche per scopi militari. Il servizio è disponibile in Europa, ma la Commissione Europea vorrebbe farne a meno per le comunicazioni governative e di sicurezza: per questo vuole inviare in orbita alcune centinaia di satelliti su cui avere pieno controllo, senza dipendere dalle società di Musk e dal suo modo talvolta discutibile di fare affari.
    A inizio settimana la Commissione ha annunciato di avere firmato il contratto di assegnazione della gestione di IRIS2 – il nome del progetto satellitare – ad alcune delle più importanti società spaziali europee, per un investimento stimato in 6,5 miliardi di euro, finanziato per circa due terzi dalle istituzioni europee. Il resto del denaro deriverà da investimenti dei privati coinvolti nel consorzio SpaceRISE.
    Nell’iniziativa sono coinvolte Eutelsat, Hispasat e SES, tre importanti aziende responsabili di numerose reti di satelliti, e alcune grandi società specializzate nella produzione dei satelliti e nella gestione di reti di telecomunicazioni come: Thales Alenia Space e Telespazio, che hanno una forte presenza in Italia, e Airbus Defence, Deutsche Telekom, Orange e Hisdesat. Le società saranno responsabili dell’avvio e della gestione di IRIS2 per i prossimi 12 anni con l’obiettivo di avere la costellazione di satelliti in attività entro il 2030.
    Come suggerisce il nome, una costellazione di satelliti è un insieme di satelliti che viene solitamente collocato nell’orbita bassa (al di sotto dei 2mila chilometri di distanza dalla Terra) e che grazie all’alto numero di componenti riesce a coprire buona parte del pianeta con il proprio segnale. I satelliti, più piccoli e meno complessi rispetto a quelli tradizionali per le telecomunicazioni, si mantengono in contatto con i centri di controllo e i ripetitori a terra, e con le antenne di chi utilizza il servizio per esempio per accedere a Internet dove non c’è segnale cellulare o non arrivano i cavi per le normali connessioni. In alcune configurazioni possono anche comunicare tra loro nello Spazio migliorando la copertura e la velocità della connessione.
    La costellazione di satelliti più grande costruita finora in orbita è Starlink di SpaceX, la società spaziale statunitense guidata da Elon Musk che periodicamente trasporta in orbita centinaia di satelliti per rinforzare la propria rete. Starlink offre accesso a Internet ai privati in buona parte del mondo, ma negli ultimi due anni se ne è parlato soprattutto per il suo ruolo nella guerra in Ucraina, dove è stato impiegato dall’esercito ucraino nelle aree dove le reti mobili e fisse sono state distrutte dagli attacchi russi.
    Oltre a Starlink, SpaceX ha da qualche tempo una sorta di progetto parallelo che si chiama Starshield, dedicato allo sviluppo e alla gestione di costellazioni satellitari per scopi militari e di sicurezza nazionale per gli Stati Uniti e i loro alleati. La società non ha mai fornito molte indicazioni su Starshield per via dei vincoli di segretezza imposti dal governo statunitense. In questo contesto, alla fine del 2022 il Consiglio dell’Unione Europea, dove sono rappresentati i governi dei 27 stati membri dell’Unione Europea, aveva annunciato l’avvio di IRIS2 e la scelta di affidarne la realizzazione a un consorzio internazionale, guidato da alcune delle principali aziende spaziali europee.

    IRIS2 prevede di inviare in orbita 290 satelliti nel corso dei prossimi anni, una quantità di un ordine di grandezza inferiore rispetto alla costellazione di Starlink e ad altre in fase di progettazione e sviluppo. I satelliti impiegati saranno comunque sufficienti per offrire la copertura necessaria sia per gli scopi di sicurezza e militari sia per offrire ai privati connessioni ad alta velocità, in aree dove non c’è copertura mobile o non arriva la fibra ottica. I satelliti saranno collocati sia nell’orbita bassa sia in quella media, quindi al di sopra dei 2mila chilometri di quota.
    I satelliti di IRIS2 saranno trasportati in orbita da razzi europei, come il sistema di lancio Ariane 6 attualmente alle ultime fasi di test. Data la quantità di lanci necessari non è comunque escluso che il consorzio decida di affidarne alcuni a SpaceX, che solo quest’anno ha effettuato più di cento lanci verso l’orbita terrestre. In questo caso SpaceX avrebbe comunque solo il compito di trasportare il carico, senza un coinvolgimento nella gestione della costellazione.
    Secondo diversi osservatori IRIS2 potrebbe contribuire a stimolare ulteriormente l’economia spaziale in Europa, che continua a espandersi, per quanto a ritmi diversi da quella statunitense. Il problema più importante rimangono le limitate possibilità di accesso in orbita rispetto agli Stati Uniti, che oltre a SpaceX potranno presto contare anche su Blue Origin, l’azienda spaziale di Jeff Bezos che sta per sperimentare un nuovo sistema di lancio per grandi carichi verso e oltre l’orbita terrestre. LEGGI TUTTO