More stories

  • in

    Il 2024 è stato l’anno più caldo mai registrato

    Il 2024 è stato l’anno più caldo mai registrato e ha comportato un superamento della soglia di 1,5 °C in più della temperatura media globale rispetto al periodo pre-industriale, il limite più importante deciso dall’accordo di Parigi sul clima. I due record sono stati confermati da Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa di osservazione della Terra, e dalle principali agenzie del Regno Unito e del Giappone che effettuano analisi del clima. Nei mesi scorsi diversi osservatori e l’Organizzazione meteorologica mondiale delle Nazioni Unite avevano anticipato che con ogni probabilità il 2024 sarebbe stato l’anno più caldo, superando il precedente record fissato appena nel 2023.Copernicus ha calcolato un aumento della temperatura media globale per il 2024 di 1,6 °C, l’Agenzia meteorologica del Giappone di 1,57 °C e il Met Office britannico di 1,53 °C. La lieve differenza è dovuta ai set di dati e alle metodologie impiegate nel calcolo delle rilevazioni, ma è ampiamente entro il margine di errore per questo tipo di analisi. Entro la fine della settimana saranno diffusi anche i rapporti della NASA e della National Oceanic and Atmospheric Administration, le due principali agenzie statunitensi che si occupano di analizzare l’andamento del clima, e ci si attendono valori analoghi.
    Il superamento della soglia di 1,5 °C era dato per scontato da diverso tempo, anche in considerazione dei dati sulla scorsa estate, che era già risultata la più calda mai registrata. Il riferimento per valutare l’andamento della temperatura media globale sono gli ultimi decenni dell’Ottocento, quando i livelli di industrializzazione erano bassi e di conseguenza l’immissione nell’atmosfera di grandi quantità di anidride carbonica (il principale gas serra) derivante dalle attività umane era scarso. I responsabili di Copernicus e delle altre agenzie hanno ricordato che la principale causa dell’aumento della temperatura media globale è proprio l’accumulo di gas serra, dovuto soprattutto all’utilizzo dei combustibili fossili.
    (Copernicus)
    Secondo i dati di Copernicus, il 2024 è stato di 0,12 °C più caldo rispetto al 2023 ed è stato di 0,72 °C più caldo rispetto alla media del periodo 1991-2020. Tutti i mesi da gennaio a giugno del 2024 sono stati più caldi degli stessi mesi negli anni precedenti, da quando si raccolgono questi dati. Agosto è stato pressoché caldo come agosto 2023 e i restanti mesi del 2024 sono stati i secondi più caldi rispetto ai corrispondenti del 2023. Nel complesso, gli ultimi 10 anni sono stati i più caldi mai registrati.
    (Copernicus)
    Oltre alle emissioni dovute al consumo di combustibili fossili, sull’aumento della temperatura media globale hanno anche inciso gli effetti del Niño, l’insieme di fenomeni atmosferici che si verifica periodicamente nell’oceano Pacifico e che influenza il clima di gran parte del pianeta, portando tra le altre cose a un aumento della temperatura e a una riduzione delle precipitazioni. El Niño aveva interessato soprattutto il 2023, ma alcuni suoi effetti residui hanno influenzato parte del 2024. Per contro, la grande produzione di particolato (polveri e gas in sospensione nell’aria) dovuta all’enorme eruzione sottomarina del vulcano Tonga-Hunga Ha’apai nel gennaio del 2020 ha in parte riflesso i raggi solari, riducendo il calore.
    Lo scorso giugno l’Organizzazione meteorologica mondiale aveva stimato che almeno un anno tra il 2024 e il 2028 avrebbe superato il limite degli 1,5 °C, segnalando che in quel periodo un singolo anno potrebbe raggiungere un aumento di 1,9 °C rispetto ai livelli del 1850-1900. Il rapporto indicava anche una probabilità del 47 per cento che la media di cinque anni superi la soglia di 1,5 °C.
    Il superamento temporaneo della soglia di 1,5 °C non implica che l’accordo di Parigi non abbia più senso di esistere. Il documento su cui si sono messi d’accordo praticamente tutti i governi del mondo è riferito al decennio in corso e ha come obiettivo di arrivare al 2030 con una media dell’aumento di temperatura che non superi quella soglia. Con gli attuali andamenti è però molto probabile che entro il 2030 venga mancato l’obiettivo.
    Il superamento della soglia non significa che i danni saranno immediati o universali, ma che aumenterà la probabilità di avere eventi atmosferici estremi, più costosi da affrontare e a cui adattarsi. Ondate di calore, uragani, inondazioni e siccità diventeranno ancora più frequenti e intensi, con maggiori rischi per la diffusione di malattie e un aumento dei flussi di persone legati alle migrazioni climatiche. La fusione delle calotte glaciali in Groenlandia e Antartide subirebbe un’ulteriore accelerazione; è stato inoltre stimato che ecosistemi vulnerabili come le barriere coralline, che già subiscono gravi danni, potrebbero scomparire del tutto, mentre alcune specie potrebbero non adattarsi rapidamente, portando a estinzioni locali o a livello globale. LEGGI TUTTO

  • in

    Formiche VS umani

    Caricamento playerGli esseri umani e le formiche hanno diverse cose in comune, anche se non è forse la prima cosa che viene in mente quando pensiamo alla nostra specie. Come gli esseri umani, le formiche sono animali sociali, comunicano costantemente tra loro e hanno una certa abilità a spostare oggetti di grandi dimensioni cooperando. E proprio quest’ultima caratteristica ha ispirato un gruppo di ricerca dell’Istituto Weizmann per le Scienze in Israele, per capire quali livelli di efficienza si possono raggiungere attraverso la collaborazione.
    Come racconta in uno studio da poco pubblicato sulla rivista scientifica PNAS, il gruppo di ricerca si è chiesto chi sia più abile nel muovere e nello spostare un oggetto di grandi dimensioni, tali da rendere difficoltoso il suo trasferimento attraverso stretti passaggi. Sono meglio le formiche o gli esseri umani, e c’è una qualche differenza nel caso in cui lavorino da soli o in gruppi?
    Il test principale dell’esperimento è stato sviluppato sulla falsa riga del “rompicapo dei traslocatori di pianoforte”, un problema usato spesso nell’ambito della robotica che consiste nello spostare un oggetto ingombrante e con una forma elaborata attraverso un ambiente complesso. Il test serve per valutare le capacità e le possibilità di risoluzione del problema da parte del sistema, in simulazioni al computer o reali.
    Al posto del pianoforte, il gruppo di ricerca ha realizzato un oggetto a forma di “T”, che doveva essere spostato attraverso tre ambienti separati da due pareti. Su ciascuna di queste c’era un’apertura che consentiva il passaggio della T di misura e solo dopo alcune manovre, escludendo quelle per far passare l’oggetto di taglio mettendolo in verticale. Sviluppato il test, il gruppo di ricerca aveva poi realizzato versioni in scala per gli esseri umani e le formiche, in modo da mantenere le giuste proporzioni.
    (PNAS)
    Gli umani sono stati selezionati con un classico reclutamento di volontari per partecipare a un esperimento scientifico, mentre le formiche hanno aderito all’iniziativa loro malgrado con l’illusione di poter portare una T edibile nel loro formicaio, per consumarla in un secondo tempo (altrimenti l’avrebbero ignorata). Per l’esperimento sono state selezionate formiche appartenenti alla specie Paratrechina longicornis, chiamate colloquialmente “formiche pazze” per la loro tendenza a correre in giro di continuo, solo all’apparenza senza uno scopo. Sono formiche piuttosto comuni, di colore scuro e lunghe in media circa 3 millimetri, ma con una grande capacità di sollevare pesi, un tratto molto comune per questi insetti.
    Il gruppo di ricerca ha organizzato tre diversi tipi di test cercando di mantenere un certo equilibrio tra le due specie partecipanti. In una prima prova, la forma a T doveva essere spostata individualmente, nella seconda da un gruppo di sette formiche o di 6-9 persone e nella terza da un gruppo più grande: 80 formiche contro 26 persone (le dimensioni delle T variavano a seconda delle prove).
    Per rendere ancora più equo il confronto, in alcuni casi il gruppo di ricerca aveva chiesto ai volontari di non parlare tra loro mentre effettuavano il test, indossando inoltre una mascherina chirurgica e degli occhiali da sole per ridurre la comunicazione non verbale. Le formiche, del resto, non parlano tra loro, ma comunicano per lo più disseminando segnali chimici sotto forma di tracce di particolari sostanze (feromoni) che percepiscono con le loro antenne.
    Come prevedibile, nel test individuale gli umani hanno mostrato di avere maggiori capacità di pianificazione e di comprensione degli ostacoli da superare, per far passare la T attraverso i tre ambienti. Nei test di gruppo le cose sono andate invece diversamente: le formiche si sono comportate meglio che nelle prove individuali e in alcuni casi hanno ottenuto risultati migliori rispetto agli umani. Nel test di gruppo con il maggior numero di individui le formiche hanno dato il meglio, mostrando la capacità di sfruttare una sorta di memoria collettiva per tenere traccia delle manovre già effettuate e di quelle più promettenti per superare gli ostacoli.

    Gli umani si sono invece rivelati meno efficienti nei test di gruppo, soprattutto nel caso di restrizioni applicate per rendere l’esperimento il più simile possibile alle condizioni in cui veniva svolto anche dalle formiche. Il gruppo di ricerca ha notato che i partecipanti tendevano a privilegiare scelte che nel breve periodo apparivano più remunerative, anche se non lo erano poi nel lungo periodo per ottenere il risultato finale con l’arrivo nel terzo ambiente.
    Ofer Feinerman, il coordinatore della ricerca, ha raccontato che: «Una colonia di formiche è in effetti una famiglia. Tutte le formiche del nido sono sorelle e hanno interessi comuni. È una società a maglie strette dove la cooperazione supera di gran lunga la competizione».
    Lo studio porta ulteriori conferme a quanto osservato in precedenza, e cioè che le formiche si rivelano più intelligenti quando agiscono in gruppo, mentre questo non è necessariamente vero per gli esseri umani. Oltre a permettere di scoprire particolari del comportamento animale, studi di questo tipo possono essere utili per approfondire le conoscenze sulle dinamiche dei gruppi, ma anche per elaborare nuovi modelli computazionali per la risoluzione di problemi complessi. LEGGI TUTTO

  • in

    Le spettacolari orme di dinosauri trovate in una cava in Inghilterra

    Caricamento playerLo scorso giugno in una cava di calcare dell’Oxfordshire, in Inghilterra, sono state trovate circa 200 orme fossili di dinosauri risalenti a 166 milioni di anni fa, quando al posto della cava c’era una laguna poco profonda. Secondo gli scienziati delle università di Oxford e di Birmingham, che si sono occupati degli scavi, le orme furono lasciate da due diversi tipi di dinosauri: il carnivoro Megalosaurus, che aveva una lunghezza di circa 9 metri, e degli erbivori probabilmente appartenenti al genere Cetiosaurus, che erano lunghi il doppio.
    Un’orma di Megalosaurus (Emma Nicholls, Museo di storia naturale dell’Università di Oxford)
    Le orme tracciano cinque piste, la più estesa delle quali è lunga 150 metri. Quattro sono state attribuite a Cetiosaurus, la quinta a un Megalosaurus. Quest’ultima si può attribuire con maggiore certezza perché la forma delle zampe di questo carnivoro è molto riconoscibile: avevano tre dita dotate di artigli, molto visibili nelle orme fossili. «Sembrano quasi la caricatura di un’impronta di dinosauro», ha commentato la paleontologa Emma Nicholls del Museo di storia naturale dell’Università di Oxford parlando con BBC News: «Nel gergo tecnico parliamo di un’orma tridattile».
    Il Megalosaurus è peraltro il primo genere di dinosauri che sia mai stato descritto in modo scientifico, dal paleontologo inglese William Buckland nel 1824, dopo che i primi fossili furono trovati proprio nell’Oxfordshire.
    (Università di Birmingham)
    La scoperta delle orme, annunciata solo il 2 gennaio, è stata fatta da un operaio della cava, Gary Johnson, che aveva notato delle irregolarità nel terreno mentre lavorava con un escavatore per rimuovere uno strato di argilla nella cava. Successivamente per studiare le orme sono state coinvolte più di cento persone tra scienziati, studenti e volontari che hanno riportato alla luce le impronte, ne hanno fatto dei calchi e più di 20mila fotografie, anche utilizzando dei droni.
    Le fotografie sono state usate per realizzare dei modelli in tre dimensioni molto dettagliati delle orme, che potranno essere usati nelle ricerche future su come e quanto velocemente i dinosauri si spostavano. Uno degli aspetti più interessanti di questo ritrovamento specifico è che la pista del Megalosaurus si incrocia con una di quelle dei dinosauri erbivori: è possibile che i due animali che lasciarono le orme in questione avessero interagito in qualche modo.
    Illustrazione di uno scenario ipotetico in cui furono lasciate le orme (© Mark Witton)
    È probabile che nell’area della cava possano esserci altre piste fossili. Nel 1997 ne erano già state trovate in un’altra cava della stessa zona: in quel caso le piste più lunghe arrivavano a 180 metri di lunghezza. Tuttavia il sito in questione non è più accessibile e le fotografie fatte al tempo dello scavo hanno una qualità molto inferiore rispetto a quella che si può ottenere attualmente.
    Non si sa con precisione come mai le orme trovate nella cava quest’estate si siano preservate, ma si possono fare delle ipotesi simili a quelle già fatte per casi simili. Richard Butler, paleobiologo dell’Università di Birmingham, ha spiegato che forse una tempesta fece depositare dei sedimenti sulle tracce delle orme fresche, che così non furono cancellate.
    (Emma Nicholls, Museo di storia naturale dell’Università di Oxford)
    Il ritrovamento di impronte di dinosauri fossilizzate non è così inconsueto e anche in Italia esistono vari siti in cui se ne possono vedere. Anche nella recente scoperta di fossili di 280 milioni di anni fa in Valtellina sono state trovate delle orme di anfibi e rettili: risalgono a un’epoca in cui i dinosauri ancora non c’erano.

    – Leggi anche: È stato scoperto un ricchissimo sito di fossili in Valtellina LEGGI TUTTO

  • in

    La probabilità probabilmente non esiste

    Caricamento playerDavid Spiegelhalter estrae una moneta dalla tasca e prima di lanciarla in aria chiede la probabilità che il risultato sia “testa”, e le persone che lo stanno ad ascoltare rispondono praticamente in coro «50 per cento». Ottenuta la risposta, lancia la moneta, la raccoglie e sbircia velocemente il risultato prima di coprirla e chiedere: qual è adesso la vostra probabilità che sia “testa”? Seppure con qualche esitazione, rispondono tutti «50 per cento», ma la situazione è radicalmente cambiata: da un’incertezza aleatoria su ciò che non si può prevedere si è passati a un’incertezza epistemica, cioè su ciò che non si conosce.
    Spiegelhalter mostra infine il risultato e, per dimostrare che la probabilità è spesso basata su ipotesi soggettive, svela che la sua è una moneta particolare con “testa” su entrambe le facce, a conferma che anche l’assunzione iniziale del pubblico era basata sulla fiducia nei suoi confronti, più che su valutazioni matematiche.
    Da 50 anni, lo statistico inglese David Spiegelhalter (che di anni ne ha 71) studia la probabilità ed è convinto che il modo in cui viene definita sia spesso fallace, lontano dalla sua vera essenza, che ha molto di umano e meno di matematico. Nel corso della sua carriera universitaria, ha insegnato in alcune delle più importanti università del mondo come Cambridge e Berkeley, ma da qualche tempo si dedica con maggiore assiduità alla divulgazione. Ha scritto libri sulla statistica e la probabilità, ha tenuto centinaia di conferenze, ha partecipato a programmi televisivi e nel periodo della pandemia si era fatto notare nel Regno Unito per le sue spiegazioni chiare sulla diffusione del COVID-19 e l’analisi dei rischi legati alla malattia.
    Nelle sue conferenze, Spiegelhalter racconta di avere cambiato il proprio modo di pensare alla probabilità quando lesse i lavori del matematico Frank Plumpton Ramsey e dello statistico italiano Bruno De Finetti. Tra gli anni Venti e Trenta del Novecento avevano entrambi iniziato a sostenere, in maniera indipendente l’uno dall’altro, che in molti casi la probabilità dovesse essere intesa come una misura della fiducia che una persona attribuisce a un certo evento, sulla base delle informazioni di partenza che possiede.
    Il loro lavoro derivava in parte da quello del matematico inglese Thomas Bayes, che già nel XVIII secolo aveva iniziato a interpretare la probabilità come qualcosa riferito a una certa aspettativa razionale o convinzione personale, e non a ciò che ci si può aspettare dalla frequenza con cui solitamente avviene un fenomeno. Ciò vale soprattutto per gli eventi aleatori, dove non c’è possibilità di sapere veramente come si svolgerà un determinato evento fino a quando questo non sarà terminato. In una gara di Formula 1, per esempio, la frequente vittoria sempre dello stesso pilota non permette comunque di determinare la sua probabilità di vittoria nel Gran Premio successivo, perché ogni Gran Premio è diverso.
    De Finetti scriveva che la probabilità non esiste di per sé e che è una costruzione umana. «Ci ho rimuginato sopra per 50 anni e ho deciso che aveva ragione» dice spesso Spiegelhalter, che ha di recente scritto un libro su queste cose e un articolo pubblicato su Nature, una delle riviste scientifiche più famose al mondo.
    L’articolo parte proprio dalle riviste scientifiche e nota come una grande quantità di studi abbia sempre da qualche parte valori P, cioè riferiti alla probabilità che si verifichi un determinato fenomeno: «Tuttavia, sostengo che qualsiasi probabilità numerica – che si tratti di una ricerca scientifica, di una previsione del meteo o di un evento sportivo, o ancora di un rischio legato alla salute – non è una proprietà oggettiva del mondo, ma una costruzione basata su valutazioni e ipotesi (spesso dubbiose) personali o collettive. Inoltre, in molte circostanze, non si sta nemmeno stimando una quantità “reale” sottostante. In effetti, solo raramente si può dire che la probabilità “esista” del tutto».
    Spiegelhalter fa l’esempio del meteo, che di solito contiene previsioni sulla temperatura, sulla velocità del vento e sulla quantità di pioggia, ma spesso anche sulla probabilità che piova in un certo momento in un determinato luogo; il dato è espresso con una percentuale, per esempio: “70 per cento probabilità di pioggia”. Le previsioni su temperatura, vento e quantità di pioggia possono essere confrontate con i veri valori poi registrati, ma quella sulla probabilità di pioggia non può essere confrontata con una vera probabilità: o è piovuto o non è piovuto.
    Nell’articolo Spiegelhalter torna spesso sul suo argomento preferito: per qualsiasi impiego nella pratica della probabilità ci sono di mezzo valutazioni soggettive.
    Ciò non significa che io possa attribuire qualsiasi numero ai miei pensieri: sarei un pessimo valutatore di probabilità se affermassi con il 99,9 per cento di certezza di poter spiccare il volo dal tetto di casa mia, per esempio. Il mondo oggettivo entra in gioco quando le probabilità e i presupposti sottostanti vengono messi alla prova rispetto alla realtà, ma ciò non significa che le probabilità stesse siano oggettive.
    La soggettività può quindi influire fortemente sul modo in cui si fa una valutazione della probabilità. Se posso esaminare una moneta prima di giocare a “testa o croce” per verificare che non sia truccata, e se posso osservare il lancio e la sua caduta su una superficie dura con i vari rimbalzi, sarò più propenso a fare una previsione sul 50 per cento di probabilità sull’esito tra testa e croce. Se invece il lancio viene effettuato da un tipo un po’ losco che non mi fa esaminare la moneta prima e la lancia in un modo strano, divento più diffidente e cambio il mio modo di vedere la probabilità. La stessa cosa avviene per fenomeni con maggiori livelli di complessità, per esempio legati alla valutazione del rischio durante una pandemia.
    Per stessa ammissione di Spiegelhalter ci sono comunque ambiti dove la probabilità assume una connotazione diversa. È per esempio il caso della meccanica quantistica: a livello subatomico eventi senza una determinata causa possono avvenire con probabilità “fisse”, la via principale per poter indagare quei fenomeni. Nella vita di tutti i giorni possono comunque essere trascurati perché sono su un piano decisamente diverso.
    Nel corso del tempo in molti hanno provato a spiegare come funziona la probabilità, confrontandosi con la difficoltà dell’impresa. L’approccio frequentista immagina che cosa accadrebbe ripetendo un esperimento identico infinite volte, ma non è una cosa che si possa fare nel mondo reale per esempio per valutare un test clinico. Il matematico inglese Ronald Fisher propose di pensare a un certo insieme di dati come appartenente a una popolazione ipotetica e infinita, un’altra astrazione lontana dalla concretezza di tutti i giorni. Un altro approccio ancora è quello della “propensione”, secondo cui certi eventi hanno una tendenza naturale a verificarsi in un determinato contesto, come avere un infarto nei prossimi dieci anni, un altro assunto difficile se non impossibile da verificare.
    Spiegelhalter scrive che i casi in cui possiamo calcolare probabilità in modo chiaro e affidabile sono pochi e ben controllati, come i giochi d’azzardo: roulette, carte, dadi, monete lanciate o le palline della lotteria. Anche i computer, con i loro generatori di numeri pseudo-casuali, rientrano in questo ambito: usano algoritmi complessi che sembrano produrre numeri casuali, anche se in realtà seguono regole determinate.
    In natura ci sono alcuni casi di probabilità pseudo-oggettiva (nel comportamento delle molecole dei gas e in alcuni ambiti della genetica), ma per il resto dove si utilizzano le probabilità le cose funzionano diversamente:
    In ogni altra situazione in cui vengono utilizzate le probabilità tuttavia — da vaste aree della scienza allo sport, all’economia, al meteo, al clima, all’analisi del rischio, ai modelli di catastrofi e così via — non ha senso pensare ai nostri giudizi come stime di “vere” probabilità. Queste sono solo situazioni in cui possiamo tentare di esprimere la nostra incertezza personale o collettiva in termini di probabilità, sulla base della nostra conoscenza e del nostro giudizio.
    Nel 1926, Frank Ramsey propose un approccio innovativo: le leggi della probabilità possono essere derivate dalle nostre preferenze nelle scommesse. Scegliamo in base all’utilità attesa, un calcolo che combina il valore che attribuiamo a un risultato (utilità) con la nostra personale stima della sua probabilità (credenza parziale). In pratica, le nostre scelte rivelano le nostre probabilità soggettive. De Finetti formalizzò il concetto attraverso il principio della coerenza: se una persona assegna probabilità incoerenti, può essere messa in una posizione in cui perderà sicuramente una scommessa, indipendentemente dall’esito.
    Spiegelhalter ricorda che forse non ha nemmeno molto senso incaponirsi per decidere se le probabilità oggettive esistano davvero nel mondo (non quantistico) di tutti i giorni, e che si possa invece seguire un approccio pragmatico ispirandosi proprio ai lavori di Ramsey e De Finetti. Se l’ordine in cui osserviamo una serie di eventi non influenza la nostra valutazione sulla probabilità, allora possiamo comportarci come se questi eventi fossero indipendenti e governati da probabilità oggettive, anche se in realtà in questo modo esprimiamo la nostra incertezza soggettiva attraverso una distribuzione di probabilità. Detta in termini più semplici, partendo da convinzioni soggettive, possiamo giustificare l’impiego di strumenti che presuppongono l’esistenza di probabilità oggettive.
    Orientarsi in questa visione della probabilità, che tiene insieme matematica e filosofia, non è semplice e può apparire spiazzante. Non c’è del resto un’unica definizione di probabilità che metta d’accordo tutti, nonostante nei secoli ne siano state proposte in grandi quantità da alcuni dei più importanti matematici e filosofi del loro tempo. Su questo Spiegelhalter mantiene un approccio se non indulgente per lo meno comprensivo: «Le persone trovano la probabilità difficile e poco intuitiva perché è difficile e poco intuitiva. Ed è poco intuitiva perché ce la siamo inventata». Ciò non significa che non sia utile e che non possa aiutarci, se non a comprendere meglio, per lo meno a farci domande sulla realtà: «Nel mondo di tutti i giorni, la probabilità probabilmente non esiste, ma spesso è utile far finta che esista». LEGGI TUTTO

  • in

    Best of bestie

    Da anni ogni weekend sul Post pubblichiamo una raccolta di foto di animali (o “bestie”, come le chiamiamo affettuosamente). La rubrica, il cui scopo è mostrare animali di specie diverse ma anche intrattenere, ha il limite che gli animali mostrati sono solo una piccolissima parte di quelli con cui condividiamo il pianeta: le immagini vengono dalle agenzie fotografiche, i cui fotografi le scattano per lo più negli zoo, in riserve naturali o situazioni di vita quotidiana urbana, e tra questo materiale gli animali non in cattività scarseggiano (da un certo punto di vista anche giustamente, visto che l’attività dei fotografi naturalistici può anche essere una fonte di disturbo per i selvatici). A volte le foto vengono scelte perché sono semplicemente bellissime, in altri casi perché raccontano una storia (come quelle del pinguino arrivato per sbaglio in Australia o dei macachi a Lopburi). Spesso dicono qualcosa di una specie o del contesto in cui vive,  ci insegnano un nome nuovo o una curiosità in più su un pezzo di mondo. Qui trovate la nostra selezione delle migliori dell’anno. LEGGI TUTTO

  • in

    Non ci eravamo mai spinti così vicino al Sole

    Caricamento playerNella notte tra il 24 e il 25 dicembre, la sonda spaziale Parker Solar Probe (PSP) della NASA è diventata la cosa costruita dall’umanità che più si sia avvicinata al Sole. La sonda ha resistito alle forti sollecitazioni e, dopo essersi nuovamente allontanata dal Sole, ha inviato un segnale nelle prime ore del 27 dicembre. Al di là del record, il passaggio ravvicinato è servito per raccogliere dati per studiare come si forma e quali sono le caratteristiche del vento solare, che ha una grande influenza su ciò che accade nel nostro vicinato cosmico.
    Parker Solar Probe si chiama così in onore di Eugene Newman Parker, l’astrofisico statunitense che negli anni Cinquanta fu tra i primi a ipotizzare l’esistenza del vento solare, cioè di un flusso continuo di particelle cariche (soprattutto protoni ed elettroni) che si propaga nello Spazio interplanetario. Parker aveva fatto la propria previsione in un periodo in cui non c’erano ancora satelliti e sonde per confermare l’esistenza del vento solare, confrontandosi con lo scetticismo di molti colleghi che ritenevano improbabile l’esistenza di un flusso di particelle di quel tipo. Parker aveva invece ragione e la sua teoria fu confermata nei primi anni Sessanta, soprattutto grazie ad alcune missioni della NASA come Mariner 2.
    La conferma dell’esistenza del vento solare aprì un nuovo importante ambito di studio e di ricerca per comprendere non solo come funzionano le cose nel Sistema solare, ma anche altrove, considerato che stelle come il Sole sono piuttosto comuni nell’Universo. Il vento solare non può essere osservato direttamente a occhio nudo qui dalla Terra, ma diventa evidente con le aurore, quando le sue particelle interagiscono con il campo magnetico terrestre, che ci protegge proprio dagli effetti dannosi del vento solare.

    Fu in questo contesto che nel 2009 la NASA avviò la progettazione di una sonda per avvicinarsi il più possibile al Sole, in modo da studiare i fenomeni che portano alla produzione di quel flusso di particelle. Il progetto portò alla costruzione di Parker Solar Probe, una sonda con una massa intorno ai 700 chilogrammi che fu lanciata nel 2018 per un lungo viaggio di avvicinamento al Sole. Il percorso era stato infatti studiato per permettere alla sonda di effettuare più passaggi ravvicinati, alla giusta velocità per avere il tempo di raccogliere dati a sufficienza, senza arrostire i propri componenti.
    Nel suo ultimo passaggio ravvicinato, quello del record, la sonda è arrivata a 6,1 milioni di chilometri di distanza dalla superficie solare, pochissimo in termini astronomici se consideriamo che il Sole ha un diametro di 1,4 milioni di chilometri (più di cento volte quello della Terra) e che mediamente è a circa 150 milioni di chilometri dal nostro pianeta. La sonda ha quindi attraversato una porzione della corona, la parte più esterna dell’atmosfera solare nonché una delle sue aree più calde.
    Negli scorsi anni la sonda aveva effettuato altri passaggi ravvicinati superando più volte la soglia dei 14 milioni di chilometri dalla superficie solare. Il record precedente era della sonda Helios 2, che nell’aprile del 1976 aveva raggiunto una distanza di 42,7 milioni di chilometri.
    Per studiare il vento solare è necessario trovarsi al suo interno, come ha spiegato Nicky Fox, che ha lavorato per vario tempo al progetto della NASA, è un po’ come studiare una foresta: non puoi farlo osservandola dall’esterno, devi entrarci e vedere che cosa c’è tra un albero e l’altro. Solo che puoi farlo per pochissimo tempo, perché la foresta sta bruciando. Ed è per questo motivo che PSP è stata progettata per resistere a temperature estreme.
    Parker Solar Probe durante le ultime fasi di preparazione prima del lancio nel 2018 (NASA)
    La sonda è protetta da uno scudo termico, che nell’ultimo passaggio ravvicinato ha resistito a temperature superiori a 1.300 °C. Lo scudo protegge buona parte della sonda, ma non può fare molto per il sensore (una “coppa di Faraday”) collocato nella parte posteriore di PSP e utilizzato per misurare il flusso di elettroni e particelle cariche nel vento solare. Lo strumento è stato realizzato alternando strati di titanio, zirconio e molibdeno, ottenendo una coppa che resiste a temperature ben al di sopra dei 2mila °C. I cavi che alimentano il sistema sono stati realizzati invece in niobio, un metallo con un punto di fusione intorno ai 2.500 °C.
    Il segnale ricevuto dalla sonda il 27 dicembre conferma che i suoi sistemi di comunicazione funzionano ancora dopo il passaggio ravvicinato, ma saranno necessari alcuni giorni prima di ottenere i dati raccolti dalle strumentazioni della sonda. La NASA confida di ricevere maggiori informazioni sulle condizioni di PSP il prossimo primo gennaio e di ottenere in seguito i dati dagli strumenti scientifici, che saranno analizzati qui sulla Terra, ma non da Parker in persona.
    Eugene Parker è morto nel marzo del 2022, pochi mesi dopo l’ingresso della sonda nell’atmosfera solare. A proposito di primati, quando la NASA scelse di chiamarla come lui, Parker divenne la prima persona ancora vivente ad avere intitolata una sonda dell’agenzia spaziale statunitense. LEGGI TUTTO

  • in

    Quando scoprimmo l’animale più longevo di sempre, uccidendolo

    Caricamento playerPochi anni dopo l’arrivo di Cristoforo Colombo nelle Americhe nel 1492, nelle acque intorno all’Islanda nacque una vongola artica, all’apparenza come le altre. Mentre il mondo continuava a cambiare, tra scoperte sensazionali e guerre sanguinarie, quel mollusco continuò a vivere e a svilupparsi per secoli, diventando l’animale più longevo conosciuto. Poco meno di venti anni fa un gruppo di ricerca ebbe il merito di scoprire quella vongola anzianissima, ma ebbe anche la responsabilità di determinarne la fine.
    Tutto era iniziato nell’autunno del 2006 quando alcuni ricercatori della Bangor University (Regno Unito) avevano organizzato una spedizione per lo studio della piattaforma settentrionale islandese, che si estende dalla costa settentrionale dell’Islanda verso l’oceano Atlantico del nord. In molte aree non è particolarmente profonda, qualche centinaio di metri, e la raccolta di campioni dal fondale può essere utile per studiare come sono cambiati gli ecosistemi che ospita, in particolare nella recente fase di riscaldamento globale.
    Con una nave da esplorazione, i ricercatori avevano effettuato il dragaggio di parte del fondale, cioè la rimozione di sedimenti e detriti, per selezionare campioni da analizzare. Le attività avevano portato alla raccolta di vari tipi di molluschi, comprese alcune vongole artiche (Arctica islandica) di particolare interesse, per via delle loro dimensioni e di altre caratteristiche, anche se non si pensava che una di queste di circa 9 centimetri per 7 potesse essere così antica.
    Inizialmente si riteneva che buona parte dei molluschi bivalvi come le vongole raggiungesse al massimo i 100 anni di vita. Verso la fine degli anni Ottanta questa convinzione era stata però messa in crisi da alcuni ricercatori, che avevano sviluppato un sistema per calcolare l’età di questi animali contando gli anelli di accrescimento delle loro conchiglie, un po’ come si fa con gli anelli degli alberi.
    Man mano che i molluschi bivalvi invecchiano diventando più grandi, le conchiglie che li racchiudono si espandono e il segno di questa espansione sono le linee che le attraversano. Fu necessario un po’ di tempo prima che venisse accettato il calcolo degli anni in questo modo, ma è ormai un sistema condiviso in particolare per alcune conchiglie come quelle delle vongole artiche.
    Il conteggio degli anelli non è particolarmente difficile, ma può comunque portare a qualche errore di calcolo. Dopo avere analizzato una delle conchiglie raccolte dalla spedizione in Islanda, il gruppo di ricerca concluse inizialmente che avesse 405 anni e che fosse quindi l’animale vivente più antico mai osservato, anche attraverso analisi per la datazione al radiocarbonio. Nel 2013 la stima fu rivista grazie a un calcolo più accurato degli anelli, in particolare nella zona dove si congiungono le due valve, cioè le parti distinte e pressoché simmetriche della conchiglia. In quel punto gli anelli sono molto più vicini tra loro e distinguerli chiaramente richiede analisi più accurate. Il gruppo di ricerca concluse che la vongola artica fosse ancora più vecchia e avesse 507 anni.
    Caratteristiche di Ming, nella ricerca svolta nel 2006 (Radiocarbon)
    Il mollusco era però già morto nel 2006 proprio a causa delle attività di ricerca. Dopo essere stato prelevato dal fondale, era stato congelato direttamente sulla nave, una pratica che viene seguita spesso per preservare le caratteristiche dei campioni. La morte del mollusco fu confermata in seguito, quando la conchiglia era stata aperta per effettuare la datazione.
    Al momento della scoperta la vongola artica era stata chiamata Ming come la famosa dinastia cinese, che era già al potere quando il mollusco era nato. Il nome non cambiò quando l’età passò da 405 a 507 anni, perché i Ming erano al potere anche considerando la nuova datazione. Ma la conchiglia ha anche un altro nome, forse più appropriato.
    Alcuni dei partecipanti alla spedizione iniziarono a chiamare il mollusco “Hafrún”, dalle parole islandesi “haf” che significa “oceano” e “rún”, cioè mistero. È un nome femminile, anche se il genere del mollusco non fu ricostruito, perché la sua capacità riproduttiva era ormai esaurita.
    Il quadrato sulla mappa indica l’area dell’oceano Atlantico in cui fu trovata Ming (Radiocarbon)
    Al di là del nome, lo studio di questa vongola artica e di altre sue colleghe può essere utile per ricostruire l’andamento dei loro ecosistemi nel corso dei secoli. A seconda della disponibilità di cibo, della temperatura dell’acqua e di altri fattori gli anelli di accrescimento hanno infatti dimensioni diverse, utili per ricostruire particolari periodi storici. Lo studio di Ming potrebbe inoltre offrire spunti per comprendere meglio i processi di invecchiamento negli animali, con potenziali riflessi nella ricerca di nuove soluzioni per lo studio di come invecchiano anche gli esseri umani.
    Prima della scoperta di Ming, l’essere vivente più longevo mai scoperto era un’altra vongola con un’età stimata di 220 anni, trovata lungo la costa del Nord America. Il primato era comunque conteso da un’altra vongola artica trovata al largo dell’Islanda. Ogni anno vengono comunque raccolte migliaia di vongole artiche per uso commerciale, quindi è altamente probabile che qualche peschereccio abbia pescato inconsapevolmente animali ancora più longevi di Ming.
    Stabilire la longevità degli esseri viventi non è comunque semplice e i primati sono comunque dibattuti e contesi. Secondo alcune stime gli organismi viventi più antichi sono alcuni individui di spugne vitree (classe delle Hyalospongiae), che potrebbero avere più di 10mila anni. Datarle non è però semplice e per questo ci si orienta spesso verso specie su cui si possono avere maggiori certezze, vongole comprese. Molte specie altamente longeve sono inoltre clonali, cioè formate da individui che producono nel tempo nuovi individui geneticamente identici che a loro volta ne produrranno altri, e sono quindi una cosa diversa da un singolo individuo per come lo intendiamo di solito. LEGGI TUTTO

  • in

    Weekly Beasts

    Tre delle fotografie di animali scelte questa settimana vengono da un concorso per giovani fotografi organizzato dalla Royal Society for the Prevention of Cruelty to Animals (RSPCA), ente benefico britannico che promuove il benessere degli animali, e che ha compiuto quest’anno duecento anni dalla sua fondazione. L’RSPCA Young Photographer Awards, questo il nome del concorso, è stato vinto dalla quindicenne Anwen Whitehead, che ha fotografato una pulcinella di mare. Ma oltre al premio generale c’erano anche altri riconoscimenti, divisi per fasce d’età dei fotografi o per tema, e abbiamo selezionato anche la fotografia di una volpe e quella di un barbagianni. Poi ci sono un leone marino finito su una spiaggia di Rio de Janeiro, in un periodo dell’anno in cui è insolito che questi animali vengano spinti fin lì dalle correnti oceaniche, il primo piano di una lince pardina e per finire un uistitì che penzola da un ramo mentre mangia una banana. LEGGI TUTTO