More stories

  • in

    La crisi climatica renderà impraticabile il tennis all’aperto?

    Caricamento playerDomenica sono cominciati gli Australian Open, il primo dei quattro tornei stagionali del Grande Slam (i più prestigiosi nel tennis) e forse il più esposto alla crisi climatica, perché si gioca a Melbourne durante l’estate australe e possono quindi esserci temperature ben superiori ai 30 gradi, oppure improvvise piogge torrenziali, o incendi che rendono l’aria difficile da respirare. Sono tutti eventi estremi che si stanno intensificando nella frequenza e nell’intensità a causa del cambiamento climatico, che mettono in pericolo la salute di tenniste e tennisti e, a volte, lo svolgimento delle partite.
    Gli sport che si svolgono all’aperto sono sempre più influenzati dalla crisi climatica, sia a livello professionistico sia amatoriale. Quelli invernali come lo sci subiscono la mancanza di neve e l’aumento delle temperature che complica anche l’utilizzo della neve sparata (secondo uno studio, metà dei posti che hanno ospitato le Olimpiadi invernali in passato oggi avrebbero grosse difficoltà a rifarlo); quelli in cui la resistenza è cruciale come il ciclismo o le corse di fondo devono fronteggiare condizioni di caldo e umidità in cui gli sforzi diventano più complicati; gli stadi delle principali città affacciate sul mare, tra le altre cose, saranno sempre più esposti alle inondazioni.
    Il tennis è tra gli sport che la crisi climatica cambierà (e in parte sta già cambiando) maggiormente, per ragioni legate innanzitutto a come si svolge. L’80 per cento dei tornei si gioca all’aperto, le partite possono diventare molto lunghe (quelle maschili del Grande Slam, che si giocano su 5 set, superano non di rado le quattro ore di durata), è uno sport faticoso ed esigente a livello fisico. Inoltre si gioca tantissimo, praticamente undici mesi l’anno, e i tennisti sono soli, non possono essere sostituiti se sono affaticati o spossati.
    Durante una partita degli US Open del 2023, che si giocarono in un caldo ai limiti della sopportazione, il tennista russo Daniil Medvedev guardò la telecamera e disse: «Un giocatore morirà, e poi vedranno». Due anni prima, durante le Olimpiadi di Tokyo, in una partita condizionata da caldo torrido e umidità, l’arbitro chiese a Medvedev se se la sentisse di continuare a giocare: «Posso finire la partita, ma posso morire. Se muoio, ti prendi tu la responsabilità?» fu la risposta del russo, provocatoria, ma anche piuttosto allarmante.

    «Un giocatore morirà, e poi vedranno»
    Per cercare di evitare che i giocatori (o gli spettatori) collassino durante una partita, da anni gli Australian Open hanno un protocollo per il caldo estremo, in base al quale le condizioni atmosferiche vengono misurate su una scala dello stress termico che tiene conto di fattori come l’intensità del sole, la temperatura dell’aria all’ombra, l’umidità percepita e la velocità del vento. La valutazione di questi parametri genera un indice da 1 a 5: quando si arriva a 4, l’arbitro può scegliere di prolungare i momenti di pausa, per consentire ai giocatori di riposarsi e reintegrare liquidi ed energie; quando si raggiunge il livello massimo della scala dello stress termico, la partita può essere sospesa. Nei campi in cui è possibile – al momento a Melbourne sono 3 – si può chiudere il tetto per impedire ai raggi solari di entrare.
    Due anni fa il sito specializzato FiveThirtyEight raccolse alcuni dati e simulazioni e arrivò a concludere che «il tennis all’aperto potrebbe essere la prima grande vittima del cambiamento climatico nello sport». Basandosi sugli ultimi modelli climatici dell’Intergovernmental Panel on Climate Change (IPCC) dell’ONU, il principale organismo scientifico internazionale per la valutazione dei cambiamenti climatici, FiveThirtyEight ha stabilito che nel 2050 la media della temperatura massima a Melbourne nel periodo degli Australian Open sarà di circa 39 gradi; quella di New York agli US Open di 35 gradi; al Roland Garros e a Wimbledon saranno di 28 e 30 gradi, comunque molto alte e con un’umidità decisamente più elevata rispetto a Melbourne.
    In queste condizioni, giocare a tennis all’aperto potrebbe essere pericoloso. La temperatura corporea media di una persona di solito è di circa 37 gradi, ma quando uno sportivo fa uno sforzo eccessivo in un clima molto caldo può avere un colpo di calore, i cui sintomi includono problemi di respirazione, crampi, stordimento, nausea e, se non affrontato subito, può portare anche a conseguenze mediche peggiori. Inoltre, il caldo cambia anche il tennis stesso, perché le superfici cambiano (soprattutto quelle naturali) e la pallina rimbalza in modo diverso: quanto ancora sopravviverà sempre uguale a se stessa la famosa erba di Wimbledon?
    Secondo un’elaborazione dell’agenzia Associated Press, peraltro, tra il 1988 e il 2022 la media della temperatura massima ai quattro tornei del Grande Slam è già aumentata di circa 3 gradi. Negli ultimi anni sono in crescita i casi di tenniste, tennisti e tifosi colpiti da malori e colpi di calore: «Stiamo vedendo molti più problemi medici legati al caldo in tutti gli sport», disse a margine di quell’indagine di AP Elan Goldwaser, del Columbia University Medical Center. Come spesso accade con le conseguenze della crisi climatica, cose che sembrano distanti nel tempo e difficili da concepire in realtà stanno già accadendo. Lo ha riassunto bene qualche mese fa il giornalista esperto di tennis Emanuele Atturo, in un numero della newsletter A Fuoco dedicato proprio al rapporto tra tennis e cambiamento climatico:
    A essere meno distratti, non si tratta di uno scenario futuro ma di uno presente. Abbiamo già vissuto, attorno al tennis, quegli scenari che associamo nel nostro immaginario ai film apocalittici. Abbiamo già vissuto incendi attorno ai campi, uragani, temporali improvvisi, le invasioni impreviste di insetti. I tennisti in fuga, o in preda a colpi di calore; giocatori che si infilano un asciugamano di ghiaccio dietro la nuca, cercando di raffreddarsi davanti al ventilatore come un motore surriscaldato. Le polveri tossiche, il pubblico che perde i sensi sugli spalti e i giocatori che svengono in campo, o arrivano a pensare di morire.
    La tennista estone Anett Kontaveit esce dal campo durante una partita degli Australian Open del 2023 sospesa per il caldo estremo (Daniel Pockett/Getty Images)
    È facile ipotizzare che la stagione tennistica dovrà adeguarsi sempre più al clima che cambia, ma è più difficile capire come lo farà. Fino a questo momento i vari tornei in giro per il mondo sono stati pianificati proprio con la logica di inseguire il sole, cioè di giocare nelle stagioni in cui piove meno e le giornate sono lunghe e calde; ora potrebbe essere utile, se non necessario, invertire questa logica, cioè non giocare gli Australian Open, Wimbledon e gli US Open nelle rispettive estati.
    Il problema è che il calendario è sempre più intasato e pieno di impegni, e rivedere tutti gli incastri sarebbe (sarà) una cosa tutt’altro che semplice. Diminuire il numero di tornei sarebbe la soluzione più logica (ma anche quella meno praticabile, vista la tendenza all’aumento, dettata soprattutto da ragioni economiche), anche perché questo consentirebbe a tenniste e tennisti di avere più tempo per acclimatarsi nei posti in cui vanno a giocare, un fattore molto importante per abituarsi e resistere al caldo estremo.
    È prevedibile che i vari tornei si doteranno sempre più di campi coperti, nati principalmente per difendersi dalla pioggia ma diventati oggi altrettanto validi per ripararsi dal sole, e in generale i tornei indoor potrebbero aumentare in numero e in parte soppiantare quelli giocati all’aperto. Un’altra ipotesi prevederebbe di diminuire la durata delle partite: è una cosa di cui si discute da tempo, soprattutto in realtà nell’ottica di rendere il tennis più fruibile in televisione, ma per il momento gli esperimenti fatti in tornei come le Next Gen Finals non sono stati estesi ad altri tornei ATP o WTA, i due principali circuiti professionistici maschile e femminile.
    Alcuni tifosi si difendono dal caldo estremo con asciugamani bagnati durante gli US Open (AP Photo/Matt Rourke, File)
    In tutto questo bisogna tenere conto del fatto che il tennis è uno sport con un impatto ambientale notevole: BBC Sport ha stimato che i giocatori professionisti percorrono quasi centomila chilometri all’anno in aereo (tra i mezzi di trasporto più inquinanti) per raggiungere i luoghi dei vari tornei; non è raro che i più forti, e quindi benestanti, lo facciano con aerei privati. Oltre a questo, e a tutto l’impatto ambientale generato dall’organizzazione di migliaia di partite in giro per il mondo, spesso i tornei sono sponsorizzati da aziende, banche e compagnie con legami con l’industria dei combustibili fossili, se non proprio direttamente impegnate nella loro produzione: dall’anno scorso la classifica mondiale dei tennisti maschili è sponsorizzata dal Fondo sovrano dell’Arabia Saudita, uno dei principali produttori di petrolio al mondo, che sta investendo tanto denaro nel tennis.
    Per questo, e per il fatto che il tennis si presta a questo tipo di azioni (ci sono meno controlli e barriere tra pubblico e campo), negli ultimi anni stanno aumentando le proteste di attiviste e attivisti per il clima durante le partite di tennis. Agli scorsi Internazionali d’Italia, l’importante torneo che si gioca annualmente a Roma, alcuni attivisti del movimento Ultima Generazione hanno manifestato durante una partita che si giocava sul campo Pietrangeli, causandone la momentanea sospensione: alla fine in nove sono stati denunciati e hanno ricevuto il daspo (cioè un divieto di avvicinamento all’area).
    Nonostante stiano crescendo la consapevolezza e la richiesta che l’industria del tennis si spenda maggiormente nel contrasto alla crisi climatica – soprattutto perché una discreta parte del pubblico è costituita da persone benestanti – per il momento il tema non sembra interessare troppo agli organizzatori e agli stessi tennisti. LEGGI TUTTO

  • in

    Inizia un grande anno di Spazio

    Caricamento playerDai nuovi test della gigantesca astronave Starship di SpaceX ai nuovi tentativi di allunaggio, passando per l’osservazione di mondi lontani, l’anno appena iniziato sarà denso di eventi ed esplorazioni spaziali. L’economia dello Spazio si è espansa enormemente negli ultimi anni e alle iniziative finanziate dai governi, tramite le loro agenzie spaziali, si sono ormai affiancate le attività delle aziende private per la costruzione di grandi costellazioni di satelliti, basi orbitali e lunari. L’anno di Spazio si apre inoltre con grandi dubbi e domande su che cosa vorrà fare Donald Trump, consigliato da Elon Musk con i suoi piani per raggiungere Marte.
    AstronautiCome ogni anno sono previste numerose missioni per il trasporto degli equipaggi dalla Terra verso la Stazione Spaziale Internazionale (ISS) e viceversa. Nella prima parte del 2025 l’attenzione sarà soprattutto per gli astronauti statunitensi Butch Wilmore e Suni Williams: erano partiti per la ISS il 5 giugno 2024 e sarebbero dovuti rimanere a bordo per una settimana, ma la loro capsula da trasporto Starliner di Boeing non ha funzionato come previsto al volo inaugurale con equipaggio, obbligandoli a rimanere per mesi in orbita. I due astronauti della NASA torneranno a Terra probabilmente a marzo, utilizzando una capsula Crew Dragon di SpaceX, mentre Boeing dovrà ancora lavorare per sistemare i problemi della sua capsula.
    In estate è previsto il trasporto in orbita di Haven-1, un primo modulo di una nuova stazione orbitale realizzata dalla startup californiana Vast. La base potrà ospitare fino a quattro astronauti per periodi di 30 giorni, ma in futuro potrà essere ampliata la capacità con l’aggiunta di nuovi moduli. Al momento, comunque, Haven-1 sarà sperimentato senza equipaggio.
    L’India sta espandendo il proprio programma spaziale e ha l’obiettivo di inviare un proprio astronauta in orbita tramite una collaborazione con Axiom Space, una società texana che sta lavorando alla preparazione di una nuova stazione spaziale. Il lancio dovrebbe avvenire nella primavera e l’equipaggio, che comprenderà anche astronauti dalla Polonia e dall’Ungheria, rimarrà per un paio di settimane a bordo della ISS.
    I piani di Axiom per la realizzazione di una stazione spaziale (Axiom)
    SatellitiNel 2024 SpaceX ha effettuato più di cento lanci del proprio Falcon 9, il razzo parzialmente riutilizzabile che ha reso più economico il trasporto del materiale in orbita. Molti lanci sono serviti per espandere la sua costellazione satellitare Starlink, per offrire Internet dallo Spazio, che conta ormai più di 7mila satelliti. Altre iniziative simili porteranno alla realizzazione di costellazioni concorrenti, mentre l’Unione Europea si prepara a realizzarne una propria.
    La NASA ha in programma il lancio ad aprile di un paio di satelliti per la missione TRACERS, il cui scopo è studiare meglio l’attività del Sole e in particolare il vento solare, che interagendo con il campo magnetico terrestre produce effetti spettacolari come le aurore polari, ma anche interferenze ai sistemi di telecomunicazioni.
    Per quest’anno è previsto il lancio di numerosi satelliti di medie e piccole dimensioni per l’osservazione della Terra, sia per quanto riguarda lo studio degli effetti dei cambiamenti climatici sia per nuovi sistemi di mappatura geografica e delle strade, che tra le altre cose ritroviamo poi sui navigatori dei nostri smartphone.
    L’aurora boreale nel cielo sopra il lago Rat, nel Canada settentrionale (Bill Braden /The Canadian Press via AP)
    RazziIl lancio più atteso per l’inizio dell’anno è quello di New Glenn, il nuovo razzo della società spaziale statunitense Blue Origin di Jeff Bezos, il fondatore di Amazon. A differenza di New Shepard, il “piccolo” razzo utilizzato per il turismo spaziale con permanenze di pochi minuti nello Spazio, New Glenn è alto quasi 100 metri ed è progettato per fare concorrenza ai razzi riutilizzabili di SpaceX. La sua progettazione e il suo sviluppo hanno richiesto molto più tempo del previsto, con diversi rinvii del primo lancio. Bezos avrebbe voluto sperimentarlo entro la fine del 2024, ma i test hanno fatto slittare i programmi e ora si parla di un primo lancio sperimentale intorno al 13 gennaio.
    Entro fine febbraio il consorzio europeo ArianeGroup tenterà un lancio orbitale del proprio nuovo razzo Ariane 6, progettato per ridurre i costi di accesso allo Spazio per i paesi europei. Un primo lancio la scorsa estate, dopo anni di ritardi, non è andato interamente per il verso giusto e si attende quindi il nuovo test per verificare l’affidabilità del razzo.
    Sono in programma diversi altri voli inaugurali di razzi gestiti da privati, come Neutron di Rocket Lab e Prime di Orbex, e da aziende con forti rapporti con i governi per via di sovvenzioni e collaborazioni a livello istituzionale. In Cina, almeno sei aziende spaziali sono al lavoro per sperimentare altrettanti razzi.
    Il primo lancio di Ariane 6, lo scorso luglio (ESA, Arianespace, CNES via AP)
    LunaLa Luna continua a essere al centro di molte iniziative spaziali, in parte per via del Commercial Lunar Payload Services (CLPS), il programma della NASA per coinvolgere le aziende private nelle esplorazioni lunari in vista di un ritorno degli astronauti sul nostro satellite naturale con il programma Artemis. Firefly Aerospace proverà a far allunare Blue Ghost, una missione che trasporta una decina di esperimenti della NASA per l’analisi del mare Crisium, una grande pianura che si formò in seguito all’impatto di un asteroide. Intuitive Machines proverà ad allunare con Athena nell’ambito della missione IM-2 per provare a rilevare la presenza di acqua ghiacciata.
    La società spaziale privata giapponese ispace proverà a raggiungere il suolo lunare con il proprio lander Resilience e il suo piccolo rover Tenacious, con l’obiettivo di esplorare il mare Frigoris nell’emisfero nord della Luna.
    Per quanto riguarda Artemis si attende l’insediamento di Donald Trump, la cui presidenza potrebbe orientare gli obiettivi della NASA verso Marte, riducendo quelli per la Luna. Elon Musk – il capo di SpaceX e uno dei più grandi finanziatori della campagna elettorale di Trump – sostiene da tempo la necessità di raggiungere Marte in modo da rendere l’umanità una “specie multiplanetaria”. SpaceX è fortemente coinvolta nelle attività della NASA ed è incaricata di gestire i primi allunaggi con astronauti dai tempi delle missioni Apollo, sempre nell’ambito di Artemis. Trump potrebbe anche decidere di interrompere lo sviluppo di SLS, il costoso sistema di lancio non riutilizzabile cui lavora da anni la NASA per gestire parte delle proprie missioni lunari.
    Il presidente eletto statunitense Donald Trump ed Elon Musk durante il lancio sperimentale di Starship in Texas, Stati Uniti, del 19 novembre 2024 (Brandon Bell/Pool via AP)
    StarshipDopo i successi del 2024, quest’anno SpaceX ha intenzione di effettuare decine di lanci sperimentali per mettere a punto la propria enorme astronave Starship, fondamentale per Artemis e nelle intenzioni di Musk per portare gli astronauti su Marte. Il programma prevede 25 lanci per sperimentare non solo l’astronave, ma anche i sistemi per recuperarla e riutilizzarla per più lanci, nonché un elaborato sistema per rifornirla in orbita per i viaggi verso la Luna e oltre. Saranno comunque necessari ancora molti test prima che Starship sia utilizzata con equipaggi a bordo, mentre potrebbero essere organizzate missioni per il trasporto di satelliti in orbita in tempi relativamente brevi.
    Space RiderNella seconda metà dell’anno potrebbe essere sperimentato per la prima volta nell’ambiente spaziale Space Rider, un nuovo sistema di trasporto di materiale in orbita dell’Agenzia spaziale europea (ESA). Il progetto per la mini-navetta senza equipaggio è stato finanziato in buona parte dall’Italia ed è stato realizzato dalle aziende Avio e Thales Alenia Space. Effettuato il primo volo dimostrativo, l’ESA ha intenzione di privatizzare Space Rider e di affidarne la gestione al consorzio spaziale Arianespace. Il nuovo sistema potrebbe ridurre sensibilmente i costi di invio di materiali e tecnologie da sperimentare in orbita.
    Space Rider in un’elaborazione grafica (ESA)
    AsteroidiLa missione Tianwen-2 della Cina è un progetto ambizioso per raccogliere campioni da un asteroide e studiare una cometa. Il lancio è in programma per maggio e la missione esplorerà l’asteroide 469219 Kamoʻoalewa, un quasi-satellite della Terra che secondo alcune ipotesi potrebbe essere un frammento della Luna espulso da un impatto passato. Dopo aver raccolto e inviato verso la Terra i campioni, la sonda si dirigerà verso la cometa 311P/PANSTARRS nella fascia principale degli asteroidi, con l’obiettivo di approfondire la comprensione dell’origine e dell’evoluzione del sistema solare, indagando anche sull’origine dell’acqua e delle molecole organiche sulla Terra.
    La Cina sta investendo molto nel proprio programma spaziale e con risultati importanti. Negli ultimi anni ha allestito una base in orbita intorno alla Terra, ha raccolto e riportato sulla Terra campioni del suolo lunare con una missione robotica e ha perfezionato i propri sistemi di lancio in vista di esplorazioni con astronauti della Luna.
    Sistema solareIl 2025 sarà anche denso di passaggi ravvicinati (“flyby”), cioè di avvicinamenti di sonde a pianeti e altri corpi celesti nell’ambito dei loro viaggi interplanetari verso i rispettivi obiettivi finali. I flyby servono soprattutto per ricevere una spinta gravitazionale dai pianeti, in modo da ridurre il consumo di combustibile per raggiungere mete molto distanti.
    La sonda BepiColombo dell’Agenzia spaziale europea (ESA) e di quella giapponese (JAXA) effettuerà a gennaio un nuovo passaggio ravvicinato del pianeta Mercurio, in vista delle attività di rilevazione per studiare la composizione della sua atmosfera e le caratteristiche geologiche. La missione Europa Clipper della NASA, partita lo scorso ottobre, effettuerà un passaggio ravvicinato di Marte per ricevere la spinta necessaria per raggiungere Europa, una delle lune di Giove che potrebbe riservare qualche sorpresa per la ricerca di vita fuori dalla Terra.
    Lucy, la sonda della NASA per lo studio degli asteroidi, effettuerà un passaggio ravvicinato ad aprile dell’asteroide 52246 Donaldjohanson, raccogliendo dati per comprendere le caratteristiche della sua superficie e studiare la sua composizione. L’asteroide porta il nome del paleoantropologo Donald Johanson che scoprì i fossili di Lucy, un ritrovamento fondamentale per lo studio dell’evoluzione della nostra specie.
    JUICE, la sonda dell’ESA, ad agosto effettuerà un passaggio ravvicinato di Venere, nel suo lungo viaggio per raggiungere Giove. Mentre Hera, un’altra missione ESA, a marzo condurrà un passaggio ravvicinato di Marte nel suo viaggio verso il sistema di asteroidi Didymos, oggetto qualche tempo fa di un primo esperimento per provare a modificarne l’orbita in modo da studiare sistemi per proteggere la Terra dalle collisioni con gli asteroidi.
    Quest’anno segnerà anche la fine di JUNO, la missione della NASA che negli ultimi 8 anni ha permesso di raccogliere molti dati su Giove, il pianeta più grande del Sistema solare, e sulle sue numerose lune. A metà settembre, la sonda riceverà i comandi per entrare a grande velocità nell’atmosfera di Giove e polverizzarsi, in modo da evitare il rischio di produrre rottami spaziali e di contaminazioni.
    Il pianeta Giove visto da una delle fotocamere di JUNO (NASA/JPL-Caltech/SwRI/MSSSImage processing by Prateek Sarpal)
    UniversoA fine febbraio partirà la missione SPHEREx della NASA, progettata per mappare il cielo e osservare oltre 100 milioni di stelle nella Via Lattea, la nostra galassia, raccogliendo inoltre dati su più di 450 milioni di galassie. Le strumentazioni dell’osservatorio saranno anche impiegate per raccogliere indizi sull’eventuale presenza di acqua o tracce di molecole organiche nello Spazio profondo.
    Qui sulla Terra, potrebbe invece essere pronta entro l’estate parte del Vera C. Rubin Observatory, un enorme telescopio costruito sul Cerro Pachón, a quasi 2.700 metri di altitudine nel nord del Cile. L’osservatorio sarà utilizzato per la mappatura della volta celeste e per l’osservazione e lo studio di piccoli oggetti nel nostro sistema solare, come asteroidi, comete e nanopianeti. Sarà anche utilizzato per lo studio della misteriosa quanto sfuggente materia oscura. Nel nostro percepito la materia è tantissima, ma in termini cosmologici è relativamente poca: si stima che costituisca meno del 5 per cento dell’Universo conosciuto. Tutto il resto, secondo le teorie più discusse, è formato per il 25 per cento circa di materia oscura e per il 70 per cento di energia oscura. LEGGI TUTTO

  • in

    Weekly Beasts

    Questi primi giorni di gennaio sono stati caratterizzati da eventi meteorologici che hanno causato diversi disagi, come le abbondanti nevicate negli Stati Uniti e le alluvioni in Inghilterra. In California ci sono state anche forti raffiche di vento che, combinate a un livello di umidità molto basso, hanno favorito il veloce espandersi di disastrosi incendi. Nella nostra raccolta abbiamo selezionato diversi animali alle prese con ognuna di queste situazioni: un cane tra la gente che gioca a battaglia di neve a Washington, dei cigni che nuotano di fronte a un ufficio allagato nel Kent, ma anche una tartaruga che cammina per strada mentre divampano gli incendi, e i cervi radunati attorno agli alberi bruciati, a Los Angeles. Ci sono poi un gufo delle nevi e un muflone, una volpe rossa, due rinoceronti e per finire una giraffa che bruca un albero di Natale. LEGGI TUTTO

  • in

    I modelli climatici e il caos

    Caricamento playerIl 2024 è stato dichiarato l’anno più caldo mai registrato, dopo che appena un anno fa lo stesso primato era stato attribuito al 2023. La temperatura media globale continua ad aumentare, con più anomalie del previsto che stanno portando i gruppi di ricerca a chiedersi se ci sia qualcosa da rivedere nei complessi modelli scientifici utilizzati per fare previsioni sul cambiamento climatico. Buona parte della scienza intorno al riscaldamento globale dipende non solo dal modo in cui sono fatti quei modelli, ma anche da come sono aggiornati e gestiti per avere proiezioni coerenti su fenomeni per loro natura caotici e difficili da prevedere.
    Se oggi possiamo simulare gli andamenti e fare previsioni sul clima è soprattutto merito di un’intuizione che ebbe il meteorologo statunitense Norman Phillips nella seconda metà degli anni Cinquanta. Phillips si era appassionato allo studio dei fenomeni che avvengono nell’atmosfera mentre era alle Azzorre, dove effettuava rilevazioni e previsioni per conto delle forze Alleate nel corso della Seconda guerra mondiale. In seguito si era interessato alle opportunità di calcolo offerte dai primi computer e ne aveva ipotizzato l’utilizzo per descrivere matematicamente ciò che avviene stagionalmente nell’atmosfera. Nel 1956 pubblicò uno studio dove esponeva il proprio modello matematico, dimostrando la possibilità di calcolare e prevedere eventi meteorologici (quindi nel breve periodo) e andamenti climatici di lungo periodo.
    Prima di Phillips appariva improbabile applicare modelli scientifici per lo studio su larga scala dei fenomeni atmosferici, a causa della loro complessità e variabilità. Sviluppare un modello, infatti, significa identificare le relazioni che determinano un fenomeno e applicare equazioni matematiche per spiegare il funzionamento del sistema. Si parte dalla raccolta di dati sul fenomeno per comprendere le interazioni che avvengono tra le varie parti del sistema, se ne derivano delle informazioni e infine si utilizzano queste per fare proiezioni su cosa potrebbe accadere al variare di alcune condizioni. Se quelle variazioni sono riferite a possibili scenari futuri, si possono fare previsioni su ciò che potrà accadere o per lo meno su quali scenari si verificheranno con maggiore probabilità.
    Un modello matematico può partire da un fenomeno estremamente semplice, come la caduta di una mela sulla testa di uno scienziato inglese seduto sotto un albero, derivando poi da questo evento informazioni più generali sul moto dei pianeti. I modelli partono dalle condizioni iniziali del sistema, prendono poi in considerazione gli eventi che modificano quella condizione di partenza e le interazioni all’interno del sistema, portando infine a un esito di un certo tipo.
    I modelli climatici, o GCM (da General Circulation Models), tengono in considerazione tanti fattori come la quantità di specifici gas presenti nell’atmosfera, a partire dall’anidride carbonica, il vapore acqueo, il calore proveniente dal Sole e quello disperso dalla Terra, la rotazione del nostro pianeta e la temperatura dei mari, solo per citarne alcuni. I dati raccolti vengono impiegati per calcolare come specifici fenomeni interagiscono tra loro, con effetti sul suolo, sugli oceani e naturalmente sull’aria che abbiamo intorno.
    Proprio come aveva intuito Phillips quasi 70 anni fa, i modelli climatici dei giorni nostri sono complessi programmi per computer contenenti centinaia di migliaia di righe di codice. Il loro sviluppo tiene impegnati grandi gruppi di ricerca, che partono da dati reali per riprodurre in una simulazione informatica ciò che avviene nella realtà. Verificano che questa sia il più possibile corrispondente alla realtà e la usano poi per cambiare alcuni parametri, per vedere come reagirebbe il sistema per esempio all’aumentare della temperatura a livello globale o locale.
    Anche se ci sono alcune somiglianze, un modello climatico funziona su tempi più lunghi rispetto a un modello utilizzato per le normali previsioni del meteo. In altre parole, i modelli climatici non possono dire se domani pioverà a Bologna, ma possono invece prevedere con un buon margine di errore che tra vent’anni in quella zona la temperatura sarà mediamente più alta rispetto a oggi.
    I modelli climatici si occupano delle interazioni tra quattro componenti fondamentali del nostro pianeta: il suolo, l’atmosfera, gli oceani e il ghiaccio marino. I dati che vengono raccolti e su cui si basa il loro funzionamento sono soprattutto la temperatura dell’aria, la pressione atmosferica, l’umidità dell’aria e la forza dei venti.
    La complessità di ciò che avviene in ogni istante sulla Terra rende molto difficile la rappresentazione di questi fenomeni in un modello. Per quanto dallo Spazio ci appaia come una palla relativamente uniforme e omogenea, il pianeta reagisce in modo diverso alle sollecitazioni e ai fenomeni a seconda delle zone. Le terre si scaldano e si raffreddano più velocemente rispetto agli oceani per esempio, così come alcuni fenomeni atmosferici sono più marcati ai poli o all’equatore. Insomma, aree diverse hanno climi diversi e questo deve essere tenuto in considerazione se si vuole capire come stanno cambiando le condizioni climatiche in una certa zona.
    Per rispondere a questa esigenza, i modelli climatici dividono la Terra in una grande griglia tridimensionale, fatta di cubi che coprono una certa porzione della superficie del pianeta e che si spingono in altezza sia negli strati atmosferici sia in quelli al di sotto della superficie del mare. Nei modelli più recenti questi cubi sono di circa 4,6 chilometri per lato (occupano quindi un volume di 100 chilometri cubi), ma ce ne possono essere di altre dimensioni e con maggiori o minori possibilità di impilarne più di uno sopra l’altro, producendo griglie tridimensionali più elaborate.
    Schema semplificato di una griglia tridimensionale per un modello climatico (NOAA)
    Come per le tesserine di un mosaico, più i cubi sono piccoli e maggiore è la risoluzione e quindi la possibilità di vedere gli effetti dei cambiamenti climatici su un’area specifica. I primi modelli avevano una risoluzione di 500 chilometri cubi ed era quindi difficile fare proiezioni significative a livello regionale. La minore risoluzione era in parte dovuta alla capacità di calcolo dei computer qualche decennio fa, decisamente inferiore rispetto all’attuale: più si riducono le dimensioni dei cubi, più la griglia diventa fitta e aumentano i dati che il sistema deve prendere in considerazione e gestire.
    Avere raggiunto i 100 chilometri cubi di risoluzione è stato un importante progresso, ma per molte analisi sono necessarie proiezioni climatiche su scale più piccole e locali. In questo caso si effettua una riduzione di scala, o “downscaling” del modello: lo si può fare in modo dinamico, partendo dai risultati globali e usandoli come punti di partenza per modelli più piccoli con maggiori dati sulle caratteristiche locali (la presenza di alture, masse d’acqua, ecc), oppure si può effettuare un downscaling statistico utilizzando gli andamenti su larga scala per calcolare i loro effetti localmente. Entrambi gli approcci servono per rendere più dettagliati i modelli climatici su base locale, ma non intervengono necessariamente sulla loro accuratezza.
    (NARCliM)
    Nello studio del riscaldamento globale i modelli sono importanti, sia per simulare con una certa approssimazione scenari futuri sia per valutare gli sviluppi più recenti di certi fenomeni rispetto a ciò che ci si attendeva. In una simulazione si possono per esempio aumentare i livelli di emissioni di anidride carbonica (il principale gas serra, che immettiamo in enormi quantità bruciando combustibili fossili) per vedere come questi influiscono sui fenomeni che regolano il clima.
    Dai modelli si possono ottenere proiezioni sulle caratteristiche dei vari strati dell’atmosfera, sulla variazione della temperatura, sulle piogge e sull’umidità. I risultati prodotti dai modelli possono essere impiegati a loro volta per comprendere che cosa può accadere alle foreste, alle calotte polari, alle aree costiere esposte all’innalzamento dei mari o ancora ai campi dedicati alle attività agricole.
    Per quanto sempre più accurati, i modelli climatici (come molti altri modelli scientifici che descrivono fenomeni complessi) mantengono un certo livello di incertezza. Molti dei processi che avvengono nell’atmosfera, come negli oceani o al suolo sono caotici, cioè piccolissime modifiche nelle condizioni iniziali possono portare a grandi variazioni negli effetti finali, e con gli attuali sistemi è impossibile modellarli. È un limite noto e con cui si confrontano costantemente i gruppi di ricerca, chiedendosi quali sistemi adottare per ridurre il più possibile l’incertezza e avere simulazioni più affidabili.
    Il confronto sulla qualità dei modelli può diventare molto acceso, soprattutto nei periodi in cui i dati via via raccolti si discostano da quanto era stato proiettato con le simulazioni. Da qualche anno se ne discute ancora di più perché alcune analisi hanno segnalato un’accelerazione del riscaldamento globale, che non trova spiegazioni nei modelli climatici. Intorno a questa accelerazione non c’è ancora un consenso scientifico (che è basato naturalmente sulle ricerche e sui dati, non sulle opinioni di chi se ne occupa), e per questo sono in corso analisi e ipotesi di revisione dei modelli più condivisi.
    Per ridurre, o per lo meno gestire, l’incertezza i gruppi di ricerca ricorrono a uno dei pilastri del metodo scientifico: la riproducibilità. Non esiste infatti un solo modello climatico, ma vari modelli sviluppati da istituzioni e centri di ricerca diversi, sia globali sia locali, a seconda delle necessità. I modelli utilizzano una lingua condivisa, cioè alcuni standard e approcci riconosciuti, in modo che i loro risultati siano confrontabili e che concorrano alla costruzione del consenso scientifico per avere proiezioni sul futuro che siano plausibili.
    Il coordinamento tra chi fa ricerca, soprattutto grazie al lavoro del Gruppo intergovernativo sul cambiamento climatico delle Nazioni Unite, ha permesso di ottenere nel tempo modelli accurati a sufficienza. Diversi studi hanno segnalato la loro affidabilità in retrospettiva, con una corrispondenza tra le simulazioni sul passato e come erano andate le cose, e anche nella previsione degli anni successivi alla loro elaborazione. Mettere alla prova i modelli con ciò che sappiamo già essere successo è del resto uno dei modi migliori per verificare la loro affidabilità nel fare previsioni.

    Ci si aspetta che i modelli diventino ancora più affidabili grazie ai progressi nelle capacità di calcolo dei computer e alla crescente possibilità di raccogliere dati, sia grazie alle rilevazioni al suolo sia alle osservazioni dallo Spazio. La crescente quantità di satelliti portati in orbita per raccogliere dati sulla Terra ha permesso di estendere le conoscenze sullo stato di salute delle foreste, sulla temperatura degli oceani e sulla composizione dell’atmosfera, dove si accumulano i gas serra. Le opportunità offerte dai sistemi di intelligenza artificiale potrebbero portare a ulteriori progressi, soprattutto nella gestione della crescente quantità di dati sui quali costruire i nuovi modelli.
    Migliori simulazioni saranno sempre più importanti per conoscere prima gli effetti del riscaldamento globale sul pianeta e di conseguenza sulle nostre esistenze, ma come ricordano spesso i climatologi le proiezioni non sono la soluzione, ma la presentazione di un problema. Dovrebbero poi essere i governi e le altre istituzioni a decidere le politiche per affrontare il cambiamento climatico e mitigarne gli effetti. LEGGI TUTTO

  • in

    Come si trasmette Internet dallo Spazio

    Caricamento playerSi è molto discusso negli ultimi giorni, con commenti più o meno allarmati e polemici, della possibilità che il governo italiano si affidi a SpaceX, l’azienda spaziale privata di proprietà di Elon Musk, per la gestione delle proprie comunicazioni tramite i satelliti di Starlink.
    I circa settemila satelliti che compongono la costellazione di Starlink orbitano velocissimi intorno al nostro pianeta, compiendo un giro completo in circa un’ora e mezza, in questo modo sono in grado di offrire un servizio di connessione praticamente ovunque nel mondo, anche nelle zone più remote. Per questo motivo il servizio offerto da SpaceX può essere particolarmente utile in ambito militare e di spionaggio, ma anche per le attività di protezione civile, ad esempio in caso di emergenze.
    Ma come si sono evoluti questi sistemi, come funzionano esattamente e perché si chiamano “costellazioni”? Nella nuova puntata di Ci vuole una scienza, Emanuele Menietti e Beatrice Mautino spiegano il sistema dietro al funzionamento dei satelliti di Starlink e perché, di conseguenza, interessano a diversi governi, non solo al nostro. Nella puntata di oggi si parla anche di influenza aviaria e delle novità scientifiche da tenere d’occhio nel 2025.
    Ci vuole una scienza è un podcast del Post condotto dalla divulgatrice scientifica Beatrice Mautino e da Emanuele Menietti, giornalista del Post. Ogni venerdì racconta le ultime novità scientifiche, ma anche il modo in cui vengono comunicate e il loro impatto sulle nostre vite. Da gennaio Ci vuole una scienza fa parte dell’offerta per le abbonate e gli abbonati del Post, le persone che con il loro contributo permettono che il progetto giornalistico del Post ci sia e possa crescere, e che tutti gli articoli pubblicati sul sito del Post restino disponibili gratuitamente per chiunque voglia informarsi meglio. 
    Se vuoi ascoltare questa e le prossime puntate di Ci vuole una scienza – ma anche leggere il sito senza pubblicità, commentare gli articoli e ascoltare gli altri podcast per abbonati, e soprattutto sostenere il Post e le cose che fa – puoi abbonarti anche tu. LEGGI TUTTO

  • in

    Abbiamo estratto del ghiaccio di 1,2 milioni di anni fa dall’Antartide

    Giovedì il gruppo di ricerca europeo Beyond EPICA ha annunciato di essere riuscito a estrarre dalla calotta dell’Antartide del ghiaccio vecchio di almeno 1,2 milioni di anni. Per riuscirci ha dovuto scavare un foro profondo 2.800 metri, quasi la misura dell’altezza massima del Gran Sasso. Questo risultato è stato raggiunto dopo cinque anni di lavoro sul campo nella regione centrale dell’Antartide, dove quando fa meno freddo la temperatura media si aggira intorno ai -35 °C. Ora grazie al ghiaccio antichissimo che è stato ottenuto si potranno ricavare delle informazioni sulle condizioni climatiche della Terra ai tempi degli Homo erectus.I ghiacciai e le calotte polari infatti sono grandi depositi di successive nevicate avvenute nel corso del tempo. Dato che quando nevica i fiocchi di neve inglobano particelle di polvere e assorbono sostanze presenti nell’aria, in concentrazioni diverse in base alla composizione dell’atmosfera in quel momento, il ghiaccio che vanno a formare contiene delle informazioni sul clima. E il centro dell’Antartide è il luogo della Terra in cui questo tipo di “archivio” arriva più lontano nel tempo.
    Il gruppo di ricerca del progetto Beyond EPICA riunisce scienziati di dieci paesi diversi ed è guidato dall’italiano Carlo Barbante, direttore dell’Istituto di Scienze Polari del Consiglio Nazionale delle Ricerche (CNR) e docente dell’Università Ca’ Foscari di Venezia. Barbante ha spiegato che con l’obiettivo raggiunto negli ultimi giorni abbiamo ottenuto «la più lunga documentazione continuativa del clima del passato in forma di ghiaccio». Non si tratta infatti del ghiaccio più antico mai trovato, che è molto più vecchio, ma dato che Beyond EPICA ha estratto un’intera colonna di ghiaccio dalla superficie dell’altopiano antartico fino a 2.800 metri di profondità, è il più lungo campione ininterrotto – per quanto sia frazionato in cilindri lunghi un metro.

    – Per approfondire: La sfida per trovare il ghiaccio più vecchio, in Antartide

    Il progetto è stato finanziato con 11 milioni di euro dalla Commissione Europea e il suo nome significa “Oltre EPICA”. È un riferimento alla precedente impresa europea per lo studio del clima attraverso il ghiaccio antartico, svolta tra il 1996 e il 2005, che si chiamava appunto EPICA: è l’acronimo di European Project for Ice Coring in Antarctica. Grazie a EPICA si poté ricostruire la storia dell’atmosfera fino a 800mila anni fa, la più lunga mai ottenuta finora grazie al ghiaccio.
    Com’è l’Antartide nella zona attorno al campo di ricerca di Beyond EPICA, cioè Little Dome C, che si intravede in fondo (Collino, ©PNRA/IPEV)
    Una volta analizzato nei laboratori, il ghiaccio estratto da Beyond EPICA potrà dirci qual era la concentrazione di gas serra nell’atmosfera 1,2 milioni di anni fa e dunque aiutarci a stimare la temperatura media sul pianeta a quel tempo. Ma soprattutto i campioni di ghiaccio potranno dirci qualcosa di nuovo sul periodo compreso tra 900mila e 1,2 milioni di anni fa, la cosiddetta “transizione del Pleistocene medio”, quando i cicli delle ere glaciali passarono da intervalli di 41mila a 100mila anni: non sappiamo ancora come mai ci fu questo cambiamento. Queste informazioni sono importanti anche per lo studio del clima attuale e per affinare i modelli climatologici per il futuro.
    Nel centro dell’Antartide è presente ghiaccio antichissimo perché la quantità di precipitazioni annuali nella regione è molto bassa, in media cadono solo 10 centimetri di neve in un anno: per questo nei circa tremila metri di ghiaccio della calotta si susseguono centinaia di migliaia di strati di neve. I primi strati sono più spessi, poi scendendo in profondità sono via via più sottili perché vengono compressi dal peso del ghiaccio sovrastante.
    Julien Westhoff, responsabile delle operazioni sul campo del progetto e ricercatore dell’Università di Copenaghen, ha detto che secondo le prime analisi del ghiaccio estratto negli ultimi giorni l’età dello strato che si trovava a 2.480 metri di profondità risale a 1,2 milioni di anni fa. A quella profondità un cilindro di ghiaccio di un metro contiene i dati climatici relativi a 13mila anni.
    Cilindri di ghiaccio estratti dalla calotta antartica all’inizio del 2024, fotografati il 25 novembre (Westhoff, ©PNRA/IPEV)
    Negli ultimi 210 metri di profondità che sono stati raggiunti il ghiaccio è altamente deformato a causa della pressione ed è probabilmente mescolato a ghiaccio di origine sconosciuta, o fuso e poi di nuovo congelato. Ci sono delle teorie sulla storia di questi strati di ghiaccio, che però devono essere studiati: potrebbero darci delle informazioni sulla storia glaciale dell’Antartide e sull’ultimo periodo in cui fu libera dal ghiaccio.
    I cilindri di ghiaccio estratti da Beyond EPICA saranno trasportati in Europa a bordo della rompighiaccio Laura Bassi (che deve il suo nome a una delle prime donne laureate italiane). A bordo della nave saranno mantenuti a una temperatura di -50 °C, una cosa non semplice per cui è stato necessario studiare numerosi accorgimenti logistici da parte dell’ENEA, l’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile.

    – Leggi anche: La vita degli scienziati che stanno per 9 mesi isolati in Antartide LEGGI TUTTO

  • in

    Il 2024 è stato l’anno più caldo mai registrato

    Il 2024 è stato l’anno più caldo mai registrato e ha comportato un superamento della soglia di 1,5 °C in più della temperatura media globale rispetto al periodo pre-industriale, il limite più importante deciso dall’accordo di Parigi sul clima. I due record sono stati confermati da Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa di osservazione della Terra, e dalle principali agenzie del Regno Unito e del Giappone che effettuano analisi del clima. Nei mesi scorsi diversi osservatori e l’Organizzazione meteorologica mondiale delle Nazioni Unite avevano anticipato che con ogni probabilità il 2024 sarebbe stato l’anno più caldo, superando il precedente record fissato appena nel 2023.Copernicus ha calcolato un aumento della temperatura media globale per il 2024 di 1,6 °C, l’Agenzia meteorologica del Giappone di 1,57 °C e il Met Office britannico di 1,53 °C. La lieve differenza è dovuta ai set di dati e alle metodologie impiegate nel calcolo delle rilevazioni, ma è ampiamente entro il margine di errore per questo tipo di analisi. Entro la fine della settimana saranno diffusi anche i rapporti della NASA e della National Oceanic and Atmospheric Administration, le due principali agenzie statunitensi che si occupano di analizzare l’andamento del clima, e ci si attendono valori analoghi.
    Il superamento della soglia di 1,5 °C era dato per scontato da diverso tempo, anche in considerazione dei dati sulla scorsa estate, che era già risultata la più calda mai registrata. Il riferimento per valutare l’andamento della temperatura media globale sono gli ultimi decenni dell’Ottocento, quando i livelli di industrializzazione erano bassi e di conseguenza l’immissione nell’atmosfera di grandi quantità di anidride carbonica (il principale gas serra) derivante dalle attività umane era scarso. I responsabili di Copernicus e delle altre agenzie hanno ricordato che la principale causa dell’aumento della temperatura media globale è proprio l’accumulo di gas serra, dovuto soprattutto all’utilizzo dei combustibili fossili.
    (Copernicus)
    Secondo i dati di Copernicus, il 2024 è stato di 0,12 °C più caldo rispetto al 2023 ed è stato di 0,72 °C più caldo rispetto alla media del periodo 1991-2020. Tutti i mesi da gennaio a giugno del 2024 sono stati più caldi degli stessi mesi negli anni precedenti, da quando si raccolgono questi dati. Agosto è stato pressoché caldo come agosto 2023 e i restanti mesi del 2024 sono stati i secondi più caldi rispetto ai corrispondenti del 2023. Nel complesso, gli ultimi 10 anni sono stati i più caldi mai registrati.
    (Copernicus)
    Oltre alle emissioni dovute al consumo di combustibili fossili, sull’aumento della temperatura media globale hanno anche inciso gli effetti del Niño, l’insieme di fenomeni atmosferici che si verifica periodicamente nell’oceano Pacifico e che influenza il clima di gran parte del pianeta, portando tra le altre cose a un aumento della temperatura e a una riduzione delle precipitazioni. El Niño aveva interessato soprattutto il 2023, ma alcuni suoi effetti residui hanno influenzato parte del 2024. Per contro, la grande produzione di particolato (polveri e gas in sospensione nell’aria) dovuta all’enorme eruzione sottomarina del vulcano Tonga-Hunga Ha’apai nel gennaio del 2020 ha in parte riflesso i raggi solari, riducendo il calore.
    Lo scorso giugno l’Organizzazione meteorologica mondiale aveva stimato che almeno un anno tra il 2024 e il 2028 avrebbe superato il limite degli 1,5 °C, segnalando che in quel periodo un singolo anno potrebbe raggiungere un aumento di 1,9 °C rispetto ai livelli del 1850-1900. Il rapporto indicava anche una probabilità del 47 per cento che la media di cinque anni superi la soglia di 1,5 °C.
    Il superamento temporaneo della soglia di 1,5 °C non implica che l’accordo di Parigi non abbia più senso di esistere. Il documento su cui si sono messi d’accordo praticamente tutti i governi del mondo è riferito al decennio in corso e ha come obiettivo di arrivare al 2030 con una media dell’aumento di temperatura che non superi quella soglia. Con gli attuali andamenti è però molto probabile che entro il 2030 venga mancato l’obiettivo.
    Il superamento della soglia non significa che i danni saranno immediati o universali, ma che aumenterà la probabilità di avere eventi atmosferici estremi, più costosi da affrontare e a cui adattarsi. Ondate di calore, uragani, inondazioni e siccità diventeranno ancora più frequenti e intensi, con maggiori rischi per la diffusione di malattie e un aumento dei flussi di persone legati alle migrazioni climatiche. La fusione delle calotte glaciali in Groenlandia e Antartide subirebbe un’ulteriore accelerazione; è stato inoltre stimato che ecosistemi vulnerabili come le barriere coralline, che già subiscono gravi danni, potrebbero scomparire del tutto, mentre alcune specie potrebbero non adattarsi rapidamente, portando a estinzioni locali o a livello globale. LEGGI TUTTO

  • in

    Formiche VS umani

    Caricamento playerGli esseri umani e le formiche hanno diverse cose in comune, anche se non è forse la prima cosa che viene in mente quando pensiamo alla nostra specie. Come gli esseri umani, le formiche sono animali sociali, comunicano costantemente tra loro e hanno una certa abilità a spostare oggetti di grandi dimensioni cooperando. E proprio quest’ultima caratteristica ha ispirato un gruppo di ricerca dell’Istituto Weizmann per le Scienze in Israele, per capire quali livelli di efficienza si possono raggiungere attraverso la collaborazione.
    Come racconta in uno studio da poco pubblicato sulla rivista scientifica PNAS, il gruppo di ricerca si è chiesto chi sia più abile nel muovere e nello spostare un oggetto di grandi dimensioni, tali da rendere difficoltoso il suo trasferimento attraverso stretti passaggi. Sono meglio le formiche o gli esseri umani, e c’è una qualche differenza nel caso in cui lavorino da soli o in gruppi?
    Il test principale dell’esperimento è stato sviluppato sulla falsa riga del “rompicapo dei traslocatori di pianoforte”, un problema usato spesso nell’ambito della robotica che consiste nello spostare un oggetto ingombrante e con una forma elaborata attraverso un ambiente complesso. Il test serve per valutare le capacità e le possibilità di risoluzione del problema da parte del sistema, in simulazioni al computer o reali.
    Al posto del pianoforte, il gruppo di ricerca ha realizzato un oggetto a forma di “T”, che doveva essere spostato attraverso tre ambienti separati da due pareti. Su ciascuna di queste c’era un’apertura che consentiva il passaggio della T di misura e solo dopo alcune manovre, escludendo quelle per far passare l’oggetto di taglio mettendolo in verticale. Sviluppato il test, il gruppo di ricerca aveva poi realizzato versioni in scala per gli esseri umani e le formiche, in modo da mantenere le giuste proporzioni.
    (PNAS)
    Gli umani sono stati selezionati con un classico reclutamento di volontari per partecipare a un esperimento scientifico, mentre le formiche hanno aderito all’iniziativa loro malgrado con l’illusione di poter portare una T edibile nel loro formicaio, per consumarla in un secondo tempo (altrimenti l’avrebbero ignorata). Per l’esperimento sono state selezionate formiche appartenenti alla specie Paratrechina longicornis, chiamate colloquialmente “formiche pazze” per la loro tendenza a correre in giro di continuo, solo all’apparenza senza uno scopo. Sono formiche piuttosto comuni, di colore scuro e lunghe in media circa 3 millimetri, ma con una grande capacità di sollevare pesi, un tratto molto comune per questi insetti.
    Il gruppo di ricerca ha organizzato tre diversi tipi di test cercando di mantenere un certo equilibrio tra le due specie partecipanti. In una prima prova, la forma a T doveva essere spostata individualmente, nella seconda da un gruppo di sette formiche o di 6-9 persone e nella terza da un gruppo più grande: 80 formiche contro 26 persone (le dimensioni delle T variavano a seconda delle prove).
    Per rendere ancora più equo il confronto, in alcuni casi il gruppo di ricerca aveva chiesto ai volontari di non parlare tra loro mentre effettuavano il test, indossando inoltre una mascherina chirurgica e degli occhiali da sole per ridurre la comunicazione non verbale. Le formiche, del resto, non parlano tra loro, ma comunicano per lo più disseminando segnali chimici sotto forma di tracce di particolari sostanze (feromoni) che percepiscono con le loro antenne.
    Come prevedibile, nel test individuale gli umani hanno mostrato di avere maggiori capacità di pianificazione e di comprensione degli ostacoli da superare, per far passare la T attraverso i tre ambienti. Nei test di gruppo le cose sono andate invece diversamente: le formiche si sono comportate meglio che nelle prove individuali e in alcuni casi hanno ottenuto risultati migliori rispetto agli umani. Nel test di gruppo con il maggior numero di individui le formiche hanno dato il meglio, mostrando la capacità di sfruttare una sorta di memoria collettiva per tenere traccia delle manovre già effettuate e di quelle più promettenti per superare gli ostacoli.

    Gli umani si sono invece rivelati meno efficienti nei test di gruppo, soprattutto nel caso di restrizioni applicate per rendere l’esperimento il più simile possibile alle condizioni in cui veniva svolto anche dalle formiche. Il gruppo di ricerca ha notato che i partecipanti tendevano a privilegiare scelte che nel breve periodo apparivano più remunerative, anche se non lo erano poi nel lungo periodo per ottenere il risultato finale con l’arrivo nel terzo ambiente.
    Ofer Feinerman, il coordinatore della ricerca, ha raccontato che: «Una colonia di formiche è in effetti una famiglia. Tutte le formiche del nido sono sorelle e hanno interessi comuni. È una società a maglie strette dove la cooperazione supera di gran lunga la competizione».
    Lo studio porta ulteriori conferme a quanto osservato in precedenza, e cioè che le formiche si rivelano più intelligenti quando agiscono in gruppo, mentre questo non è necessariamente vero per gli esseri umani. Oltre a permettere di scoprire particolari del comportamento animale, studi di questo tipo possono essere utili per approfondire le conoscenze sulle dinamiche dei gruppi, ma anche per elaborare nuovi modelli computazionali per la risoluzione di problemi complessi. LEGGI TUTTO