More stories

  • in

    In Nuova Zelanda si è spiaggiato uno dei cetacei più rari al mondo

    Caricamento playerSulle spiagge della provincia di Otago, in Nuova Zelanda, è stato trovato un grosso cetaceo spiaggiato che si ritiene sia una balena dai denti a pala, o mesoplodonte di Travers (Mesoplodon traversii), considerata la specie di cetacei più rara del mondo: non ne è mai stata avvistata una viva. Per confermarne l’identificazione comunque occorrerà aspettare i risultati dei test del DNA, per cui ci vorrà qualche settimana.
    La balena dai denti a pala (che tecnicamente non è una balena, ma un cetaceo dello stesso sottordine dei delfini) è un mammifero che si ritiene viva principalmente nell’oceano Pacifico meridionale. Probabilmente gli individui della specie passano la maggior parte del tempo in acque profonde, per cui è particolarmente difficile incontrarne. Proprio per questo non conosciamo praticamente nulla del loro comportamento, anche se si suppone sia per molti versi simile a quello di altri cetacei di specie imparentate.
    La scoperta sulla spiaggia di Otago, avvenuta vicino alla cittadina di Taieri Mouth, è ritenuta particolarmente promettente dagli scienziati perché la carcassa di cinque metri era in un buono stato di conservazione. Trevor King, il professionista che si è occupato dello spostamento del corpo dalla spiaggia a una cella frigorifera, ha detto al Washington Post che l’animale doveva essere morto da molto poco quando è stata recuperata, dato che non puzzava.
    La Nuova Zelanda deve occuparsi spesso di cetacei spiaggiati sulle proprie coste, e ha quindi elaborato un sistema piuttosto rapido per gestire le carcasse. Questo include la consultazione con le comunità māori, la popolazione nativa della Nuova Zelanda, che vivono nell’area in cui vengono trovate. Le balene sono animali sacri per i māori, e si possono prelevare dei campioni solo nel caso in cui la comunità dia il proprio assenso. In questo caso i campioni sono stati inviati all’Università di Auckland (la città principale del paese). Intanto le autorità neozelandesi stanno collaborando con Te Runanga o Otakou, la comunità māori che vive nella zona del ritrovamento, per decidere come gestire il corpo del cetaceo spiaggiata.

    – Leggi anche: Il disco con i canti delle balene che fece gli interessi delle balene

    Secondo Kirsten Young, una ricercatrice dell’Università di Exeter (in Inghilterra) che si era occupata di alcuni dei ritrovamenti precedenti, il buono stato di conservazione della balena dai denti a pala trovata a luglio potrebbe permettere di dissezionarla: sarebbe il primo caso in cui gli scienziati riescono a farlo.
    Finora sono stati trovati solamente sette campioni di balena dai denti a pala, di cui quattro completi: il primo fu un frammento di mandibola inferiore trovato sull’isola di Pitt, nelle isole Chatham (vicino alla Nuova Zelanda) nel 1874. Il suo scopritore fu il naturalista Henry Travers, a cui è stata poi intitolata la specie. Sulla mandibola c’erano anche due denti rettangolari, che ricordavano le pale usate dai balenieri per separare lo strato di grasso delle balene dalla pelle.

    – Leggi anche: Non siamo così d’accordo su cosa sia davvero una specie

    Negli anni Cinquanta fu trovato un frammento di cranio a White Island, sempre in Nuova Zelanda, e nel 1993 ne fu trovato un altro sull’isola Robinson Crusoe, in Cile: solo nel 2002 i tre frammenti furono riconosciuti come appartenenti alla stessa specie.
    Il primo individuo intero fu trovato solo nel 2010: una femmina adulta e un cucciolo si spiaggiarono nella regione di Bay of Plenty, nel nord della Nuova Zelanda. Furono le prime balene coi denti a pala complete a essere trovate, ma furono identificate come tali solo nel 2012. Nel 2017 fu trovata un’altro individuo spiaggiato, sempre in Nuova Zelanda. In quei casi però non fu possibile studiarne approfonditamente i corpi, a causa del loro deterioramento.

    – Ascolta anche: “Sonar”, un audio documentario sui modi in cui il suono e il linguaggio costruiscono la realtà LEGGI TUTTO

  • in

    Il sistema della “peer review” è pieno di problemi

    La revisione tra pari – traduzione letterale dell’espressione inglese peer review, piuttosto diffusa anche in Italia – è il più utilizzato e conosciuto sistema di valutazione preliminare delle ricerche scientifiche. Tutte quelle che finiscono sulle riviste più autorevoli devono infatti essere valutate da revisori volontari non coinvolti nella ricerca, che ne verificano l’affidabilità prima della pubblicazione. Da diversi anni il processo di revisione basato sulla peer review, considerato un fondamento della ricerca scientifica, è però oggetto di molte discussioni tra gli stessi scienziati.Da una parte c’è chi ritiene che alcuni limiti e storture di questo sistema, che possono condizionare le pubblicazioni in modo significativo ed eclatante, e ridurre la fiducia collettiva nella scienza, siano cresciuti nel tempo al punto da richiedere complicati ma necessari interventi correttivi. Dall’altra parte c’è chi contrappone alle preoccupazioni attuali la convinzione che, per quanto imperfetta, la peer review rimanga comunque il miglior modo di giudicare la ricerca scientifica tra tutti gli altri possibili, e che non esista un solo modo universalmente valido per migliorarla.
    Nel suo recente libro Rescuing science: restoring trust in an age of doubt, uscito a marzo negli Stati Uniti, l’astrofisico e divulgatore scientifico statunitense Paul Sutter ha scritto della progressiva perdita di fiducia nella scienza in una parte della società, e dei possibili modi per provare a ripristinarla ed estenderla. In un capitolo del libro dedicato alle frodi scientifiche e ripubblicato sul sito Ars Technica, Sutter ha posto l’attenzione su quello che secondo lui e secondo molti altri è uno dei fattori più influenti nell’attuale crisi della peer review: la pressione a pubblicare il più possibile per avere successo in ambito accademico. È un problema discusso da tempo, sintetizzato attraverso l’aforisma publish or perish, “pubblica o muori”.
    Il successo di questo approccio deriva dal fatto che le pubblicazioni in generale attirano l’attenzione – e di conseguenza gli investimenti – non solo verso gli autori e le autrici, ma anche verso le università e gli enti che sostengono il loro lavoro. Ma è anche una delle principali cause della proliferazione delle cosiddette “riviste predatorie”: riviste di scarsa qualità il cui modello di business si basa sulla pubblicazione di articoli scientifici dietro compenso e su processi di peer review poco rigorosi o del tutto assenti.
    È un fenomeno che interessa ambiti eterogenei della ricerca, per esempio anche quella oncologica, come scritto in un articolo pubblicato a maggio sulla rivista principale della Società americana di oncologia clinica. «L’eccessivo affidamento sulla quantità piuttosto che sulla qualità dei risultati della ricerca viene utilizzato per migliorare la visibilità internazionale e il posizionamento delle università e delle istituzioni», hanno scritto gli autori e le autrici dell’articolo.

    – Leggi anche: Un disonesto studio sull’onestà

    La pratica della peer review risale a un’epoca precedente la diffusione dei computer, in cui gli argomenti e le analisi che portavano a trarre una certa conclusione in fondo a un articolo erano di solito contenuti nell’articolo stesso, ha scritto Sutter. Eventuali errori potevano essere notati e segnalati perché le informazioni necessarie per la valutazione erano disponibili e a portata di mano, diversamente da quanto succede nel contesto attuale. Molte delle informazioni contenute in milioni di articoli pubblicati ogni anno non sono disponibili per il pubblico perché sono ottenute tramite software per computer non utilizzabili da altri scienziati nella revisione, ha scritto Sutter.
    La ragione per cui gli autori e le autrici degli articoli non rendono disponibile tutto il codice delle loro ricerche, secondo lui, «si riduce allo stesso motivo per cui gli scienziati non fanno molte cose che potrebbero migliorare il processo scientifico: non ci sono incentivi». Rendere disponibili le informazioni e il codice dei software utilizzati non migliora il profilo accademico degli scienziati: solo pubblicare articoli lo fa, perché migliora l’indice H (una misura della prolificità e dell’impatto scientifico di un autore o un’autrice, che si basa sul numero delle pubblicazioni e sul numero di citazioni ricevute). È una questione rilevante perché condiziona pesantemente il lavoro del revisore: «Come posso giudicare la correttezza di un articolo se non riesco a vedere l’intero processo?», si è chiesto Sutter.
    La peer review è descritta da ormai molti anni come un sistema sostanzialmente «rotto» perché in moltissimi casi non riesce più a garantire l’integrità della ricerca: che è esattamente lo scopo per cui era stato pensato di introdurla. I revisori non hanno né il tempo né la voglia di valutare le nuove ricerche «con un pettine a denti fini», ha scritto Sutter. E nei casi in cui qualcuno si prende la briga di esaminarle più a fondo e segnala un problema – che sia un errore in buonafede o una presunta frode scientifica – gli articoli contestati possono essere rigirati dall’editore della rivista ad altri revisori meno scrupolosi, o essere pubblicati su altre riviste.

    – Leggi anche: C’è un dibattito su un articolo scientifico con immagini senza senso

    Al problema dell’indisponibilità dei dati delle ricerche è associato anche, secondo Sutter, un fenomeno più ampio noto come «crisi della replicazione». Definisce una progressiva e preoccupante riduzione della tendenza a riprodurre gli esperimenti, che è invece un valore fondamentale nella pratica scientifica, tanto più in un contesto in cui la replicabilità è scoraggiata dalla grande quantità di dati e di strumenti necessari. Replicando un esperimento come descritto in un articolo pubblicato su una rivista, uno scienziato concorrente può ottenere lo stesso risultato o uno diverso: entrambi i casi determinano un progresso scientifico. Il problema è che i risultati di un esperimento replicato hanno in generale uno scarso valore di «appeal» per le riviste scientifiche, perché sono giudicate meno importanti sul piano della conoscenza che permettono di acquisire, secondo Sutter.
    «Gli studi di replicazione non vengono pubblicati su riviste ad alto impatto, e gli autori di studi di replicazione non ricevono tante citazioni per il loro lavoro. Ciò significa che il loro indice H è più basso, il che riduce le loro possibilità di ottenere sovvenzioni e promozioni», ha spiegato Sutter. Le condizioni attuali nella ricerca scientifica sono tali da creare uno squilibrio profondo tra la quantità piuttosto esigua di ritrattazioni e correzioni da una parte, e la quantità di frodi scientifiche dall’altra, difficile da ridurre perché nessuno ha sviluppato un sistema efficiente e tempestivo per farlo. «Il tipo di indagini che portano a ritrattazioni o correzioni complete non vengono effettuate abbastanza spesso e, nel frattempo, viene pubblicata troppa scienza», ha scritto Sutter.
    Come spesso segnalato dal blog Retraction Watch, che si occupa di ritrattazioni di articoli scientifici, le frodi scientifiche tendono a essere scoperte troppo tardi e con ripercussioni minime o nulle. E intanto nessuno ha il tempo di leggere tutti gli articoli scientifici importanti nel proprio campo, perché «ogni scienziato scrive quanto più possibile, senza scavare davvero nella letteratura esistente, aggiungendo altro rumore», ha scritto Sutter, citando come esempio il suo campo, l’astrofisica, in cui ogni giorno – festivi inclusi – «vengono pubblicati dai 40 ai 60 nuovi articoli».
    Molti scienziati condividono l’idea che la principale ragione degli attuali limiti della ricerca non sia la malafede di chi la fa, ma piuttosto una serie di incentivi tipici di un mercato concorrenziale, in presenza dei quali «è facile convincersi che quello che stai facendo non è davvero una frode», ha scritto Sutter. Non rendere disponibile il codice delle proprie ricerche, per esempio, è visto da alcuni scienziati come una legittima protezione del proprio investimento di tempo e risorse, e un modo di non dare vantaggi competitivi a scienziati concorrenti. Altri sono più inclini a considerare eventuali revisioni con esito negativo un atto irragionevolmente severo, anziché una fondamentale forma di collaborazione tra scienziati, e sono quindi portati a pubblicare per altre vie – anche a proprie spese – i propri articoli piuttosto che ritirarli o rivederli.

    – Leggi anche: Il caso che sta agitando le scienze comportamentali

    Da qualche tempo una delle più condivise proposte per cercare di migliorare il sistema delle peer review è retribuire le revisioni, che al momento sono perlopiù il risultato di un lavoro volontario e spesso anonimo. Come scritto sulla rivista Undark dal biologo statunitense Brandon Ogbunu, professore di ecologia e biologia evolutiva alla Yale University, sarebbe un modo di riequilibrare il modello di business delle riviste, che attualmente si regge sugli abbonamenti da parte delle biblioteche e di altre istituzioni, e spesso anche sulle quote pagate dai singoli ricercatori per farsi pubblicare un articolo. «Il tutto mentre le riviste utilizzano manodopera gratuita o a basso costo da parte di redattori e revisori», ha scritto Ogbunu.
    Sebbene la maggior parte della ricerca negli Stati Uniti benefici di finanziamenti pubblici, attraverso due principali agenzie governative (la National Science Foundation e il National Institutes of Health), i risultati di quella ricerca sono spesso accessibili solo dietro pagamento. Il che significa, ha scritto Ogbunu, che sono accessibili solo per le istituzioni che possono permettersi gli abbonamenti e, molto più raramente, per gli individui che pagano da sé. Molte delle riviste open access, i cui articoli sono invece accessibili gratuitamente, addebitano ai ricercatori e alle ricercatrici costi «esorbitanti» per la pubblicazione.
    Una ricerca pubblicata nel 2023 dalla rivista Quantitative Science Studies ha stimato l’importo totale delle spese sostenute dagli autori e dalle autrici di articoli scientifici pubblicati tra il 2015 e il 2018 su riviste open access controllate dai cinque maggiori editori commerciali (Elsevier, Sage, Springer Nature, Taylor & Francis e Wiley). Secondo i risultati della ricerca, gli autori e le autrici avrebbero pagato complessivamente 1,06 miliardi di dollari in commissioni per la pubblicazione.
    Secondo Ogbunu e altri ricercatori, tra cui Lex Bouter, professore di deontologia della ricerca scientifica alla Vrije Universiteit ad Amsterdam, il sistema attuale premia molto più la produttività individuale e i comportamenti egoistici che i contributi collettivi al sistema stesso. Si è creata cioè «una discrepanza tra i desideri e i bisogni dei singoli scienziati, e lo sforzo necessario per gestire un’impresa scientifica sostenibile, in cui i giudizi dei nostri colleghi sono necessari», ha scritto Ogbunu.
    L’importanza del sistema della peer review si basa però sul presupposto che le persone valuteranno attentamente il lavoro altrui per buona volontà, o che gli autori riconosceranno le ore di lavoro richieste ai revisori restituendo in seguito il favore. Ogbunu, che è un ricercatore relativamente giovane, ha scritto di come i suoi mentori gli abbiano suggerito di rinunciare alla revisione degli articoli e di concentrarsi piuttosto sui suoi. È un suggerimento che determina però una grave stortura, perché «la peer review di qualità è ciò che ci dà la certezza che la ricerca che leggiamo sulle riviste sia di qualità», ha aggiunto.
    Il problema è che praticamente nessuno è mai stato promosso o ricompensato in modo significativo e diretto perché ha fornito ottime recensioni del lavoro altrui, ha aggiunto. Banalmente, le prospettive di carriera accademica sono migliori per chi scrive articoli che per chi partecipa alla loro valutazione. Considerando che molti articoli di grande impatto scientifico sono stati il risultato del lavoro di due o tre revisori, per mantenere una sorta di «equilibrio energetico», ha scritto Ogbunu, servirebbe invece che ogni ricercatore o ricercatrice rivedesse due o tre articoli per ciascun articolo da lui o da lei pubblicato in qualità di autore principale o autore corrispondente (corresponding author, chi è incaricato di gestire le comunicazioni con i revisori).

    – Leggi anche: Come capire le ricerche scientifiche

    Sebbene la peer review sia spesso considerata un’impresa collettiva della comunità scientifica, in pratica solo una piccola parte della comunità svolge la maggior parte del lavoro. Secondo uno studio del 2016 condotto sulle riviste di area biomedica, per esempio, il 20 per cento dei ricercatori e delle ricercatrici era stato responsabile del 94 per cento delle peer review degli articoli usciti nel 2015.
    Diversi scienziati concordano nel ritenere che il lavoro di revisione dovrebbe essere valorizzato e migliorato, ma non esistono proposte universalmente condivise e la cui accettazione non comporti una serie di altri rischi di tipo diverso. Rimuovere l’anonimato in fase di revisione degli articoli, rendendo pubblico agli autori il nome dei revisori e ai revisori il nome degli autori, negherebbe un principio alla base dell’imparzialità della revisione e dell’integrità della ricerca. Ma l’anonimato, come scritto nel 2022 sul sito The Conversation da un gruppo di ricercatrici e ricercatori di diverse università, può anche rendere il processo meno trasparente e responsabilizzante, a scapito della qualità delle revisioni. In concreto, poi, una volta ricevuto l’incarico da un editore, molti revisori cercano comunque di scoprire subito il nome degli autori dell’articolo che devono revisionare, per semplificare e accelerare il lavoro.
    Anche l’offerta di incentivi economici per le peer review potrebbe generare a sua volta altre storture, ha scritto il gruppo di ricercatrici e ricercatori su The Conversation. Ma in generale è abbastanza condivisa l’idea che il modello attuale fornisca incentivi principalmente ai comportamenti egoistici, sia nel caso di revisori più anziani che di revisori giovani. I più anziani non sono incentivati perché la loro stabilità economica non dipende dalla partecipazione ai processi di revisione, ha scritto Ogbunu su Undark. E i più giovani non sono incentivati perché sono più concentrati sulla loro produttività, determinante per l’ascesa professionale.
    Questa situazione determina una difficoltà generale a trovare revisori competenti, anche per riviste prestigiose. Anche le ricercatrici e i ricercatori più giovani potrebbero e dovrebbero partecipare ai processi di revisione più di quanto non avvenga attualmente, secondo Ogbunu, perché molte e molti di loro sono qualificati per farlo e avrebbero da guadagnarci anche sotto l’aspetto formativo.
    Oltre che un rischio per la qualità e per l’integrità della ricerca, i problemi attuali della peer review determinano anche rischi per l’innovazione, perché riducono l’eterogeneità di prospettive e vedute che è invece necessaria per la valutazione delle ricerche scientifiche. «Senza un gruppo ampio e diversificato di revisori, un numero relativamente piccolo di individui dà forma al lavoro che finisce nelle riviste», ha scritto Ogbunu. E anche se sono persone serie e affidabili, «i loro pregiudizi – metodologici o di altro tipo – sicuramente distorcono il tipo di ricerca che finisce nelle pagine delle nostre riviste preferite».

    – Leggi anche: Il problema nello studiare gli psichedelici LEGGI TUTTO

  • in

    Weekly Beasts

    I procioni sono originari del Nord America, ma negli ultimi decenni si sono diffusi anche in aree urbane di altri paesi del mondo dove erano stati portati come animali da compagnia o come attrazioni all’interno di zoo privati. Sono animali con grandi capacità di adattamento agli ambienti nuovi e sono rapidi a riprodursi, per cui si trovano bene nelle città, dove mangiano dalle ciotole degli animali domestici e dai bidoni della spazzatura e fanno vari danni. A Francoforte sull’Oder, dove vivono i due procioni presenti in questa raccolta, ne vennero introdotti due sul territorio novanta anni fa e oggi ci sono quel tipo di problemi. Tra gli altri animali un longhorn del Texas tra le strade di una cittadina in Pennsylvania, un pangolino nato da poco, una capra nubiana e un orso polare e un chea – sapete cosa è un chea (o kea)? – alle prese con rimedi contro il caldo. LEGGI TUTTO

  • in

    In Antartide gli scienziati sviluppano una lingua loro

    Caricamento playerUno degli effetti di solito meno notati e discussi della globalizzazione e della diffusione delle nuove tecnologie di comunicazione di massa è la progressiva scomparsa degli accenti, cioè i particolari modi di pronunciare le parole parlando una stessa lingua. Generalmente la particolarità di un accento tipico di un certo luogo riflette infatti l’isolamento di quel luogo. Ma dal momento che quasi tutti i luoghi del mondo sono oggi meno isolati che mai, gli accenti sono diventati meno distintivi e le differenze tra l’uno e l’altro meno evidenti. C’è però un luogo della Terra che è rimasto piuttosto isolato da tutti gli altri nel tempo, scelto per condurre alcune ricerche recenti su come evolvono le lingue parlate e gli accenti in ambienti non esposti alle normali influenze esterne: l’Antartide.
    Per via della sua posizione – l’estremo sud del pianeta – e delle sue caratteristiche geografiche e climatiche, l’Antartide è un continente abitato soltanto per periodi di tempo limitati e per fini scientifici, da gruppi di persone di diversi paesi del mondo, inclusa l’Italia. È una specie di enorme laboratorio di ricerca, in cui persone con lingue madri diverse parlano tra loro l’inglese come lingua comune. Alcuni studi di linguistica recenti, tra cui uno condotto in Antartide dalla ricercatrice inglese Stephanie Kaefer, della University of Canterbury, hanno analizzato l’evoluzione della lingua parlata nelle stazioni di ricerca. L’inglese colloquiale di ricercatori e ricercatrici, secondo i risultati degli studi, ha caratteristiche condivise che non erano presenti nell’inglese che parlavano prima della loro esperienza comune in Antartide.
    Nel 2019 Kaefer trascorse tre settimane in tre diverse stazioni antartiche, per raccogliere dati e informazioni. Scoprì un aspetto già emerso da studi precedenti, e cioè che parte del vocabolario comune utilizzato dai ricercatori e dalle ricercatrici era molto figurato. Ciascuna stazione aveva però espressioni colloquiali distinte. I nuovi arrivati in Antartide, per esempio, sono chiamati nella stazione statunitense fingies, da F.N.G.s: un’abbreviazione presa in prestito dal gergo militare, che significa Fucking New Guy (“nuova recluta del cazzo”, o qualcosa del genere). Nella stazione inglese invece sono chiamati fidlets, che deriva da Falkland Islands Dependencies, il nome del programma nazionale di ricerca britannico in Antartide prima che diventasse British Antarctic Survey (BAS) nel 1962.

    – Leggi anche: Nove mesi isolata in Antartide

    Per definire un’escursione non lavorativa all’esterno della stazione gli statunitensi dicono boondoggle (“perdita di tempo e denaro”), gli inglesi jolly (“gita”). La motoslitta – snowmobile, fuori dall’Antartide – si chiama snow machine (“macchina da neve”) nella stazione statunitense, doo in quella inglese (da ski-doo, “motoslitta”). Nella stazione neozelandese si usano parole originali assenti in altre stazioni, ha scritto Kaefer, come nose wipers (“tergi-naso”), per definire i grandi guanti protettivi utilizzati in condizioni meteorologiche estreme, e tray’d (tray è il “vassoio da portata”), un verbo utilizzato per indicare – you’ve been tray’d! – l’ultima persona che infila un piatto sporco nella lavastoviglie e a cui tocca quindi azionarla e poi svuotarla, da protocollo informale utilizzato nella stazione.
    È molto difficile capire esattamente come certe parole inglesi siano diventate di uso comune all’interno delle stazioni in Antartide, secondo Kaefer. Ma l’isolamento è probabilmente un fattore influente nei complessi fenomeni linguistici per cui parole ormai largamente in disuso possono rimanere attuali. «È possibile che quando cominciammo a costruire stazioni di ricerca negli anni Cinquanta e Sessanta parole come boondoggle fossero comuni, e siano all’epoca diventate una parte normale del discorso per poi acquisire una vita propria nella cultura antartica», ha detto Kaefer al Guardian.
    In generale le lingue vengono trasferite di generazione in generazione in periodi lunghi, all’interno delle comunità. I contatti tra una comunità di parlanti e l’altra determinano la diffusione di caratteristiche linguistiche che possono portare a successive innovazioni. Diversi studi citati da Kaefer mostrano come questi processi siano tendenzialmente più rapidi all’interno di comunità che esistono in ambienti isolati e con popolazioni adulte miste. Questo perché in quel tipo di ambienti i contatti tra membri che parlano diverse varietà di una stessa lingua sono più stretti e frequenti rispetto al normale. Di conseguenza nuovi dialetti possono emergere nel giro di due o tre generazioni.

    – Leggi anche: La prospettiva di un mondo in cui non si studiano più le lingue straniere

    Nel gergo di chi fa ricerca scientifica l’Antartide – come anche lo Spazio – non è però un ambiente isolato come altri: è definito un ambiente ICE, un acronimo per «isolato, confinato ed estremo». «Dicono che sia più veloce raggiungere qualcuno sulla Stazione Spaziale Internazionale che portare fuori qualcuno dall’Antartide per ragioni mediche in inverno», ha detto a BBC Marlon Clark, uno scienziato del British Antarctic Survey. Durante le 26 settimane invernali di buio quasi ininterrotto e clima rigido, gli scienziati in Antartide lavorano, mangiano e socializzano rimanendo a stretto contatto quasi per tutto il tempo, incluso quello libero dal lavoro. Dato che il telefono funziona solo via satellite, le chiamate ai familiari sono costose e quindi relativamente limitate.
    La stazione permanente di ricerca inglese Halley nella piattaforma di ghiaccio Brunt, lungo la costa della Terra di Coats, in Antartide, il 23 gennaio 2023 (ANSA-ZUMAPRESS)
    In questo tipo di ambienti, ha scritto Kaefer, il vocabolario può cambiare più lentamente che in altre comunità isolate, come nel caso da lei citato della sopravvivenza della parola boondoggle. «È un fenomeno linguistico molto interessante, per cui le parole si preservano o si fossilizzano, in Antartide, perché la lingua non fa tanto avanti e indietro», ha detto.
    L’Antartide non ha una popolazione nativa né residenti permanenti, ma soltanto una comunità transitoria di scienziati e personale di supporto che vive lì per una parte dell’anno, a rotazione. Nei mesi estivi vivono in Antartide circa 5mila persone, mentre nei mesi invernali soltanto mille. Come raccontato da Clark a BBC, i residenti delle basi di ricerca hanno sviluppato nel tempo una sorta di gergo condiviso, un linguaggio pieno di sfumature e fatto di parole che significano poco per chi viene da fuori. «Se è una bella giornata limpida, diciamo dingle day, e se stai uscendo a portare fuori la spazzatura stai facendo un fod plod [plod significa “scarpinata”]», ha detto Clark.
    Anche l’accento degli scienziati in Antartide subisce una serie di cambiamenti. Dal 2017 in poi un gruppo di ricerca dell’università tedesca Ludwig Maximilian, a Monaco di Baviera, condusse per diversi anni una ricerca sull’evoluzione fonetica dell’inglese parlato da undici scienziati “invernali” della British Antarctic Survey nel corso del tempo: otto erano inglesi, uno statunitense, uno tedesco e uno islandese. I risultati, pubblicati in un primo articolo scientifico nel 2019, mostrarono che gli scienziati avevano progressivamente sviluppato un accento comune, che lo volessero o no, attraverso interazioni che avevano causato «un aggiornamento incrementale della produzione vocale».

    – Leggi anche: Ci sono lingue più “veloci” di altre

    Durante l’inverno antartico, a intervalli di sei settimane, il gruppo di ricerca effettuò di anno in anno una serie di registrazioni di parole pronunciate dagli scienziati, scelte tra quelle che utilizzavano più di frequente e che contenevano suoni vocalici noti perché differiscono nei vari accenti inglesi. Le registrazioni furono poi confrontate tra loro per misurare tramite strumenti informatici l’evoluzione della pronuncia nel tempo.
    Lo studio riscontrò nell’inglese parlato nella stazione una sostanziale «convergenza» fonetica, il fenomeno linguistico per cui persone a stretto contatto cominciano inconsciamente ad acquisire caratteristiche linguistiche omogenee e uniformi all’interno del gruppo. Trascorso un certo periodo, gli scienziati cominciavano in particolare a pronunciare allo stesso modo i suoni /u/ (quello delle vocali “oo” in parole come goose, “oca”), /ju/ (“you” in few, “pochi”), /ɪ:/ (“ee” in happy, “felice”) e /ou/ (“oh” in goat, “capra”, ma anche acronimo di “greatest of all time”).
    L’evoluzione fonetica dell’inglese parlato dagli scienziati in Antartide era acusticamente misurabile, sebbene non percepibile all’orecchio umano, e confermava diversi fenomeni linguistici noti e in parte prevedibili. In linea generale mostrò che gli adulti possono sviluppare un accento condiviso in un tempo relativamente breve, contrariamente all’idea secondo cui gli accenti degli adulti sono piuttosto stabili. Gli autori e le autrici suggerirono tuttavia di non trarre troppe conclusioni, considerate la limitatezza e l’eccezionalità del campione, che fu peraltro condizionato in particolare da due valori «anomali» e più influenti degli altri, riconducibili alla persona di lingua tedesca e a quella di lingua statunitense.
    Il fatto che le differenze tra le registrazioni in Antartide mostrassero un’evoluzione misurabile della pronuncia, rispetto alle registrazioni di controllo della pronuncia delle stesse parole da parte di parlanti nel Regno Unito, suggerì che l’isolamento incoraggi la formazione di un nuovo accento. Questa conclusione è compatibile con l’ipotesi che, in un arco di tempo sufficientemente lungo, un accento può diventare un dialetto e infine una lingua del tutto separata.
    Il ricercatore Jonathan Harrington, coautore dello studio e professore di fonetica all’università Ludwig Maximilian, spiegò al sito IFL Science che l’accento comune degli scienziati era principalmente una «fusione» degli accenti regionali che avevano prima dell’esperienza in Antartide, ma anche un’innovazione. Era misurabile ma non percepibile all’orecchio di un ascoltatore umano perché era molto «più embrionale» rispetto agli accenti convenzionali, «dato che ha avuto solo poco tempo per svilupparsi e anche, ovviamente, perché è distribuito solo tra un piccolo gruppo di parlanti».

    – Leggi anche: Si può pensare senza linguaggio? LEGGI TUTTO

  • in

    È stato effettuato il primo lancio nello Spazio del razzo europeo Ariane 6

    Mercoledì sera è stato effettuato dalla Guyana francese il lancio inaugurale del razzo Ariane 6, realizzato nell’ambito del programma spaziale “Ariane” dal consorzio europeo Arianespace per conto dell’Agenzia Spaziale Europea. Il programma “Ariane” consiste in una serie di razzi a uso civile, e l’Ariane 6 è il più potente costruito finora dal consorzio: il suo lancio è importante soprattutto perché dovrebbe consentire di gestire lanci spaziali a prezzi più economici e competitivi con quelli dei razzi Falcon 9 di SpaceX. LEGGI TUTTO

  • in

    Cos’ha fatto Parigi per ripulire la Senna in vista delle Olimpiadi

    Caricamento playerMancano meno di tre settimane all’inizio delle Olimpiadi di Parigi, ma ci sono ancora dubbi sulla qualità dell’acqua della Senna, il fiume della città, nel quale si terranno le prove di nuoto nel triathlon, individuale e staffetta mista, e quelle di nuoto di fondo (o nuoto in acque libere), una gara lunga dieci chilometri. Il mese scorso le analisi fatte dall’amministrazione cittadina e regionale avevano evidenziato livelli ancora troppo alti di Escherichia coli, un batterio che può causare infezioni di diversi tipi, soprattutto intestinali; a inizio luglio invece nuove analisi hanno stabilito che l’inquinamento è sceso per la prima volta sotto il limite ritenuto pericoloso per la salute e l’acqua sarebbe quindi, al momento, batteriologicamente “pulita”.
    La Senna è un fiume non balneabile da circa un secolo ma negli ultimi anni, sfruttando proprio l’occasione delle Olimpiadi, è stato investito quasi un miliardo e mezzo di euro per rendere possibile nuotare di nuovo in sicurezza. L’idea è di fare le gare di nuoto olimpiche quest’anno e dall’estate prossima aprire al pubblico alcuni punti del fiume, delimitati da barriere. Per diminuire l’inquinamento del fiume, in particolare la diffusione dei batteri, sono stati fatti principalmente due tipi di interventi: «Abbiamo migliorato gli impianti che distruggono i batteri attraverso l’acido performico e le radiazioni ultraviolette. E abbiamo rinnovato il sistema fognario, per separare la rete dell’acqua piovana da quella delle acque reflue e per renderlo efficace anche nei giorni di pioggia forte», spiega Pierre-Antoine Molina, responsabile delle politiche pubbliche nella regione di Parigi.
    Nei giorni di pioggia infatti la Senna è più inquinata, principalmente perché tutti i sistemi di scolo si riempiono, anche quelli con le acque reflue, che quindi vengono scaricate nel fiume per non far debordare le fogne, e poi perché è più facile che una maggior corrente trasporti rifiuti e batteri lungo il corso. «Con le azioni intraprese stimiamo che, quando il tempo è secco, il 75 per cento dell’inquinamento sarà eliminato, mentre per la pioggia abbiamo costruito bacini di stoccaggio dell’acqua per rendere più resiliente il sistema».
    In particolare, in vista delle Olimpiadi è stato inaugurato il bacino di Austerlitz, un enorme cilindro scavato fino a ottanta metri sotto terra che permette di immagazzinare circa 50mila metri cubi di acqua, per impedire che venga scaricata nella Senna. Negli ultimi giorni le condizioni del fiume sono migliorate soprattutto grazie al meteo, perché è piovuto meno rispetto al periodo precedente: «Abbiamo avuto una primavera eccezionalmente piovosa, ma siamo fiduciosi che nei prossimi giorni vedremo dei miglioramenti», aveva detto Molina il giorno precedente all’uscita delle prime analisi positive.
    Pierre-Antoine Molina sulla Senna, a Parigi (Il Post)
    Le tante autorità coinvolte nel piano (l’amministrazione cittadina e quella regionale, l’autorità fluviale, l’ente che gestisce l’acqua) stanno provando anche a correggere tutti i collegamenti sbagliati tra edifici e impianti di scolo delle acque: sostanzialmente in circa 25mila edifici i tubi e le grondaie dell’acqua di scarico e dell’acqua piovana non erano montati correttamente, e quindi le acque spesso si mischiavano, inquinando la Senna. «Finora abbiamo sistemato più del 40 per cento delle connessioni», dice ancora Molina.
    Tutte le barche permanentemente ormeggiate sulle rive della Senna sono state inoltre collegate al sistema fognario, mentre fino all’anno scorso le house boat, i bar e i ristoranti galleggianti scaricavano le loro acque reflue direttamente nel fiume. I proprietari hanno dovuto spendere circa tra i 10 e i 30mila euro a testa per attaccare le loro barche alle fogne, ricevendo in parte un contributo dalle istituzioni, mentre l’amministrazione ha creato nuovi canali e li ha uniti a un collettore centrale sotterraneo dove verranno raccolte le acque di scarico delle barche.
    «C’è sempre resistenza in Francia quando bisogna cambiare le cose, ma questa non era più rimandabile: ne parlavamo da tantissimo tempo», racconta Jean-Philippe Jacob, che da vent’anni vive su una grande barca ormeggiata sotto il Pont Neuf, nel centro di Parigi. Oltre ad aver collegato la sua barca, Jacob ha contribuito in generale a tutta l’operazione, e sembra piuttosto ottimista sulla pulizia del fiume. «La Senna è sporca quando piove tanto, ma altrimenti era già abbastanza pulita anni fa, è un po’ un mito che sia molto inquinata», dice, anche se in realtà negli anni Sessanta la Senna fu dichiarata “biologicamente morta”.
    La house boat di Jean-Philippe Jacob sulla Senna (Il Post)
    Le prime gare che dovrebbero tenersi nella Senna sono le prove di nuoto del triathlon, una disciplina che comprende anche la corsa e il ciclismo, e sono in programma il 30 e il 31 luglio; il 5 agosto poi ci sarà il triathlon misto, mentre l’8 e il 9 agosto ci saranno le gare femminile e maschile di nuoto di fondo. «Abbiamo contatti regolari con le federazioni, capiamo le loro preoccupazioni perché si parla della salute dei loro atleti, ma abbiamo un livello di trasparenza senza precedenti», spiega ancora Molina, riferendosi soprattutto ai test diffusi periodicamente dall’amministrazione.
    Il nuoto in acque libere presenta del resto sempre una percentuale di rischio, ed è probabile che oggi se ne stia parlando più del solito perché si nuoterà in un fiume in cui legalmente non ci si può tuffare da un secolo; in passato però «ci sono state situazioni forse peggiori, ci è già capitato di nuotare in acque sporche e di avere dei nuotatori che vanno in ospedale per un’intossicazione alla fine di una gara», dice Fabrizio Antonelli, allenatore di diversi nuotatori e nuotatrici italiani e stranieri, tra i quali Gregorio Paltrinieri, che farà la 10 chilometri sulla Senna. Anche prima delle Olimpiadi di Rio de Janeiro del 2016, per esempio, si discusse molto sulla qualità dell’acqua nella Baia di Guanabara, dove si tennero le gare di vela, e di quelle di fronte al Forte de Copacabana, il luogo delle prove di nuoto di fondo. «Le acque libere sono uno sport che per antonomasia prevede un forte spirito di adattamento: ci appelliamo a quello e ci prepariamo al meglio».
    «Dopo aver parlato a lungo con i ragazzi, abbiamo deciso che l’importante è che la gara si faccia, e il comitato organizzatore ci ha garantito che andremo via da Parigi avendo gareggiato», dice Antonelli. Proprio negli ultimi giorni comunque è stato ufficializzato un piano B nel caso in cui le condizioni della Senna non consentano di gareggiare in sicurezza: prevede lo spostamento allo stadio nautico di Vaires-sur-Marne, quello in cui ci saranno le gare di canoa e canottaggio.
    «A noi basta gareggiare, poi è chiaro che farlo nella Senna avrebbe un fascino particolare, perché lo scenario è unico e sarebbe una vetrina pazzesca per questo tipo di nuoto», dice ancora Antonelli. Paltrinieri e gli altri nuotatori che si allenano con Antonelli e faranno la gara di fondo si stanno comunque preparando specificamente per nuotare nel fiume, che vuol dire allenarsi a nuotare anche contro forti correnti, quindi con una maggior preparazione muscolare, e abituare il corpo al contatto con le acque libere: «Da anni seguiamo un protocollo medico per mantenere la flora intestinale ricca», spiega Antonelli, «e poi tra alcuni nuotatori c’è un’usanza di bere un bicchierino di Jägermeister o di qualcos’altro di forte alla fine della gara, per ripulirsi».
    Gregorio Paltrinieri, 29 anni, il mese scorso ha vinto la medaglia d’oro agli Europei nella 10 chilometri in acque libere (Emanuele Perrone/Getty Images)
    «Come lo sci, o il canottaggio, o il tennis, il nuoto in acque libere e il triathlon sono soggetti alle condizioni atmosferiche, quindi se ci sarà brutto tempo e non ci saranno le condizioni per le prove nei giorni stabiliti, il Comitato ha un piano per posticiparle», dice Molina. Il problema è che le gare di nuoto di fondo sono previste come detto per l’8 e il 9 agosto, e le Olimpiadi finiranno l’11, quindi se dovesse piovere molto e la situazione della Senna dovesse peggiorare è molto probabile che gli organizzatori opteranno per il piano B, visto che verosimilmente non si potranno aspettare giornate non piovose.
    Le gare olimpiche sono comunque solo la prima, piccola parte del piano dell’amministrazione parigina, che dall’estate 2025 vuole rendere una cosa abituale il fatto di nuotare nella Senna, completando l’iniziativa Paris-Plage, con la quale da oltre vent’anni le rive del fiume in estate vengono attrezzate come fossero delle spiagge (“Paris-Plage” significa appunto “Parigi-Spiaggia”). Secondo Molina «con Paris-Plage la gente si sente già in spiaggia: fare il bagno è solo il prossimo passo. In caso di brutto tempo, per i due giorni successivi sarà vietato nuotare, come succede anche in alcune spiagge sul mare».
    Oltre a continuare a ripulire il fiume e a controllare la qualità dell’acqua, la cosa difficile sarà far cambiare la percezione comune e convincere le persone che la Senna sia davvero pulita e sicura. Alle azioni sui batteri si aggiungono in questo caso quelle sull’inquinamento visibile come i rifiuti, principalmente in plastica, attraverso barriere galleggianti e barche cattura-rifiuti. Poco tempo fa si era parlato anche di un’altra forma di inquinamento, quella dell’acido trifluoroacetico (TFA), una tra le sostanze note collettivamente come PFAS, che deriva dalla degradazione di vari pesticidi: su questo il prefetto Molina ha detto che i livelli dei pesticidi nella Senna sono nella norma, senza però citare una fonte certa.
    Jean-Philippe Jacob, il proprietario della barca, non è invece particolarmente preoccupato dalla diffidenza delle persone, anzi dice che «se ci sarà meno gente nel fiume, avremo più spazio per nuotare». LEGGI TUTTO

  • in

    Bere il mare

    In Sicilia da alcune settimane si discute sulla riapertura del dissalatore di Porto Empedocle, in provincia di Agrigento, per trattare l’acqua di mare e renderla potabile in modo da ridurre i forti problemi legati alla siccità degli ultimi mesi. La Regione ha previsto un milione di euro di spesa e alcuni mesi di lavoro per riattivare l’impianto fermo da 12 anni, ma sono stati espressi alcuni dubbi considerati i costi. I dissalatori consumano infatti molta energia e producono acque di scarto difficili da gestire: per questo sono ancora relativamente poco utilizzati in tutto il mondo, anche se negli ultimi decenni ci sono stati progressi nel miglioramento dei sistemi per renderli più efficienti dal punto di vista energetico.Il 97 per cento dell’acqua presente sulla Terra è salato: è presente nei mari e negli oceani e non può essere bevuto né tanto meno utilizzato per l’agricoltura. Il resto dell’acqua è dolce, con il 2 per cento conservato nei ghiacciai, nelle calotte polari e negli accumuli di neve sulle montagne e l’1 per cento disponibile per le nostre esigenze e quelle dei numerosi altri organismi che per vivere hanno bisogno di acqua quasi totalmente priva di sali, a cominciare dal cloruro di sodio (NaCl, quello che comunemente chiamiamo “sale da cucina”). In media l’acqua marina contiene il 3,5 per cento circa di sale, una concentrazione sufficiente per causare danni ai reni ed essere letale.
    Quell’1 per cento di acqua dolce sarebbe più che sufficiente, se non fosse che non è distribuito uniformemente nel pianeta: ci sono aree in cui abbonda e altre in cui scarseggia, in assoluto oppure a seconda delle stagioni e delle condizioni atmosferiche. Il cambiamento climatico in corso negli ultimi decenni ha peggiorato le cose con aree che sono diventate più aride, riducendo le possibilità di accesso per milioni di persone all’acqua dolce. Stando alle stime dell’Organizzazione mondiale della sanità (OMS), circa 2 miliardi di persone vivono in zone del mondo in cui il reperimento dell’acqua è difficoltoso e solo nel 2022 almeno 1,7 miliardi di persone hanno avuto accesso per lo più ad acqua contaminata, con seri rischi per la salute.
    Considerate le difficoltà nel disporre di acqua dolce, ci si chiede spesso perché non si possa sfruttare su larga scala quella degli oceani, privandola dei sali che non la rendono bevibile. Le tecnologie per farlo ci sono da tempo e alcune furono sperimentate millenni fa, eppure non siamo ancora in grado di trasformare l’acqua di mare in acqua potabile in modo conveniente e sostenibile. In un certo senso è un grande paradosso: il pianeta è ricolmo d’acqua, ma quella che possiamo usare per sopravvivere è una minuscola frazione.
    L’oceano Pacifico è di gran lunga la più vasta distesa d’acqua salata della Terra (NOAA)
    Per molto tempo il sistema più pratico per dissalare l’acqua è consistito nell’imitare ciò che avviene in natura facendola evaporare. Grazie al calore del Sole e a quello del nostro pianeta, ogni giorno una enorme quantità di acqua evapora dagli oceani, dai fiumi e dagli altri corsi d’acqua, raggiungendo gli strati dell’atmosfera dove si formano le nuvole e di conseguenza le piogge, che porteranno l’acqua dolce a cadere al suolo. Con la “dissalazione evaporativa” si fa artificialmente qualcosa di analogo: l’acqua del mare viene scaldata e fatta evaporare, in modo che si separi da buona parte dei sali. Il vapore acqueo viene poi fatto raffreddare in modo che condensi e che si possa recuperare l’acqua quasi priva di sali.
    Negli anni sono state sviluppate varie tipologie di dissalatori evaporativi, per lo più per provare a rendere il più efficiente possibile il processo dal punto di vista energetico, ma il concetto di base rimane più o meno lo stesso. I dissalatori di questo tipo sono impiegati in molti impianti in giro per il mondo, specialmente nelle aree costiere lungo il Golfo in Medio Oriente, dove spesso si sfrutta la grande disponibilità di combustibili fossili per alimentare gli stabilimenti. Il processo richiede infatti grandi quantità di energia e per questo molti gruppi di ricerca hanno sperimentato alternative nei decenni passati.
    Il progresso più importante nelle tecnologie di dissalazione fu raggiunto negli anni Sessanta, quando fu messo a punto il processo di “osmosi inversa”. L’acqua di mare viene fatta passare ad alta pressione attraverso una membrana semipermeabile, che permette solo alle molecole d’acqua di passare dall’altra parte, obbligandola a lasciarsi alle spalle gli ioni dei sali che la rendono salata.
    In un dissalatore a osmosi inversa, l’acqua salata viene aspirata dal mare attraverso potenti pompe e fatta fluire tra grandi grate per separarla dalle impurità più grandi. L’acqua attraversa poi membrane con pori via via più piccoli per bloccare il passaggio della sabbia, dei batteri e di altre sostanze. L’acqua è infine pronta per essere spinta ad alta pressione attraverso una membrana che ha solitamente pori di dimensioni intorno a 0,1 nanometri (un nanometro è un miliardesimo di metro), tali da bloccare il passaggio dei sali, ma non delle molecole d’acqua.

    Da un punto di vista energetico, la dissalazione per osmosi inversa è più conveniente rispetto a quella per evaporazione, perché non richiede di scaldare l’acqua. Alcuni impianti sono arrivati a produrre acqua dolce con un consumo di 2 kWh (“kilowattora”) per metro cubo d’acqua, un risultato importante se si considera che negli anni Settanta il consumo era di 16 kWh per metro cubo. In media si stima che la dissalazione dell’acqua con i metodi più diffusi comporti un consumo di 3 kWh/m3 e che negli ultimi cinquant’anni si sia ridotto di circa dieci volte. L’attuale consumo è paragonabile a quello del trasporto dell’acqua su lunghe distanze verso i luoghi in cui manca, mentre è ancora lontano da quello degli impianti che forniscono localmente l’acqua dolce disponibile sul territorio.
    L’osmosi inversa, nelle sue varie declinazioni, ha contribuito più di altre tecnologie a ridurre l’impatto energetico della dissalazione, ma ha comunque i suoi limiti. A causa della forte pressione, le membrane per realizzarla devono essere sostituite di frequente e la loro costruzione è laboriosa e delicata. Inoltre, man mano che si estrae l’acqua dolce, l’acqua marina di partenza diventa sempre più salata e sempre più difficile da separare dai sali che contiene. Oltre un certo limite non si può andare e si ottiene una salamoia che deve essere gestita e smaltita.
    I livelli di efficienza variano molto a seconda degli impianti, ma in media un dissalatore a osmosi inversa produce un litro di salamoia per ogni litro di acqua dolce (ci sono analisi più o meno pessimistiche sul rapporto). Si stima che ogni giorno siano prodotti circa 140 miliardi di litri di salamoia, la maggior parte dei quali vengono dispersi nuovamente in mare. Lo sversamento avviene di solito utilizzando condotte sottomarine che si spingono lontano da quelle che effettuano i prelievi, in modo da evitare che sia aspirata acqua di mare troppo salata.
    L’impianto di desalinizzazione a Barcellona, Spagna (AP Photo/Emilio Morenatti)
    Data l’alta quantità di sali al suo interno, la salamoia è più densa della normale acqua di mare e tende quindi a rimanere sul fondale marino prima di disperdersi nel resto dell’acqua marina. La maggiore concentrazione di sali potrebbe avere conseguenze sugli ecosistemi marini e per questo il rilascio della salamoia in mare è studiato da tempo, anche se per ora le ricerche non hanno portato a trovare molti indizi sugli eventuali effetti deleteri. In alcuni paesi ci sono comunque leggi che regolamentano le modalità di sversamento, per esempio richiedendo l’utilizzo di tubature che si spingano più al largo e che abbiano molte diramazioni, in modo da rilasciare la salamoia in più punti favorendo la sua diluizione col resto dell’acqua marina.
    Lo sversamento in mare non è comunque l’unica tecnica per liberarsi della salamoia. Un’alternativa è lasciare che evapori al sole, raccogliendo poi i sali in un secondo momento per utilizzarli in altre attività industriali. È però un processo che richiede del tempo, la disponibilità di porzioni di territorio sufficientemente grandi e un clima che renda possibile l’evaporazione in buona parte dell’anno. In alternativa l’evaporazione può essere ottenuta scaldando la salamoia, ma anche in questo caso sono necessarie grandi quantità di energia e il processo non è efficiente.
    Non tutte le salamoie sono uguali perché la concentrazione di sali non è uniforme e omogenea negli oceani, per questo alcuni gruppi di ricerca stanno esplorando la possibilità di sfruttarle per ottenere minerali particolarmente richiesti. L’interesse principale è per il litio, una materia prima molto richiesta per la produzione di batterie e dispositivi elettrici. La sua estrazione viene effettuata di solito in alcune zone aride del mondo, a cominciare da quelle del Sudamerica, dove acque sature di sali vengono lasciate evaporare sotto al Sole per mesi. Sono in fase di sperimentazione sistemi alternativi di estrazione, ma separare il litio dalle altre sostanze non è semplice e richiede comunque energia.
    In Arabia Saudita, uno dei paesi che hanno più investito nello sviluppo di tecnologie di dissalazione a causa della ricorrente mancanza di acqua dolce, è in progettazione un impianto per estrarre dalla salamoia ulteriore acqua da rendere potabile e al tempo stesso ottenere cloruro di sodio. Questa sostanza è fondamentale per molti processi dell’industria chimica, ma deve avere un alto livello di purezza difficile da raggiungere tramite i classici processi di desalinizzazione. L’impianto utilizzerà particolari membrane per separare le impurità e produrre di conseguenza del cloruro di sodio puro a sufficienza, almeno nelle intenzioni dei responsabili dell’iniziativa.
    Altri gruppi di ricerca si sono invece orientati verso il perfezionamento di tecniche che prevedono l’applicazione di una corrente elettrica per diluire la salamoia, in modo da poter estrarre più quantità di acqua dolce attraverso l’osmosi inversa. Ulteriori approcci prevedono invece l’impiego di solventi chimici che a basse temperature favoriscono la separazione delle molecole d’acqua dal resto, permettendo di nuovo un maggiore recupero di acqua dolce dalla salamoia.
    Come ha spiegato al sito di Nature un ingegnere ambientale della Princeton University (Stati Uniti): «Per molti anni abbiamo mancato il bersaglio. Ci siamo concentrati sull’acqua come un prodotto: secondo me, l’acqua dovrebbe essere un prodotto secondario di altre risorse». L’idea, sempre più condivisa, è che per rendere economicamente vantaggiosa la desalinizzazione ci si debba concentrare sulle opportunità derivanti dallo sfruttamento delle sostanze di risulta, lasciando l’acqua dolce a tutti e senza costi. Non tutti sono però convinti della sostenibilità di questa impostazione, soprattutto per la sostenibilità in generale del settore.
    I dissalatori attivi nel mondo sono circa 15-20mila con dimensioni, capacità e tecnologie impiegate che variano a seconda dei paesi e delle necessità. Si stima che dall’acqua dolce prodotta con la desalinizzazione dipendano almeno 300 milioni di persone, anche se le stime variano molto ed è difficile fare calcoli precisi. L’impatto energetico dei dissalatori è però ancora molto alto e di conseguenza il costo di ogni litro di acqua dolce prodotto in questo modo rispetto ai luoghi dove l’acqua dolce è naturalmente disponibile.
    Un operaio al lavoro sui filtri di un impianto di dissalazione a San Diego, California, Stati Uniti (AP Photo/Gregory Bull)
    Gli impianti per dissalare l’acqua sono generalmente più convenienti quando possono essere costruiti direttamente in prossimità delle aree dove scarseggia l’acqua dolce, ma solo in alcune parti del mondo le zone aride si trovano lungo aree costiere. Per le comunità che vivono in luoghi siccitosi lontano dai mari il trasporto dell’acqua deve essere comunque gestito in qualche modo. Ci sono quindi casi in cui è più economico trasportare acqua dolce da una fonte distante rispetto a desalinizzare quella di mare.
    In futuro la desalinizzazione potrebbe riguardare una quantità crescente di persone a causa dell’aumento della salinità di alcune riserve d’acqua soprattutto lungo le aree costiere. L’aumento della temperatura media globale ha reso più intensi i processi di evaporazione in certe aree del mondo, influendo sulla concentrazione dei sali anche nei corsi d’acqua dolce. L’innalzamento dei mari, sempre dovuto al riscaldamento globale, è visto come un altro rischio per la contaminazione delle falde acquifere vicino alle coste che potrebbero aumentare le quantità di sali.
    I più ottimisti sostengono che i problemi energetici legati ai dissalatori potranno essere superati grazie allo sviluppo delle centrali nucleari a fusione, che metteranno a disposizione enormi quantità di energia a una frazione dei prezzi attuali. La fusione porterebbe certamente a una riduzione del costo dell’energia senza paragoni nella storia umana, ma il suo sviluppo procede a rilento e richiederà ancora decenni, ammesso che possa mai portare a qualche applicazione tecnica su larga scala.
    Invece di fare affidamento su tecnologie di cui ancora non disponiamo, gli esperti consigliano di ripensare il modo in cui utilizziamo l’acqua dolce, riducendo il più possibile gli sprechi e ottimizzando i consumi in modo da avere necessità dei dissalatori solo dove non ci sono alternative. Nelle aree esposte stagionalmente alla siccità si dovrebbero invece costruire bacini per l’accumulo e la conservazione dell’acqua piovana, per esempio, insieme a impianti per la purificazione e il riciclo delle acque reflue. LEGGI TUTTO

  • in

    Lo scorso giugno è stato il più caldo mai registrato

    Secondo il Climate Change Service di Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa di osservazione della Terra, il mese di giugno è stato il più caldo mai registrato sulla Terra. La temperatura media globale è stata di 16,66 °C, cioè 0,14 °C più alta del precedente record, del giugno del 2023. Inoltre lo scorso giugno è stato il tredicesimo mese consecutivo considerato il più caldo mai registrato a livello globale rispetto ai mesi corrispondenti degli anni passati. Le stime di Copernicus sono realizzate usando diversi tipi di dati, tra cui le misurazioni dirette della temperatura fatte da reti di termometri presenti sulla terra e in mare e le stime dei satelliti. LEGGI TUTTO