More stories

  • in

    Cosa succede ai Campi Flegrei

    Domenica 11 giugno, alle 8:44 del mattino, c’è stato un terremoto di magnitudo 3.6 che ha avuto origine a 3 chilometri di profondità sotto ai Campi Flegrei, la grande area vulcanica a nord-ovest della città di Napoli e del suo golfo. Non ci sono stati danni nei centri abitati vicini, a partire da Pozzuoli, ma è stato comunque un terremoto degno di nota perché insieme a un altro della stessa magnitudo registrato nel marzo del 2022 è stato il più forte nella zona dal biennio 1982-1984, quando in alcuni mesi ci furono più di 1.200 terremoti con magnitudo fino a 4.Come ha spiegato il progetto di divulgazione scientifica sui social Il Mondo dei Terremoti, il terremoto di domenica si è aggiunto a una serie che era iniziata nel 2005 ed è dovuta al progressivo sollevamento del suolo dell’intera area vulcanica. Negli ultimi mesi i terremoti sono stati particolarmente frequenti: ad aprile sono stati 675, a maggio 661. Per la maggior parte si è trattato di terremoti deboli e poco percettibili dalle persone, ma sono comunque un segno dell’attività geologica in corso.I Campi Flegrei non hanno un unico cono vulcanico principale, come il vicino Vesuvio, ma sono fatti di vari centri vulcanici che si trovano all’interno e attorno a una zona depressa chiamata caldera. La caldera si è creata in passato con il collasso del tetto di un grande serbatoio di magma, dopo che questo stesso magma era fuoriuscito nel corso di due eruzioni, 40mila e poi 15mila anni fa. Successivamente la zona è via via sprofondata. Negli ultimi 5.500 anni ci sono state più di 27 eruzioni: l’ultima fu nel 1538 e da allora l’attività vulcanica è proseguita solo con fumarole e acque termali. L’intera zona occupa un’area di circa 12 chilometri per 15, che comprende i comuni di Bacoli, Monte di Procida, Pozzuoli, Quarto e Giugliano, oltre a una parte di Napoli.I terremoti registrati nel mese di maggio 2023 nei Campi Flegrei (Osservatorio vesuviano dell’Istituto nazionale di geofisica e vulcanologia)Nel corso del Novecento il suolo della caldera ha subito in tre periodi un processo di sollevamento, che ha riguardato in particolare Pozzuoli, dove si è alzato anche di 3 metri e mezzo. I due periodi di sollevamento furono tra il 1950 e il 1952, tra il 1969 e il 1972 e tra il 1982 e il 1984; successivamente c’è stato un nuovo graduale abbassamento, interrotto a partire dal 2004 con il sollevamento ancora in corso. In questi 18 anni il suolo si è sollevato anche più di un metro, ma in generale il processo è stato più lento e ha causato un minor numero di terremoti rispetto agli anni Settanta e Ottanta.Ci sono varie teorie sulle ragioni del sollevamento, che nel gergo degli scienziati che studiano i Campi Flegrei è detto “bradisismo”. Quella principale è che il magma che si trova in profondità starebbe rilasciando grandi quantità di vapor acqueo che a sua volta starebbe riscaldando le rocce che dividono lo stesso magma dal suolo, creando delle deformazioni del terreno, causando i terremoti e un’attività più intensa delle fumarole.Il 9 giugno un gruppo di scienziati internazionale di cui fanno parte anche dei membri dell’Istituto nazionale di geofisica e vulcanologia (INGV) ha pubblicato uno studio sulla rivista Communications Earth and Environment a proposito della possibilità che i movimenti della caldera arrivino a una rottura della sua crosta, cioè dello strato più superficiale. Per quello che si sa non si può escludere del tutto che nel processo sia coinvolto del magma, ma per il momento non c’è di fatto nessuna ragione per pensare che ci sarà un’eruzione vulcanica per come la si intende generalmente, cioè con fuoriuscita di lava.Lo stato di allerta per la Protezione Civile è “giallo” per via dei terremoti, non perché si tema un’eruzione. LEGGI TUTTO

  • in

    Una femmina di coccodrillo si è riprodotta da sola

    Una femmina di coccodrillo in uno zoo del Costa Rica si è riprodotta da sola, in un raro caso di partenogenesi in questa specie. Nel gennaio del 2018 l’animale aveva deposto 14 uova, nonostante fosse vissuto in isolamento per 16 anni senza avere contatti con altri simili. Sorpresi dalla circostanza, i responsabili dello zoo avevano selezionato sette uova e le avevano messe all’interno di una incubatrice. Dopo tre mesi le uova non si erano ancora schiuse e si era quindi deciso di analizzarle, scoprendo che all’interno di una c’era il feto di un coccodrillo completamente formato, ma non vitale. Servivano però ulteriori analisi per confermare che la femmina di coccodrillo si fosse riprodotta autonomamente.Come racconta uno studio sulla vicenda pubblicato sulla rivista scientifica Biology Letters, i test del DNA avevano rivelato che la madre e il feto erano sostanzialmente identici dal punto di vista del materiale genetico, fatta eccezione per le estremità dei cromosomi del feto. Possiamo immaginare i cromosomi come matasse a forma di X (fatta eccezione del cromosoma Y) per la trasmissione delle informazioni genetiche.Le differenze riscontrate con le analisi suggerivano che la cellula uovo prodotta dalla madre non si fosse unita con uno spermatozoo, come avviene normalmente nella fecondazione, ma con un “globulo polare”, una delle piccole sacche cellulari che si formano insieme alla cellula uovo vera e propria contenenti cromosomi molto simili a quelli materni. Di solito i globuli polari diventano materiale di scarto e non sono coinvolti direttamente nella riproduzione, ma in alcuni casi si possono fondere con la cellula uovo, completando il materiale genetico in assenza di uno spermatozoo e portando quindi alla partenogenesi.Il fenomeno è abbastanza comune in varie specie di uccelli, pesci, serpenti e lucertole, mentre non era mai stato osservato tra i Crocodylia, l’ordine di rettili che comprende i coccodrilli, gli alligatori e i caimani, per citarne alcuni. La femmina di coccodrillo nel Costa Rica era stata portata al Parque Reptilandia, un parco per i rettili, quando aveva due anni, nel 2002, e da allora non aveva avuto contatti con propri simili. Questa circostanza esclude la possibilità di un concepimento ritardato, dove uno o più spermatozoi riescono a sopravvivere a lungo (sono stati osservati casi di anni) nell’apparato riproduttivo della femmina prima di fecondare una cellula uovo.Non è ancora chiaro come mai alcuni animali riescano a riprodursi per partenogenesi. Un’ipotesi è che questa capacità possa rivelarsi utile nei periodi di prolungata assenza di maschi disponibili per la riproduzione, in modo da garantire comunque il proseguimento della specie. Una teoria simile contempla la possibilità che la partenogenesi avvenga con più probabilità nelle specie a rischio di estinzione. Altri ipotizzano che si tratti semplicemente di un fenomeno del tutto casuale e che non abbia una grande utilità per buona parte delle specie viventi odierne. Se la partenogenesi fosse molto comune, la varietà genetica degli esemplari sarebbe molto più bassa e indebolirebbe le specie.La maggiore disponibilità di sistemi per le analisi genetiche ha comunque reso evidente negli ultimi anni una quantità di partenogenesi superiore alle aspettative, come dimostra anche il caso della femmina di coccodrillo nel Costa Rica. La sua storia potrebbe aggiungere qualche elemento affascinante sui lontani parenti degli odierni coccodrilli come i dinosauri e gli pterosauri, che si sospetta da tempo avessero la capacità di riprodursi da soli in determinate circostanze. I fossili non permettono di recuperare il materiale genetico di quegli animali, quindi forse non sapremo mai se la partenogenesi fosse effettivamente comune tra alcune delle loro specie. LEGGI TUTTO

  • in

    A che punto sono i lavori per il trattato sulla plastica

    Caricamento playerLa scorsa settimana a Parigi si è conclusa la seconda riunione del comitato intergovernativo delle Nazioni Unite che ha il compito di gestire i negoziati del trattato per ridurre la presenza della plastica nell’ambiente, uno dei più grandi problemi di inquinamento a livello globale. Le trattative non hanno però portato a molti progressi e hanno mostrato quanto siano ancora forti le divisioni tra i paesi, con i principali produttori di petrolio poco interessati a cambiare le cose e le forti pressioni che arrivano dalle aziende del settore. Dopo giorni di discussioni si è comunque trovato un accordo per proseguire verso la scrittura del trattato, che le Nazioni Unite vorrebbero fare approvare entro la fine del prossimo anno.La plastica è tra i materiali più diffusi e utilizzati al mondo, ha aperto grandi opportunità nella ricerca, nello sviluppo di nuovi materiali in moltissimi ambiti e ha migliorato la qualità della vita di milioni di persone. Gli enormi benefici hanno però avuto costi altissimi e il più grande di tutti riguarda l’ambiente: la plastica è talmente diffusa e utilizzata da essere presente praticamente in qualsiasi ecosistema, dalle profondità oceaniche alle vette alpine, diventando un problema sempre più grande e urgente da affrontare, specialmente per il suo corretto smaltimento.Il trattato cui stanno lavorando i paesi del mondo è visto da molti osservatori come la prima vera occasione per cambiare le cose, regolamentando meglio un settore che si è espanso molto velocemente nell’ultimo secolo, spesso senza un adeguato coordinamento tra le nazioni per lo smaltimento dei rifiuti plastici. Nel marzo dello scorso anno 175 paesi avevano sottoscritto a Nairobi, in Kenya, un impegno per l’adozione di un documento internazionale sulla plastica. Era poi seguito un primo incontro del comitato intergovernativo in Uruguay a novembre, con lavori preparatori per affrontare la seconda sessione da poco terminata a Parigi.Manila, Filippine, 18 aprile 2018 (Jes Aznar/Getty Images)Nei cinque giorni della conferenza si sarebbero dovuti affrontare numerosi problemi legati al modo in cui viene prodotta e smaltita la plastica, ma per i primi tre giorni è stato pressoché impossibile parlare di contenuti. Il dibattito si è mantenuto quasi esclusivamente sulle procedure di voto da utilizzare nella preparazione e nell’approvazione finale del trattato, con una certa insistenza da parte dei paesi che estraggono più petrolio come Brasile e Arabia Saudita, insieme ad alcuni dei principali utilizzatori di plastica come Cina e India. La loro proposta era di introdurre un meccanismo che consentisse ai paesi di avere capacità di veto nelle votazioni, mentre altri paesi proponevano di avere un sistema di approvazione basato su una maggioranza di due terzi.La contrapposizione è diventata alquanto evidente tra i paesi produttori di petrolio e quelli che fanno parte della “High Ambition Coalition” (HAC), una coalizione internazionale che ha l’ambizioso obiettivo di mettere fine all’inquinamento causato dalla plastica. La coalizione comprende l’Unione Europea, il Canada, l’Australia, il Cile e il Messico, ma non conta tra i propri partecipanti alcuni dei paesi che impiegano più plastica, come Russia, Cina, India e Stati Uniti.Le trattative sulle modalità di votazione hanno portato a uno stallo, secondo i più critici voluto espressamente dai paesi in cui sono attive le grandi aziende del settore petrolchimico per ostacolare l’avanzamento dei lavori, impedendo progressi nella realizzazione del trattato. Dopo i primi tre giorni, alcuni paesi avevano iniziato a protestare chiedendo che si arrivasse agli argomenti veri e propri, senza impegnare altro tempo sulla decisione delle procedure. Dopo alcune sessioni tese, si era infine deciso di non decidere, arrivando a un compromesso che di fatto lascia irrisolto l’argomento comunque importante di come saranno votate le decisioni.I ritardi hanno infine lasciato poco tempo per occuparsi dei numerosi argomenti intorno alle strategie da adottare per ridurre la proliferazione della plastica. Si è parlato della necessità di gestire l’inquinamento derivante dalle microplastiche, le componenti molto piccole in cui degradano diverse tipologie di plastica e che possono finire ovunque, nelle acque degli oceani e di conseguenza nelle specie ittiche, ma anche nel nostro organismo con effetti ancora non chiariti. È stata inoltre espressa la volontà di regolamentare in modo più uniforme e coerente tra i paesi le migliaia di sostanze chimiche che vengono utilizzate per realizzare i vari tipi di plastica, alcune delle quali estremamente dannose per l’ambiente per via della loro lunga durata.Nel corso delle trattative, la maggior parte dei 180 paesi partecipanti alla sessione di Parigi ha concordato sull’importanza di non produrre più o mettere al bando i PFAS, cioè le sostanze perfluoroalchiliche: una classe di migliaia di sostanze diverse usate storicamente nella produzione di moltissimi materiali – dalle vernici agli imballaggi, passando per gli impermeabilizzanti – con grandi problemi di inquinamento ambientale (in Italia il problema riguarda in particolare una zona del Veneto).Atene, Grecia, 26 giugno 2018 (Milos Bicanski/Getty Images)Gli effetti sulla salute dei PFAS sono difficili da indagare e, trattandosi di migliaia di sostanze diverse, anche difficili da catalogare. Alcuni non provocano danni rilevabili, per esempio, ma altri portano a un accumulo negli esseri viventi, con rischi per la riproduzione e danni allo sviluppo. Altri PFAS sono cancerogeni e c’è il sospetto che alcuni interferiscano con il sistema endocrino umano. Per questi motivi sono sotto stretta osservazione da parte degli organismi di controllo dell’Unione Europea e in diversi altri paesi.Altre proposte hanno riguardato la riduzione della produzione della plastica in generale, un intervento visto sempre più come necessario per intervenire alla base dell’inquinamento. E si è parlato dell’importanza di adottare sistemi più affidabili per tracciare e tenere sotto controllo la diffusione della plastica su scala globale, un punto su cui insistono da tempo numerosi gruppi di ricerca.Nella maggior parte dei paesi del mondo, chi produce plastica deve osservare vincoli nel momento della produzione, mentre non ha poi particolari responsabilità una volta che i suoi prodotti vengono venduti. Per la plastica usa e getta le responsabilità ricadono sui singoli consumatori, per esempio, ma non c’è modo di tracciare completamente il percorso che fa un involucro dalle materie prime con cui è stato realizzato alla discarica. Le Nazioni Unite vogliono favorire un processo di armonizzazione di regole e procedure, coinvolgendo università e centri di ricerca, in modo da utilizzare il tracciamento per ridurre le sostanze inquinanti nell’ambiente e stimare meglio le responsabilità dei singoli paesi.Per organizzare sistemi di questo tipo devono essere coinvolte anche le aziende produttrici, ma nel caso della riunione di Parigi ci si è chiesto se la presenza dei loro rappresentanti non fosse eccessiva. La testata francese Mediapart ha stimato che alle trattative fossero presenti quasi 200 rappresentanti dell’industria petrolchimica, spesso con una presenza maggiore rispetto a quella delle delegazioni dai paesi in cui il problema dell’inquinamento da plastica è più sentito, come alcuni stati insulari del Pacifico. Negli incontri si è quindi parlato degli approcci che l’industria preferirebbe, come utilizzare procedimenti per trasformare la plastica utilizzata in combustibili, attraverso un processo che riduce la quantità di materiali plastici in circolazione ma che ha un forte impatto per quanto riguarda la produzione di emissioni di anidride carbonica.Nei primi mesi del 2018 centinaia di grandi aziende avevano sottoscritto il Global Commitment, un’iniziativa legata al Programma delle Nazioni Unite per l’Ambiente che aveva lo scopo di ridurre l’inquinamento da plastica. Tra i sottoscrittori c’erano società molto ricche e che controllano una enorme quantità di marchi come Nestlé, Mars, L’Oréal, SC Johnson, Coca-Cola e PepsiCo. Si erano impegnate a ridurre l’impiego di plastica vergine (quindi non derivante dal riciclo) e a concentrarsi nello sviluppo di confezioni e involucri riciclabili o compostabili, in modo da ridurre la plastica in circolazione.L’impegno non ha portato ai risultati sperati, almeno secondo il rapporto dello scorso anno sull’andamento del Global Commitment. Coca-Cola si era impegnata a ridurre del 20 per cento l’impiego di plastica non riciclata nel 2021 rispetto al 2019, ma ne ha usata il 3 per cento in più; Mars aveva promesso una riduzione del 25 per cento nell’impiego in generale di plastica, ma ne ha utilizzato l’11 per cento in più sempre negli stessi periodi di riferimento. Nel 2018 il 49 per cento degli involucri impiegati da Nestlé era riciclabile, riutilizzabile o compostabile, mentre nel 2021 la percentuale è scesa al 45 per cento.Le stime sulla produzione globale di plastica variano molto, ma secondo quelle dell’Organizzazione per la cooperazione e lo sviluppo economico negli ultimi anni ne abbiamo prodotta circa 400 milioni di tonnellate all’anno. E sempre annualmente si stima che negli oceani finiscano circa 14 milioni di tonnellate di plastica, trasportata dai fiumi o dispersa direttamente nei mari.Al di là delle difficoltà sulle procedure, la seconda riunione del comitato intergovernativo ha confermato la volontà dei paesi di affrontare il problema della plastica e di proseguire verso la stesura del trattato. La riunione si è conclusa con un accordo per avviare la scrittura di una prima bozza, che sarà analizzata durante la prossima sessione prevista per novembre in Kenya. È ancora presto per dire se la scadenza ultima di fine 2024 sarà mantenuta per l’accordo finale sul trattato della plastica, ma il senso di urgenza dato dai tempi insolitamente stretti per questo genere di iniziative potrebbe favorire i lavori e appianare i principali contrasti. LEGGI TUTTO

  • in

    Anche altri ominidi seppellivano i propri morti?

    Per quel che sappiamo i neanderthal (Homo neanderthalensis) furono l’unica altra specie animale oltre alla nostra (Homo sapiens) che seppelliva i propri morti, una pratica le cui testimonianze più antiche risalgono a 78mila anni fa. C’è però un gruppo di paleoantropologi che ha ipotizzato lo facessero anche gli Homo naledi, una specie estinta di ominini che è stata scoperta in Sudafrica solo nel 2013 e aveva cervelli grandi un terzo di quelli umani. Se confermata, questa teoria cambierebbe profondamente l’attuale conoscenza sull’evoluzione umana.A ipotizzare che l’Homo naledi seppellisse i propri morti è il gruppo di ricerca che lo studia fin dalla sua scoperta: è guidato da Lee Berger, paleoantropologo sudafricano dell’Università del Witwatersrand a Johannesburg, ed è finanziato dall’organizzazione scientifica statunitense National Geographic Society. Il 5 giugno Berger ha parlato pubblicamente per la prima volta dei ritrovamenti archeologici che giustificherebbero l’ipotesi e la rivista del National Geographic le ha dedicato un lungo articolo. Tuttavia gli studi del gruppo di Berger non hanno ancora completato il processo di revisione tra pari (peer review), che nella comunità scientifica garantisce il valore di una ricerca, e finora hanno suscitato molto scetticismo tra gli esperti.I resti dell’Homo naledi furono scoperti nel 2013 da due speleologi sudafricani all’interno della grotta Dinaledi, che si trova poco lontano dalla cosiddetta “Culla dell’umanità”, un importante sito paleoantropologico a 50 chilometri da Johannesburg, ed è fatta di un complicato sistema di cunicoli che si estendono per centinaia di metri sottoterra. Nella grotta nel tempo sono stati trovati più di 1.800 frammenti di ossa appartenenti ad almeno 27 individui che hanno permesso di ricostruire che gli H. naledi erano alti in media circa 1 metro e 40 centimetri, avevano lunghe braccia e un cervello grande un terzo di quello di H. sapiens.I naledi erano ominini, cioè facevano parte della sottofamiglia di specie che comprende oltre all’essere umano moderno (Homo sapiens) le specie che gli sono più vicine come bonobo e scimpanzé (con la parola “ominidi” si intende invece un gruppo più ampio, di cui fanno parte anche gli oranghi e i gorilla). Si pensa che vissero tra 500mila e 240mila anni fa e che per almeno 50mila anni condivisero il proprio territorio nel sud dell’Africa con la nostra specie. Dovremmo discendere da un antenato comune: è stato stimato che i due rami evolutivi si separarono due milioni di anni fa.Lee Berger tiene una ricostruzione di un cranio di Homo naledi insieme al presidente del Sudafrica Cyril Ramaphosa, il 10 settembre 2015  (EPA/THAPELO MOREBUDI, ANSA)Berger e i suoi colleghi ritengono che gli Homo naledi seppellissero i propri morti per via del luogo in cui sono state trovate le loro ossa e della posizione di alcune in particolare.La camera della grotta Dinaledi in cui sono state rinvenute è la più profonda del complesso ed è collegata al resto attraverso un cunicolo verticale largo solo una ventina di centimetri: fin dai primi tempi dopo la scoperta, la squadra di ricercatori pensò che fosse improbabile che le ossa fossero arrivate nel fondo della grotta trascinate dall’acqua, data la ridottissima ampiezza del cunicolo e l’assenza di altri sedimenti, e ipotizzò che i resti degli ominini vi fossero stati portati intenzionalmente. Si considerarono anche le possibilità che a portarli nella grotta fossero stati dei predatori oppure degli Homo sapiens: la prima ipotesi fu esclusa perché sulle ossa non sono presenti segni di morsi, la seconda perché nella grotta non ci sono segni della presenza di umani.Un’ulteriore possibile spiegazione, che in passato l’accesso alla grotta fosse diverso e più facile, e che fosse diventato più ostico solo in seguito al crollo di una parete, fu scartata per assenza di riscontri.Invece secondo Berger e la sua squadra ci sarebbe una prova a sostegno dell’ipotesi della sepoltura: due scheletri quasi completi sono stati trovati all’interno di depressioni ovali nel terreno che per la loro forma sembrano scavate. I bordi infatti sono netti e ricoperti di fango.L’altra ragione per cui il paleoantropologo pensa che Dinaledi fosse un luogo di sepoltura è la presenza di altre cose all’interno della grotta: frammenti di carbone, ossa di tartaruga e coniglio bruciate e fuliggine sulle pareti apparentemente usata per tracciare dei segni. L’ipotesi di Berger è che gli ominini usassero dei tizzoni ardenti per farsi luce all’interno della grotta e portassero con sé legna o altri materiali per accendere dei fuochi.Sia la rivista del National Geographic che il New York Times, che ha dedicato a sua volta un articolo all’ipotesi di Berger, hanno intervistato vari paleoantropologi non coinvolti negli studi sugli Homo naledi per avere dei pareri terzi in merito. Maxime Aubert, archeologo dell’australiana Griffith University, è uno dei più scettici: ha detto al New York Times che per ora sembra «che la storia che si sta raccontando sia più importante dei fatti». Tutte le prove a sostegno della tesi potrebbero avere altre spiegazioni, in particolare il carbone e i segni fatti con la fuliggine potrebbero essere dovuti al passaggio di Homo sapiens dopo l’estinzione dei naledi.María Martinón-Torres, direttrice del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH) in Spagna, ha definito l’ipotesi di Berger prematura e ritiene in particolare che non ci siano gli elementi per parlare di sepoltura. Paul Pettitt, archeologo dell’inglese Durham University, non è convinto che si possa davvero escludere che sia stato un flusso d’acqua a spingere le ossa nella grotta Dinaledi.Per avere conferme bisognerebbe stimare l’età dei pezzi di carbone e della fuliggine, cosa che finora non è stata fatta anche perché richiede molto tempo. John Hawks dell’Università del Wisconsin, che fa parte della squadra di Berger, ha detto che in futuro sarà fatto ma che nel frattempo lui e gli altri studiosi dei naledi volevano condividere le proprie scoperte con il resto della comunità scientifica per via delle possibili conseguenze straordinarie che avrebbe la loro teoria, se fosse confermata.Finora si è sempre pensato che i comportamenti più complessi della nostra specie e dei neanderthal, come la coscienza della morte e i riti funebri, siano diventati possibili grazie alle dimensioni del cervello molto maggiori di quelle degli altri ominini. Se però anche i naledi erano in grado di scavare tombe e tracciare segni significherebbe che a essere essenziale per il pensiero complesso non sarebbe la dimensione del cervello, ma qualche altra caratteristica. LEGGI TUTTO

  • in

    Come mai bere alcol di giorno sembra dare un effetto diverso

    Con l’inizio della stagione calda aumentano le probabilità di bere bevande alcoliche nelle ore centrali della giornata, tra un aperitivo anticipato e una birra per rinfrescarsi a pranzo o a metà pomeriggio. Chi lo fa segnala spesso di avere una sensazione diversa da quella del consumo di alcolici la sera, come se bere nelle ore diurne sortisse maggiori effetti e lasciasse più inebriati, se non proprio brilli. Non ci sono molte ricerche scientifiche per confermare o smentire questa impressione, ma ci sono comunque alcuni indizi che riguardano sia le nostre abitudini quando beviamo sia il modo in cui smaltiamo l’alcol, comunque dannoso per il nostro organismo.Che cosa ci fa l’alcolIn generale, l’ubriachezza deriva dall’effetto tossico dell’alcol (etanolo), per questo si parla spesso di “intossicazione da alcol” o “avvelenamento da alcol” per i casi gravi, nei quali la concentrazione di questa sostanza nel sangue diventa molto alta. Quando beviamo un bicchiere di vino, un cocktail o una birra, l’alcol contenuto nella bevanda viene rapidamente assorbito dallo stomaco e in seguito dall’intestino tenue, finendo con il distribuirsi nell’organismo. Il compito di smaltirlo spetta soprattutto al fegato che trasforma l’etanolo in acetaldeide e successivamente in acido acetico.È un lavoro molto intenso e il fegato riesce a smaltirne solo una certa quantità in un intervallo di tempo, pari a circa 8 grammi all’ora per una persona adulta di medio peso (intorno ai 70 chilogrammi). In un bicchiere di vino di media gradazione – quindi 12° – ci sono circa 10-12 grammi di etanolo, di conseguenza il tempo per smaltirlo nel nostro esempio è di poco più di un’ora, ma se si bevono più bicchieri o bevande con una gradazione alcolica più alta il tempo per smaltire l’etanolo aumenta molto.Oltre a far lavorare di più il fegato, circostanza che se si ripete spesso può portare a infiammazioni e malattie dell’organo come la cirrosi, l’alcol in generale fa aumentare il rischio di cancro. L’Agenzia internazionale per la ricerca sul cancro (IARC) delle Nazioni Unite ha inserito da tempo le bevande alcoliche nel “Gruppo 1” delle sostanze cancerogene. In questo gruppo sono comprese le sostanze per le quali ci sono dati sufficienti e solidi per dimostrare che fanno aumentare inequivocabilmente il rischio dell’insorgenza di un tumore. Nel medesimo gruppo ci sono anche l’amianto, il fumo e gli insaccati, per esempio.– Ascolta anche: La puntata di “Ci vuole una scienza” su vino e rischio tumoriIl senso di ebbrezza che si ha dopo una bevuta dipende soprattutto dagli effetti dell’alcol sul sistema nervoso centrale. La sua presenza comporta una depressione di alcune attività dei neuroni e ha un effetto rilassante e ansiolitico, accompagnato da una disinibizione del comportamento. Ci sono effetti a carico del sistema cardiocircolatorio, con un aumento del flusso sanguigno, una maggiore perdita di calore (si ha l’impressione di avere più caldo, ma in realtà la termoregolazione diventa meno efficiente, quindi d’inverno una grappa non “scalda”) e una maggiore attività cardiaca, a volte accompagnata da aritmie e pressione sanguigna più alta. Nel caso dei bevitori cronici, tutti questi effetti possono avere gravi conseguenze a lungo termine, determinando un forte peggioramento della salute.Cibo e alcolCome abbiamo visto, l’assorbimento dell’alcol avviene in particolare a livello dello stomaco. Se beviamo qualcosa di alcolico a stomaco vuoto, il senso di ebbrezza potrà arrivare prima perché il passaggio dell’etanolo attraverso le pareti dello stomaco e dell’intestino tenue sarà pressoché immediato. Le cose di solito cambiano nel caso in cui si abbia lo stomaco pieno: l’assorbimento dell’alcol avverrà comunque, ma richiederà più tempo perché questo viene diluito nel cibo che è stato ingerito e ridotto in poltiglia con la masticazione. L’ebbrezza arriverà più gradualmente e se ne noteranno meno gli effetti, almeno all’inizio e a seconda di cosa e quanto si sta bevendo.Molto dipende anche dal cibo ingerito: alcuni alimenti come i carboidrati facilitano questo rallentamento rispetto ad altri. L’effetto è inoltre altamente soggettivo, perché siamo fatti tutti diversamente e ci sono componenti congenite e legate alle abitudini che determinano quanto ciascuno di noi regge il consumo di alcol (che dà comunque assuefazione).Sera e giornoDi sera è più probabile che si beva a stomaco pieno, per esempio perché si sta cenando o si è da poco finito di mangiare. In questo caso il senso di ebbrezza si manifesta più lentamente e ci si sente di avere più controllo di sé di quanto avviene per una birra bevuta in giornata a varie ore di distanza dall’ultimo pasto.L’effetto arriva prima e tendiamo a notarlo di più perché di solito di giorno dobbiamo svolgere più attività che richiedono concentrazione, rispetto a quanto avviene quando si esce a bere nelle ore serali e notturne dove il principale obiettivo è trovare la via da percorrere a piedi per tornare a casa o un taxi (mettersi alla guida dopo avere bevuto è rischioso per sé e per gli altri, oltre a essere vietato sopra una certa concentrazione di alcol nel sangue).Inoltre di giorno nella stagione calda si suda e ci si disidrata velocemente. Sopra un certo livello di disidratazione, l’effetto dell’intossicazione da alcol è più forte e ha maggiori conseguenze sul sistema nervoso centrale. È anche per questo motivo che dopo avere bevuto qualche bicchiere quando fa caldo il senso di ebbrezza è maggiore ed è spesso accompagnato da sensazioni poco gradevoli, come stordimento, capogiri e una generale sensazione di affaticamento. La minore quantità di acqua fa sì che siano in circolazione pochi minerali con ulteriori conseguenze sulle normali funzioni dell’organismo. L’alcol ha un effetto diuretico che porta a perdere ancora più velocemente i fluidi.Al di là di queste variabili, non ci sono molti elementi scientifici per sostenere che il nostro organismo gestisca diversamente l’alcol tra il giorno e la notte. Se dopo avere bevuto qualche bicchiere di giorno si iniziano ad avere i segni tipici del dopo sbornia (hangover), come mal di testa e di stomaco che di solito emergono il mattino dopo la bevuta, è semplicemente perché si è iniziato a bere prima del solito e l’organismo ha già smaltito una parte dell’alcol con tutte le conseguenze del caso.Quando si beve molto la sera, il successivo senso di malessere viene in parte stemperato dal fatto di andare a dormire. Il distaccamento dalla coscienza e dalla volontà dura svariate ore nelle quali l’organismo continua a smaltire l’alcol senza che ce ne rendiamo conto, ma al risveglio faremo comunque i conti con le conseguenze della disidratazione e dello scarso riposo. Interferendo con le attività del sistema nervoso centrale, l’alcol modifica le fasi del sonno, causa una maggiore quantità di microrisvegli e rende più difficile il recupero che ci consente al mattino di non sentire più la stanchezza.Tra l’ultimo bicchiere e il momento in cui si va a dormire viene di solito consigliato di attendere tra le tre e le quattro ore, ricordandosi di bere molta acqua nel frattempo o di fare un pasto. Il consiglio di bere acqua vale anche nel corso della giornata, evitando di provare a togliersi la sete con le bevande alcoliche.***Il Telefono Verde Alcol (TVAl) 800 632000 è un servizio nazionale di ascolto per il contrasto al consumo rischioso e dannoso di bevande alcoliche, attivo dal lunedì al venerdì dalle 10 alle 16. Il servizio è anonimo e gratuito sotto la responsabilità del Centro Nazionale Dipendenze e Doping dell’Istituto Superiore di Sanità. LEGGI TUTTO

  • in

    È sbagliato dare a una nuova specie il nome di una persona?

    Caricamento playerNell’aprile del 2022 l’entomologo statunitense Derek Hennen descrisse in un articolo scientifico pubblicato insieme a due suoi colleghi 17 nuove specie di millepiedi del genere Nannaria (detti anche millepiedi dagli artigli ritorti) scoperte nella catena montuosa degli Appalachi, nella parte orientale dell’America del Nord. Nel dare un nome a due nuove specie da lui scoperte Hennen si ispirò al nome di sua moglie Marian per una delle due (Nannaria marianae) e a quello della cantautrice Taylor Swift, di cui è un grande fan, per l’altra specie (Nannaria swiftae).Per quanto stravagante possa sembrare in alcuni casi, la prassi di utilizzare il nome di una persona per decidere la definizione scientifica di un organismo vivente è abbastanza comune. Si stima che circa il 20 per cento di tutti i nomi in uso per le specie animali siano eponimi, cioè nomi dati in onore di una o più persone specifiche. Taylor Swift è soltanto una delle migliaia di persone famose da cui sia stato tratto il nome di una specie, di cui esiste peraltro una raccolta su Wikipedia talmente ampia da essere suddivisa per periodi storici.A marzo, riprendendo una discussione in corso già da tempo, un gruppo internazionale di ricercatori e ricercatrici dell’Università di Porto (UP), in Portogallo, e di altre sei università in diversi paesi del mondo ha pubblicato su una rivista del gruppo Nature un articolo in cui propone di rimuovere gli eponimi dalle modalità di attribuzione dei nomi alle nuove specie. La critica condivide qualche principio con quella che all’interno del movimento “Black Lives Matter” portò nel 2020 all’abbattimento di alcuni monumenti dedicati a personaggi del passato coloniale e razzista dei paesi occidentali. Ma si basa principalmente su considerazioni più ampie e generali.L’idea alla base dell’articolo, intitolato Non c’è più posto per gli eponimi nella nomenclatura biologica del XXI secolo, è che questa prassi sia «ingiustificabile» a prescindere da chi sia la persona a cui la nuova specie viene dedicata, perché riflette un approccio riduttivo e intrinsecamente colonialista. «La biodiversità della Terra fa parte di un patrimonio globale che non dovrebbe essere banalizzato dall’associazione con un singolo individuo umano, qualunque sia il suo valore percepito», affermano gli autori e le autrici dell’articolo, aggiungendo che l’eliminazione di questa prassi comporterebbe diversi benefici sia per la conservazione delle specie che per la società.Altri studiosi, pur condividendo in parte questo punto di vista, sostengono che l’utilizzo degli eponimi possa essere – e di fatto è, in molti casi – un giusto riconoscimento ai ricercatori che più si sono occupati dello studio di una determinata specie e meritano di essere ricordati. Suggeriscono quindi una riforma della tassonomia degli organismi viventi che, anziché eliminare la possibilità degli eponimi, includa piuttosto un processo di valutazione preliminare dell’adeguatezza delle proposte da parte della comunità scientifica. Tale processo potrebbe tuttavia comportare di volta in volta una serie di rallentamenti e complicazioni, obiettano altri studiosi ancora, e in generale richiederebbe una valutazione “politica” che non rientra nei compiti degli scienziati.– Leggi anche: La scienza non è “neutra”Avere nomi scientifici stabili e universalmente accettati è una condizione fondamentale per una condivisione e una comunicazione dei dati chiara e inequivocabile nelle scienze moderne. L’attuale classificazione tassonomica degli organismi deriva da un metodo introdotto nel XVIII secolo dall’influente naturalista e accademico svedese Carlo Linneo, basato sulle somiglianze tra gli esseri viventi. Linneo codificò una nomenclatura binomiale, in base alla quale ciascuna specie è definita dalla combinazione di due nomi: il genere a cui appartiene la specie (Nannaria, per esempio) seguito da un epiteto per distinguere quella specie dalle altre appartenenti allo stesso genere (swiftae da marianae, per esempio).Nel caso di moltissime specie gli epiteti sono eponimi risalenti a quel primo periodo in cui naturalisti e collezionisti classificarono migliaia di nuove specie utilizzando la nomenclatura binomiale. E queste attività rientrarono il più delle volte in più ampi programmi di colonizzazione delle potenze europee nel corso del XVIII, XIX e XX secolo. Il risultato è che nella lista degli eponimi esiste una sproporzione nettissima verso quelli derivati da nomi di comandanti, conquistatori, collezionisti e studiosi che, nel caso dell’avifauna degli Stati Uniti, per esempio, trasformarono il continente in un insieme di omaggi alla conquista e alla colonizzazione, ha scritto recentemente sull’Atlantic il giornalista scientifico Ed Yong, riassumendo la discussione in corso.Negli ultimi anni, all’interno di un processo più ampio di rivalutazione degli effetti del colonialismo e del razzismo sistemico sulle istituzioni pubbliche, anche la scelta degli eponimi di alcune specie è stata oggetto di contestazioni. Nel 2018 gli ornitologi Robert Driver e Alexander Bond proposero all’American Ornithological Society, la principale organizzazione statunitense di ornitologia, di cambiare il nome di una specie di uccello passeriforme, lo zigolo di McCown (Rhynchophanes mccownii), ma la loro proposta fu respinta. Questa specie prende il nome da un naturalista dilettante e ufficiale dell’esercito, John P. McCown, che nel 1851 sparò a uno stormo di allodole e colpì anche un esemplare di passeriforme mai classificato prima di allora.A parte l’idea contestabile di nominare una specie dopo che il primo europeo ne raccolse un esemplare «quando indubbiamente i popoli indigeni conoscevano quella specie da millenni», scrissero Driver e Bond, McCown fu un comandante in capo dell’esercito degli Stati confederati impegnato durante la Guerra civile nella battaglia per la conservazione della schiavitù. Condusse missioni contro diverse tribù indigene lungo il confine canadese, tra il 1840 e il 1841, e contro la popolazione dei Seminole in Florida, tra il 1856 e il 1857.Descrivendo le ragioni del rifiuto della proposta, i membri di un comitato dell’American Ornithological Society obiettarono che «giudicare le figure storiche in base agli attuali standard morali è problematico». E si dissero preoccupati riguardo a quali potrebbero essere i criteri su «dove tracciare la linea per questo tipo di cambiamento», sostenendo che chi si occupa di tassonomia e nomenclatura dovrebbe piuttosto «lottare per la stabilità nei nomi», a meno che non ci siano motivi straordinariamente convincenti per cambiarli.– Leggi anche: L’ornitorinco ci ha sempre mandati in crisiL’orientamento dell’organizzazione cambiò nel 2020, dopo l’uccisione di George Floyd e i successivi movimenti di protesta, che coinvolsero anche il mondo dell’ornitologia nel dibattito sulle discriminazioni razziali in corso in tutto il paese. Molti naturalisti, osservatori e appassionati sostennero che fosse necessario cambiare gli eponimi problematici (sono eponimi i nomi di circa 150 specie di uccelli del Nord America). Due ornitologi, Jordan Rutter e Gabriel Foley, avviarono a giugno del 2020 la campagna Bird Names for Birds, con l’obiettivo di rinominare tutti gli uccelli americani il cui nome fosse un eponimo.A luglio l’American Ornithological Society riconsiderò la proposta di Driver e Bond a causa «dell’accresciuta consapevolezza sulle questioni razziali», e ad agosto il nome comune dello zigolo di McCown fu cambiato in zigolo dal becco grosso. Gruppi di studiosi motivati da questi stessi sentimenti chiesero e ottennero anche in Europa una modifica dei nomi comuni di altri animali, tra cui una specie di falena (Lymantria dispar dispar) il cui nome comune gypsy moth, “falena zingara”, fu modificato in spongy moth, “falena spugnosa”.Tra le istituzioni scientifiche responsabili dell’approvazione dei nomi delle nuove specie esistono posizioni generalmente meno inclini all’introduzione di cambiamenti. Secondo il ricercatore portoghese Luis Ceríaco, membro della Commissione internazionale di nomenclatura zoologica (International Commission on Zoological Nomenclature, ICZN), un gruppo di 26 scienziati che fornisce le linee guida per la denominazione degli organismi viventi, l’obiettivo della nomenclatura deve essere garantire l’uniformità in diversi campi di ricerca. Le regole, ha detto Ceríaco alla rivista Undark, dovrebbero «consentire alle persone di sapere davvero di cosa stanno parlando quando si riferiscono alle specie».Per questo motivo la tendenza dell’ICZN, così come quella della International Association for Plant Taxonomy, l’organizzazione internazionale che si occupa di tassonomia e nomenclatura nella botanica, è di dare priorità ai nomi che esistono da più tempo e modificarli soltanto per motivi scientifici. I nomi possono cambiare perché una specie viene riclassificata o suddivisa in diverse nuove specie, per esempio, o quando gli scienziati scoprono un nome alternativo che era stato assegnato in precedenza e poi dimenticato. Le proposte di modificare i nomi delle specie per ragioni sociali o politiche sono invece controverse: criticate da alcuni e sostenute da altri.Ceríaco è uno dei commissari dell’ICZN autori di un articolo pubblicato a febbraio scorso sulla rivista Zoological Journal of the Linnean Society e contrario alla ridenominazione delle specie per motivi etici da parte dell’ICZN. Decidere quali eponimi debbano essere modificati perché percepiti come offensivi, secondo Ceríaco e gli altri, non è un compito della commissione. «A causa della natura intrinsecamente soggettiva di queste valutazioni, sarebbe inopportuno per la commissione esprimere giudizi su tali questioni di moralità, perché non esistono parametri specifici per determinare le soglie di offensività di un nome scientifico per una determinata comunità o individuo, nel presente o nel futuro».– Leggi anche: Se volete chiamare col vostro nome una nuova specie, vi basta vincere un’astaUn esempio citato spesso tra i più problematici è quello di una rara specie di coleottero cieco, l’Anophthalmus hitleri, presente soltanto in alcune grotte in Slovenia. A scegliere il nome di questo coleottero fu un naturalista austriaco, Oskar Scheibel, che lo scoprì nel 1933 e decise di dedicarlo al neocancelliere tedesco Adolf Hitler, che apprezzò la scelta e scrisse a Scheibel per ringraziarlo. A causa di questo particolare eponimo, al di là delle considerazioni di tipo etico, gli esemplari di questo coleottero sono diventati nel corso del tempo un obiettivo di molti collezionisti di cimeli nazisti, e questa specie è attualmente considerata a rischio di estinzione.Nemmeno il caso dell’Anophthalmus hitleri è stato ritenuto dall’ICZN un esempio di ragioni appropriate per cambiare il nome di una specie, nonostante le numerose richieste. «Siamo assolutamente fermi nel non regolamentare sulla base dell’etica, non è il nostro mandato», ha spiegato all’Atlantic il presidente della commissione Thomas Pape.In un numero del 2010 della rivista American Entomologist l’importante entomologa statunitense May Berenbaum scrisse che la logica nel preservare “hitleri” è che il nome di per sé non è offensivo. «Francamente, però, un nome scientifico che condanni una specie all’estinzione per mano di fanatici collezionisti di cimeli fascisti provoca un’offesa considerevole, almeno per me», aggiunse Berenbaum, suggerendo che il coleottero «meriterebbe di essere liberato dalla sua sfortunata storia etimologica».Un esempio problematico citato in botanica riguarda l’estesa e da alcuni criticata diffusione della radice linguistica “rhodes-” nella nomenclatura delle piante, in onore dell’imprenditore e politico inglese Cecil John Rhodes, a cui fu intitolata l’intera colonia britannica della Rhodesia (che occupava il territorio dello stato oggi chiamato Zimbabwe). Arrivato in Sudafrica alla fine del XIX secolo, Rhodes ebbe un ruolo rilevantissimo nell’evoluzione storica dell’Africa coloniale e nell’ispirazione delle politiche segregazioniste. Nel 2015, a fronte delle proteste di centinaia di studenti, la statua di Rhodes posta davanti all’università sudafricana di Città del Capo venne rimossa su richiesta del consiglio dell’università.Le richieste di modificare la nomenclatura hanno tuttavia portato alcuni tassonomisti a sostenere che l’introduzione di valutazioni politiche nella tassonomia aprirebbe una serie di questioni spinose. In un articolo pubblicato nel 2022 il botanico ucraino Sergei Mosyakin si è chiesto quali dovrebbero essere le linee di demarcazione utili per gli scienziati per distinguere gli epiteti buoni da quelli cattivi. «Dovremmo sbarazzarci dei nomi scientifici delle piante associate alla regina Vittoria, che governò il più grande impero coloniale del XIX secolo?», si è chiesto Mosyakin. In questo caso servirebbe trovare nuovi nomi, «politicamente neutri», sia a tutto un genere di piante acquatiche dedicato alla regina Vittoria, il genere Victoria, che a numerose specie tra cui l’Agave victoriae-reginae e il Dendrobium victoriae-reginae. E un discorso simile vale anche per George Washington e Thomas Jefferson.Esiste un codice etico fornito dall’ICZN in base al quale nessuno scienziato dovrebbe consapevolmente scegliere un nome offensivo per una nuova specie, ha detto Ceríaco a Undark. Ma la commissione è comunque molto attenta a lasciare alle persone una certa libertà nella scelta dei nomi, ragione per cui anche quelli che potrebbe infrangere il codice etico tendenzialmente non vengono modificati.«Raccomandiamo vivamente alle persone di essere sicure che ciò che sceglieranno non offenderà nessuno», ha detto Ceríaco, sostenendo che scegliere in alternativa di giudicare quali nomi siano accettabili e quali no scoperchierebbe «un vaso di Pandora». Sottoporre la scelta dei nomi a una valutazione collettiva di questo tipo, secondo Ceríaco, influenzerebbe significativamente il lavoro dei ricercatori in tutto il mondo, che dipende da un quadro tassonomico stabile. E cambiare i nomi finirebbe probabilmente per provocare più complicazioni che mantenerli.– Leggi anche: I “pesci” non esistonoConsapevoli del fatto che cambiare tutti gli eponimi problematici già in uso da secoli sarebbe impraticabile, gli autori e le autrici dell’articolo pubblicato a marzo su Nature Ecology and Evolution sostengono che l’ICZN potrebbe rafforzare le regole del codice per limitare al massimo l’utilizzo degli eponimi in futuro. E potrebbe incaricare i tassonomisti delle regioni native delle varie specie di rinominare le proposte che giungono alla commissione.Il problema della prassi degli eponimi, secondo il gruppo, è che è indissolubilmente legata alla storia coloniale della scienza: ragione per cui molte specie finirono per prendere il nome da europei bianchi, maschi e di classe elevata. In Africa 1.565 specie di uccelli, rettili, anfibi e mammiferi (ossia un quarto dei vertebrati endemici) sono eponimi, osservano gli autori e le autrici dello studio, e «i ricercatori delle ex colonie potrebbero sentirsi giustamente a disagio, risentiti o addirittura arrabbiati per i continui richiami ai regimi imperiali e/o politici che si riflettono nei nomi delle specie autoctone ed endemiche».Finché gli organismi prenderanno il nome da persone, secondo la ricercatrice portoghese Patrícia Guedes, coautrice dell’articolo, queste discussioni continueranno. «Sono sicura che esistono altri modi di onorare le persone che hanno contribuito alla scienza, diversi dall’attribuire il loro nome a un altro essere vivente», ha detto Guedes.Secondo altri studiosi, la prassi di attribuire degli eponimi alle nuove specie può però avere anche risvolti positivi. Scegliere personaggi famosi può coinvolgere la comunità e attirare l’attenzione verso scoperte e ricerche che potrebbero passare altrimenti inosservate, come per esempio quella di una specie di vipera che prende il nome da James Hetfield dei Metallica (Atheris hetfieldi) o quella di un serpente non velenoso che prende il nome da Leonardo DiCaprio (Sibon irmelindicaprioae).Inoltre, come del resto sostenuto anche dagli autori e dalle autrici dell’articolo uscito a marzo, gli eponimi danno ai ricercatori la possibilità di scegliere come nome da dare a una nuova specie quello di scienziati dei paesi in cui quelle specie vengono scoperte, come per esempio un geco endemico in Angola (Pachydactylus maiatoi) che prende il nome dal biologo angolano Francisco Maiato Gonçalves. LEGGI TUTTO

  • in

    Non riuscire a capire i colori

    Una ciliegia rossa. Per la maggior parte delle persone sono sufficienti poche parole per immaginare un frutto con una particolare forma e soprattutto con un colore specifico, quello che del resto associamo nel nostro immaginario alle ciliegie mature al punto giusto. Eppure ci sono persone che a causa dei loro problemi di visione non sanno che cosa sia il rosso, o qualsiasi altro colore. Hanno una rara condizione che si chiama “agnosia per il colore” e non riguarda problemi di percezione o il daltonismo, ma è piuttosto una incapacità di capire il colore.Studiare queste persone è importante non solo per provare ad alleviare i loro problemi, ma anche per capire meglio come funziona il nostro cervello, come distingue i colori e come organizza le informazioni che derivano dalla loro presenza per dare un senso a ciò che abbiamo intorno.L’agnosia per il colore è nota da tempo, ma ha ricevuto particolari attenzioni negli ultimi vent’anni soprattutto grazie a un paziente chiamato MAH dai ricercatori per tutelarne la privacy. È una delle pochissime persone che a quanto pare ha ereditato questo condizione, invece di svilupparla in seguito a un evento traumatico come un ictus. Solitamente sono infatti episodi di questo tipo a danneggiare le aree del cervello deputate alla visione, che smettono di funzionare come dovrebbero, mentre è estremamente raro che l’agnosia per il colore sia trasmessa per linea familiare.La storia di MAH è particolare. Aveva una quarantina di anni quando ebbe un ictus, che non gli lasciò particolari conseguenze. Aderì a un programma di riabilitazione e fu in quell’occasione che i neurologi che lo seguivano notarono qualcosa di strano quando si trattava di sottoporlo ai test che riguardavano i colori. Era restio a svolgere prove sul riconoscimento di un colore dall’altro e si sbagliava spesso. Inizialmente i medici avevano pensato che quelle stranezze fossero dovute all’ictus: MAH però aveva poi confidato di avere da sempre problemi con i colori.MAH riusciva a vederli normalmente tutti, non era daltonico quindi, e riusciva a svolgere vari test, come quelli in cui si devono raggruppare oggetti dello stesso colore. Se però gli veniva chiesto di ordinare in una certa sequenza degli oggetti colorati, non riusciva a superare il test. Non era in grado di associare il concetto di rosso a un oggetto rosso e nemmeno di immaginare il colore di oggetti a lui familiari, come quello della sua automobile. Se gli veniva mostrato il disegno di un frutto di un colore diverso da quello che avrebbe dovuto avere non notava nulla di strano.Gli esiti dei test avevano lasciato perplessi i medici: la spiegazione più logica era che MAH avesse subìto un danno cerebrale, ma dagli esami non erano emersi elementi per ritenerlo. Lo stesso MAH, oltre a confermare di avere avuto sempre quella condizione, aveva spiegato che anche sua madre soffriva di agnosia per il colore, e così anche la sua figlia più grande. Era il primo caso osservato di agnosia per il colore di tipo familiare, o “dello sviluppo” come sarebbe stata in seguito definita dai gruppi di ricerca.Come racconta all’Atlantic, il neuroscienziato J. Peter Burbach ha trascorso gli ultimi anni alla ricerca di altre persone con la medesima condizione, cercando di distinguerle da quelle che hanno invece sviluppato l’agnosia per il colore in seguito a un evento traumatico. Burbach dice che finora è stato «un compito pressoché impossibile». È impensabile che la famiglia di MAH sia l’unica, ma trovare altre persone non è semplice perché chi è nato con quella condizione vive una normalità diversa e non è detto che ne abbia consapevolezza. Anche per questo motivo è difficile fare una diagnosi, che avviene solo nel caso in cui un medico insista mentre sta conducendo la visita per altri problemi neurologici più evidenti.L’agnosia per il colore non deve essere confusa con l’acromatopsia cerebrale, altra condizione che porta chi ne soffre a vedere il mondo sostanzialmente in tonalità di grigio a causa dell’incapacità del cervello di elaborare correttamente i colori. Non dipende insomma da parti del sistema visivo come occhi e nervo ottico, che inviano correttamente i segnali sulla presenza del colore al cervello.Le condizioni neurologiche intorno ai colori sono del resto numerose e non sempre semplici da distinguere e diagnosticare. Un altro tipo di disturbo impedisce per esempio alle persone di dare un nome al colore che vedono, ma non gli impedisce di indicarne uno richiesto tra una serie di opzioni disponibili.Marlene Behrmann, una ricercatrice che si occupa di visione all’Università di Pittsburgh (Stati Uniti) ha detto sempre all’Atlantic che le persone con agnosia per il colore riescono a percepire il rosso o il verde, per esempio, ma «hanno in un certo senso perso il concetto stesso di colore». Non riescono a costruire e mantenere nella loro mente l’idea di un determinato colore e per questo non trovano particolarmente strano il disegno di una ciliegia viola.Trovare altre persone con una forma di agnosia per il colore come quella di MAH potrebbe aiutare i gruppi di ricerca a portare avanti le conoscenze sulla visione in generale, un meccanismo altamente complesso. Il confronto tra queste persone e il resto della popolazione vedente potrebbe inoltre offrire spunti importanti per comprendere in generale come vediamo e interpretiamo le cose che abbiamo intorno.Un maggior numero di persone con la forma di agnosia per il colore che ha MAH consentirebbe inoltre di effettuare studi genetici alla ricerca delle mutazioni che lo determinano. Il gene o i geni interessati potrebbero influenzare altri meccanismi legati allo sviluppo cerebrale, tali da offrire nuove opportunità di studio. La ricerca non è semplice, ma i ricercatori confidano che facendo conoscere più diffusamente questa condizione alcune persone interessate si sentano incentivate a mettersi in contatto con loro. LEGGI TUTTO

  • in

    Il diritto del mare ha sempre più limiti

    Caricamento playerPer lungo tempo, prima di essere codificato in una serie di trattati e poi in una Convenzione introdotta dalle Nazioni Unite nel 1982, il diritto internazionale che regola i rapporti tra gli stati in ambito marittimo si basava su una concezione del mare inteso come spazio libero, privo delle regole valide sulla terraferma. Fu inizialmente un principio funzionale agli interessi commerciali e strategici delle potenze coloniali europee, in particolare i Paesi Bassi, la cui supremazia economica all’inizio del Seicento dipese fortemente dai successi della loro marina mercantile e dal potere esercitato lungo le principali rotte d’oltreoceano.Qualsiasi tentativo di regolare i diritti di navigazione in quel contesto era per quelle potenze sostanzialmente sconveniente. Ma dalla seconda metà dell’Ottocento cominciò ad affermarsi una tendenza degli stati costieri a estendere progressivamente la propria giurisdizione sui mari adiacenti. E sia dalla normalizzazione di questa successiva tendenza che dal principio della libertà rimasto valido per il mare più distante dalle coste derivano in gran parte gli istituti del diritto internazionale del mare vigenti ancora oggi, che stabiliscono una serie di delimitazioni più o meno rigide degli spazi marini e regole sui poteri che gli stati possono esercitare su quegli spazi.In un lungo articolo sulla rivista The Dial, Surabhi Ranganathan, ricercatrice inglese e docente di diritto internazionale alla University of Cambridge, ha posto alcune questioni centrali riguardo alle evoluzioni più recenti del dibattito sul diritto del mare e quelle prevedibili nel prossimo futuro. E ha citato diversi esempi di come le categorie e le classificazioni su cui si basa la distinzione tra parti del mare giuridicamente assimilabili alla terraferma e parti che non lo sono siano diventate nel corso del tempo più incerte e problematiche a causa di molteplici fattori.Le innovazioni tecnologiche hanno permesso di rendere terra parte di ciò che prima era mare: è successo per esempio con gli ampi progetti di bonifica nello stretto di Singapore. Gli effetti dei cambiamenti climatici potrebbero anche rapidamente trasformare in mare ciò che prima era terra. E spazi oceanici di scoperta relativamente recente, come le “isole di plastica” e le sorgenti idrotermali, non sono né completamente mare né completamente terra. Questi fenomeni mettono in discussione non soltanto i modi in cui responsabilità e diritti sui diversi spazi del mare sono stati interpretati nei secoli, ma lasciano emergere parti sempre più ampie di questioni indefinite e complicano la nostra stessa immaginazione su cosa sia terra e cosa sia mare.– Leggi anche: La Terra è rotondaL’innalzamento del livello del mare avrà un impatto significativo sui territori più fragili ed esposti, incluse le molte zone portuali del mondo ricavate da attività di bonifica di territori a contatto con gli oceani. Ma in generale è uno dei fenomeni che mettono più a rischio l’esistenza di grandi centri urbani e la sopravvivenza di milioni di persone, tra cui molte che si sono faticosamente stabilite in quelle aree dopo aver già perso altrove la casa e i mezzi di sussistenza.Ci sono poi stati insulari che rischiano di scomparire del tutto, come Tuvalu, le isole Marshall, le Kiribati e le Salomone nell’oceano Pacifico, o le Maldive e le Seychelles nell’oceano Indiano. E la possibilità di una completa estinzione di questi territori solleva questioni giuridiche irrisolte. Se, come scrisse l’esperto australiano di diritto internazionale James Richard Crawford, la presenza di «una comunità territoriale governata» è uno dei criteri da soddisfare affinché uno stato possa esistere, «che fare delle isole che non avranno più comunità territoriali perché il loro territorio sarà stato reclamato dal mare?», si chiede Ranganathan, indicando anche un problema di definizioni. «Quelle popolazioni diventeranno apolidi, per aver perso non la cittadinanza o la nazionalità, ma piuttosto il terreno su cui si trovavano un tempo?».L’atollo di Tarawa, nelle isole Kiribati, il 30 marzo 2004 (AP Photo/Richard Vogel)In anni recenti alcuni stati insulari comprensibilmente preoccupati della propria sovranità e indipendenza a fronte degli effetti del cambiamento climatico hanno esplorato la possibilità di dislocare i propri territori. Nel 2014, dopo il parziale insuccesso di un programma di adattamento sostenuto dalle Nazioni Unite e dalla Banca Mondiale, la Repubblica di Kiribati acquistò 20 chilometri quadrati di territorio perlopiù disabitato nelle isole Fiji pagando 8,77 milioni di dollari alla Chiesa anglicana, giunta in diverse regioni del Pacifico nell’Ottocento attraverso l’espansione dell’Impero britannico e l’attività dei missionari.«Speriamo di non trasferire tutti su quel pezzo di terra, ma se diventasse assolutamente necessario, sì, potremmo farlo», disse l’allora presidente di Kiribati Anote Tong riferendosi ai circa 110 mila abitanti delle isole del paese che potrebbero un giorno abitare nel territorio delle Fiji. Acquisti di questo tipo riguardano tuttavia la proprietà dei territori ma non la sovranità, che deve essere invece discussa con lo stato cedente e su cui di solito è molto più difficile trovare un accordo, come dimostra tra gli altri un caso storico tra l’Australia e la piccola repubblica di Nauru, analizzato dalla giurista australiana ed esperta di cambiamenti climatici Jane McAdam.A lungo colonia dell’Impero tedesco, Nauru divenne alla fine dell’Ottocento uno dei territori governati tramite un mandato della Lega delle Nazioni, l’organizzazione da cui poi nacque l’ONU, e la sua gestione fu affidata all’Australia, alla Nuova Zelanda e al Regno Unito. Dopo aver subito diversi danni ambientali a causa dell’estrazione di fosfato, una sostanza impiegata nella produzione di fertilizzanti e molto presente nei giacimenti del paese, Nauru propose un reinsediamento su una nuova isola. Nel 1963 l’Australia dichiarò la disponibilità a fornire a questo scopo Curtis Island, un’isola di 400 mila metri quadrati nello stato del Queensland, distante circa 3 mila chilometri da Nauru. Ma rifiutò categoricamente di trasferire a Nauru la sovranità dell’isola.Un altro problema posto dalla possibilità di reinsediamento degli stati insulari a rischio di estinzione territoriale, considerando questa estinzione un fenomeno graduale e già in corso, riguarda i confini da usare come riferimento per tracciare altrove i limiti di un eventuale nuovo territorio. Un’ipotesi valutata in anni recenti nel diritto internazionale e sostenuta da diversi paesi e territori dell’Oceania è di “congelare” le linee di riferimento, cioè fissare in modo definitivo nel tempo dei punti sulla base dei quali misurare l’estensione degli stati de-territorializzati.Questo approccio avrebbe il vantaggio di garantire che progressive riduzioni o estensioni dei territori, dipendenti dai confini mutevoli tra terra e mare, non abbiano alcun effetto sui diritti alle risorse reclamati dagli stati che stanno affondando, scrive Ranganathan. Ma ovviamente un eventuale trasferimento di massa risolverebbe solo una parte del problema, dal momento che le persone costrette a lasciare le loro case per l’innalzamento del livello del mare avrebbero comunque bisogno di nuove case e di prospettive per la loro sussistenza e per la sopravvivenza delle loro comunità politiche.– Leggi anche: Adattarsi male al cambiamento climaticoPer come si è sviluppato nel Novecento il diritto del mare ha posto una serie di problemi anche riguardo alla piattaforma continentale, cioè la parte sommersa dei continenti che si estende fino al punto in cui la pendenza del fondale marino aumenta nettamente (in corrispondenza della cosiddetta scarpata continentale). Su questo spazio, considerato da meno di un secolo il naturale prolungamento del territorio degli stati costieri, ciascuno degli stati può esercitare il diritto di sfruttamento esclusivo delle risorse minerali e viventi. Solo che alcune coste hanno una piattaforma continentale molto ampia e altre ne hanno una stretta, e quindi per convenzione si considera come zona di sfruttamento esclusivo un’area di mare che si estende per 200 miglia nautiche (circa 370 chilometri) dalla costa, indipendentemente dalla struttura fisica del fondale e dalla profondità.A portare i paesi costieri verso questa convenzione furono soprattutto due fattori, scrive Ranganathan. Il primo fu la pressione delle compagnie petrolifere e le loro migliorate capacità di compiere estrazioni in acque più profonde, cosa che incoraggiò gli stati a estendere la giurisdizione su tratti più ampi della piattaforma continentale così da poter garantire alle società l’utilizzo esclusivo dei siti di trivellazione. E l’altro fattore fu la pressione degli stati con piattaforme poco ampie, come molti paesi latinoamericani, interessati a tenere in considerazione un criterio di distanza dalla costa anziché uno di profondità del fondale.La Convenzione delle Nazioni Unite sul diritto del mare introdotta nel 1982, che riflette questo orientamento dei paesi, stabilisce che sia possibile per gli stati costieri affermare il controllo sui fondali marini anche oltre il confine convenzionale di 200 miglia nautiche. Ma per poterlo fare è necessario dimostrare a un’istituzione specifica delle Nazioni Unite – la Commissione per i limiti della piattaforma continentale – che la propria piattaforma si estenda oltre quel limite. Se le prove geologiche vengono accettate, la parte ulteriormente qualificata come piattaforma viene posta sotto la giurisdizione dello stato che ha presentato la richiesta e sottratta alle acque internazionali, cioè quelle su cui nessun paese ha giurisdizione né proprietà e a cui tutti hanno libero accesso.Un caso molto noto di disputa sulla piattaforma continentale riguarda parti dell’oceano Artico rivendicate da Canada, Danimarca, Norvegia, Stati Uniti e Russia: tutti paesi che possiedono solo una parte dell’Artide, mentre la maggior parte degli oltre quattro milioni di chilometri quadrati su cui si estende la regione non è sotto alcuna giurisdizione nazionale. I motivi delle rivendicazioni sono sia economici che politici, legati ai giacimenti di petrolio e gas naturale nell’Artico non ancora scoperti, e all’importanza strategica della possibilità di aprire rotte commerciali che potrebbero diventare più percorribili in seguito allo scioglimento dei ghiacci provocato dal riscaldamento globale.Dopo aver formulato una richiesta alle Nazioni Unite già nel 2002, senza ottenere alcun risultato, nel 2007 la Russia posizionò una bandiera russa sul fondale del Mar Glaciale Artico, come gesto simbolico per reclamare la sovranità su quel tratto. «Questo non è il Quindicesimo secolo. Non puoi andare in giro per il mondo piantando bandiere, e dire: “Rivendichiamo questo territorio”», disse l’allora ministro degli Esteri canadese Peter MacKay contestando l’azione della Russia.Una bandiera russa sul fondale di un tratto del Mar Glaciale Artico, il 2 agosto 2007 (AP Photo/Association of Russian Polar Explorers)Sebbene le aspettative dei paesi siano che la Convenzione e la Commissione possano risolvere dispute come quelle sulla piattaforma continentale, scrive Ranganathan, bisognerebbe tenere presente che molte rivendicazioni in conflitto tra loro sono fondate proprio sul diritto del mare come regolamentato da questi strumenti, in una sorta di circolo vizioso. A questo si aggiunge che la Commissione non può pronunciarsi su rivendicazioni in conflitto tra loro: se più di un paese avanza richieste di possesso e sovranità sulle stesse zone, si devono mettere d’accordo tra loro quei paesi, con la supervisione di tutti i firmatari della Convenzione.Molti problemi sono cioè effetti a lungo termine di orientamenti espressi a monte di quegli accordi, in parte funzionali allo sfruttamento delle risorse naturali e, nello specifico, all’estrazione di combustibili fossili: che è a sua volta in relazione con il riscaldamento globale e lo scioglimento dei ghiacci dell’Artico, origine delle dispute recenti.– Leggi anche: Come stanno cambiando le rotte articheUn fenomeno utile a chiarire quanto la definizione delle responsabilità nel diritto del mare possa essere tanto problematica quanto urgente sono le isole galleggianti di rifiuti di plastica che si raccolgono sulla superficie degli oceani Pacifico, Atlantico e Indiano, provocando gravi danni ambientali e contaminazioni lungo la catena alimentare. Secondo le stime di uno studio del 2018 la quantità di plastica accumulata nelle acque subtropicali tra la California e le Hawaii ha un peso approssimativo di 79 mila tonnellate e un’estensione di 1,6 milioni di chilometri quadrati (quanto tutto l’Iran, oltre 5 volte l’Italia).Nonostante l’esistenza di diversi accordi che regolano la cooperazione internazionale in materia di protezione dell’ambiente marino, come la Convenzione internazionale per la prevenzione dell’inquinamento causato da navi (Marpol 73/78) e la Convenzione di Londra del 1972, è difficile sia attribuire responsabilità specifiche per il problema delle isole di plastica, sia individuare quali paesi dovrebbero risolverlo nell’interesse collettivo. E non è chiaro nemmeno quanta responsabilità gli stati saranno disposti ad assumersi nel nuovo atteso trattato internazionale per ridurre i rifiuti di plastica che dovrebbe essere completato entro il 2024.Eventuali operazioni di rimozione e bonifica delle aree in cui è raccolta la plastica galleggiante, ricorda Ranganathan, presentano inoltre due grandi problemi pratici. Uno riguarda i costi, così ingenti da aver dissuaso dal sostenerli anche i paesi con una più forte e influente presenza di associazioni ambientaliste. E l’altro riguarda le tecnologie specificamente studiate per questo scopo, che secondo uno studio del 2020 metterebbero a rischio la vita di una quantità di animali compresa tra 0,8 e 40 miliardi per ogni ora di utilizzo, condizionando negativamente il rapporto tra costi e benefici.Un cumulo di rifiuti galleggianti sul lago Potpeć vicino a Priboj, in Serbia, il 22 gennaio 2021 (AP Photo/Darko Vojinovic)Per attirare l’attenzione sulla dimensione del problema della plastica in mare e sulle responsabilità collettive, nel 2017 il gruppo editoriale inglese LADbible e l’associazione statunitense non profit Plastic Oceans International avviarono una campagna piuttosto creativa per chiedere alle Nazioni Unite di riconoscere l’accumulo di plastica presente nel Pacifico come un paese autonomo e indipendente, chiamato Trash Isles (“Isole Spazzatura”). Ne progettarono la bandiera, la valuta, il passaporto e i francobolli, e invitarono le persone a richiederne la cittadinanza: l’appello fu accolto da oltre 225 mila aspiranti cittadini dell’isola, tra cui il famoso divulgatore scientifico inglese David Attenborough e l’ex vicepresidente statunitense Al Gore.In un articolo dedicato all’iniziativa, in cui ne descrivevano le implicazioni paradossali, i responsabili suggerirono che l’isola avrebbe potuto teoricamente soddisfare i criteri di territorialità, sovranità e altri necessari per essere considerata un paese. E diventando un paese delle Nazioni Unite avrebbe potuto chiedere agli altri paesi membri, sulla base del principio 7 della Dichiarazione di Rio sull’ambiente e lo sviluppo del 1992, di intervenire sull’isola «cooperando in uno spirito di partnership globale per conservare, tutelare e ripristinare la salute e l’integrità dell’ecosistema terrestre».– Leggi anche: È difficile sapere dove finisce tutta la plasticaEsistono infine, secondo Ranganathan, altri esempi concreti di attività umane o naturali che descrivono i limiti del diritto del mare nel definire responsabilità e diritti in acque internazionali. Uno di questi sono le reti di cavi sottomarini che, dopo varie evoluzioni ma attraverso vecchie rotte telegrafiche e telefoniche, collegano i continenti fin dalla seconda metà dell’Ottocento: «le arterie nascoste della globalizzazione», come le definisce Ranganathan. Si calcola che poche centinaia di cavi sottomarini, che appartengono perlopiù a grandi aziende private e coprono complessivamente una lunghezza di oltre 1,4 milioni di chilometri, siano attualmente responsabili di quasi tutto il traffico di dati transoceanico.La produzione e la posa di questi cavi ebbe un pesante impatto ambientale fin da subito, definito dallo storico australiano John A. Tully un «disastro ecologico vittoriano». Per ottenere l’isolamento dall’acqua necessario al funzionamento dell’infrastruttura, all’inizio, i fili dei cavi erano avvolti in un tipo di gomma naturale – la guttaperca – ricavata da alberi delle foreste pluviali del Sudest asiatico. Questa necessità, secondo Tully, portò alla distruzione complessiva di circa 88 milioni di alberi fino all’inizio del Novecento, quando la guttaperca cominciò a essere progressivamente sostituita da altri materiali, che ancora oggi comportano comunque costi ambientali estremamente elevati.Una serie di cavi telefonici sottomarini vengono posati lungo un tratto del fiume Charles a Boston, di fronte alla baia del Massachusetts, il 21 aprile 1952 (AP Photo)Oltre alle responsabilità dei costi ambientali esiste anche una questione relativa ai rischi di danni accidentali alla rete, provocati a loro volta dagli altri utilizzi intensivi degli oceani: spedizioni, pesca, estrazione di petrolio, gas e minerali in acque profonde, per esempio. Come esiste anche il rischio di danni provocati intenzionalmente, per atti di terrorismo o in contesti di guerra, o causati da eventi meteorologici estremi legati agli effetti del cambiamento climatico. Secondo Ranganathan e altri esperti il diritto del mare non offre sufficienti protezioni contro tutti questi rischi: perché l’infrastruttura si trova in quella complicata e indistinta zona del diritto a metà tra la proprietà privata e l’interesse pubblico, e perché le leggi sottolineano la libertà di posare cavi ma forniscono indicazioni molti limitate sui diritti e le responsabilità che ne derivano.– Leggi anche: Dobbiamo preoccuparci di più di cavi e tubi sottomarini?Un’altra questione rispetto alla quale gli strumenti forniti dal diritto del mare risultano limitati e inadatti riguarda le sorgenti idrotermali: fratture nelle profondità oceaniche da cui fuoriesce acqua riscaldata e in cui si trovano molti minerali preziosi, scoperte negli anni Settanta in corrispondenza di aree vulcaniche attive. Le sorgenti ospitano ecosistemi molto rari e forniscono sostanze essenziali per microrganismi che per sopravvivere in mancanza di luce solare non utilizzano la fotosintesi ma la chemiosintesi (un processo di conversione di sostanze inorganiche, derivate da particolari reazioni chimiche, in sostanze organiche ed energia).Queste parti del pianeta, che non ricadono sotto alcuna giurisdizione nazionale, rappresentano un punto di interesse per il possibile sfruttamento delle risorse: dalle fratture sgorgano minerali sempre più richiesti dall’industria mondiale, tra cui manganese, rame, ferro, nichel, cobalto, oro e argento, che precipitano e si depositano sul fondale formando lastre e tumuli. Ma rappresentano anche un’opportunità per la ricerca scientifica e una preziosa fonte di informazioni sulle condizioni in cui la vita potrebbe aver avuto origine. Proprio per questo, alcune aree in corrispondenza delle sorgenti idrotermali potrebbero ottenere protezione dall’UNESCO attraverso l’assegnazione del titolo di Patrimonio mondiale dell’umanità.Un veicolo della National Oceanic and Atmospheric Administration, l’agenzia statunitense che si occupa degli studi meteorologici e oceanici, esplora una formazione idrotermale in acque profonde vicino alle isole Marianne, nell’oceano Pacifico, il 28 aprile 2016 (NOAA/AP)Questo fenomeno naturale, scoperto troppo tardi perché la Convenzione del 1982 potesse tenerne conto e citarlo direttamente, secondo Ranganathan espone in modo molto chiaro una debolezza intrinseca nel trattato: quella di essere basato su «nette classificazioni binarie tra terra e acqua, vita e materia, mobilità e immobilità», e su disposizioni che suddividono l’oceano e il suo contenuto in regimi economici discreti.I minerali dei fondali marini indicati come patrimonio dell’umanità, per esempio, sono posti sotto la giurisdizione dell’Autorità internazionale dei fondali marini (ISA), un ente indipendente istituito dalla Convenzione, peraltro non interessato a proibire l’estrazione mineraria ma solo a limitarne l’impatto ambientale. E per le forme di vita vige invece il principio di libertà del mare, e cioè le disposizioni generali in materia di pesca e, prossimamente, quelle contenute in un accordo sulla conservazione e l’utilizzo sostenibile della diversità biologica marina delle zone al di fuori della giurisdizione nazionale.È tuttavia improbabile, conclude Ranganathan, che le sorgenti idrotermali possano essere inquadrate correttamente nelle normative. In parte le classificazioni assecondano fin dall’origine, regolandolo, un orientamento incline all’estrazione di risorse. Ma le sorgenti idrotermali sfuggono per loro natura a qualsiasi classificazione. Sono luoghi in cui «solidi e liquidi si mescolano e si fondono in modo dinamico», in cui materia e vita sono entità intrecciate, e «mobilità e immobilità sono distinzioni prive di significato», in attesa di conoscenze più approfondite sui processi che avvengono all’interno delle sorgenti.– Leggi anche: Dragheremo gli oceani LEGGI TUTTO