More stories

  • in

    È morto a 100 anni lo scienziato e premio Nobel John B. Goodenough: contribuì allo sviluppo delle batterie agli ioni di litio

    Lunedì è morto a 100 anni lo scienziato statunitense John B. Goodenough: nel 2019 con M. Stanley Whittingham e Akira Yoshino ottenne il premio Nobel per la chimica “per lo sviluppo delle batterie agli ioni di litio”. Goodenough era nato a Jena, in Germania, da genitori statunitensi, ed è morto a Austin, in Texas, dove fino agli ultimi anni era ancora attivo nella ricerca nonché professore di ingegneria elettronica.Il lavoro sulle batterie agli ioni di litio è frutto di successive evoluzioni e scoperte da parte di differenti scienziati, come spesso accade: a partire dal 1980, quando lavorava presso l’università britannica di Oxford, Goodenough diede un contributo fondamentale allo sviluppo delle batterie ricaricabili che usiamo tutti i giorni, nei nostri smartphone, nei computer portatili, nelle automobili elettriche e in migliaia di altri dispositivi di vario tipo.– Leggi anche: Il Nobel per la Chimica per le batterie ricaricabili agli ioni di litio John B. Goodenough nel 2019 (AP Photo/Alastair Grant) LEGGI TUTTO

  • in

    L’altissimo QI dei geni è una balla

    Caricamento playerA volte capita di scorrere sui social inserzioni pubblicitarie in cui esperti e aziende di vari settori, per promuovere corsi o applicazioni per allenare la mente, la prendono larghissima e partono dal quoziente intellettivo dei geni del passato. Citano risultati clamorosi ottenuti nei test da scienziati come Leonardo Da Vinci, Isaac Newton e Albert Einstein, al quale viene comunemente associato un punteggio di 160. Il problema è che questi risultati sono inventati: sono stime, perché nessuno di quegli scienziati ha mai svolto un test del QI. E sono stime basate su deduzioni molto fragili, perché non ci sono valide ragioni per credere che i geni abbiano un QI molto alto.Esistono diversi test del quoziente intellettivo, ma tutti derivano da un tipo di valutazione psicologica ideata all’inizio del Novecento per misurare in modo il più possibile oggettivo le abilità cognitive delle persone in rapporto alla loro età. Nel contesto anglosassone il test è ampiamente utilizzato in ambito scolastico, professionale, medico e scientifico, e deve in larga parte il suo successo alla sua praticità: il fatto che permetta di esprimere in modo sintetico qualcosa di così complesso, sfuggente e poliedrico come l’intelligenza umana.L’affidabilità del test e in generale l’utilità del quoziente intellettivo come strumento di indagine sono però da anni oggetto di riflessioni e studi che si concentrano sui limiti e sui rischi di misurare l’intelligenza sulla base di un test standardizzato. I limiti sono peraltro noti alla maggior parte degli istituti e dei professionisti che utilizzano regolarmente il test, considerandolo uno strumento utile ma insufficiente, il cui risultato richiede un’interpretazione critica e ben contestualizzata alla luce di altri tipi di valutazione.Uno dei principali limiti noti del test del quoziente intellettivo è la sua scarsa attendibilità man mano che i punteggi si allontanano da quelli vicini alla mediana della popolazione e presentano un rischio maggiore di essere influenzati da variabili fuorvianti. È la ragione per cui un punteggio molto basso, inferiore a 70, non è un criterio sufficiente di diagnosi di disabilità intellettiva. Come uno superiore a 130 non è necessariamente un indice di genialità: considerazione che rende abbastanza insensato attribuire fantasiosi punteggi stratosferici a grandi scienziati del passato.– Leggi anche: Ci sono meno geni che in passato?Le prime versioni del test del QI furono sviluppate in Francia nel 1905 dagli psicologi Alfred Binet e Theodore Simon, con l’obiettivo di individuare precocemente i bambini con difficoltà di apprendimento e che avrebbero avuto bisogno di aiuto durante la formazione scolastica. Fu Lewis Terman, uno psicologo statunitense della Stanford University, a introdurre quel test negli Stati Uniti nel 1916 e ad ampliarne l’utilizzo. Dopo averlo fatto tradurre dal francese all’inglese, lo standardizzò su un certo numero di bambini e realizzò uno dei test più noti e diffusi ancora oggi (in una versione aggiornata), lo Stanford-Binet, convinto che il test potesse servire anche per il motivo opposto a quello immaginato da Binet e Simon: individuare i bambini geniali.Il test attirò da subito diverse critiche, tra cui quella del giornalista statunitense Walter Lippmann, che sulla rivista New Republic scrisse: «Detesto l’impudenza nell’affermare che in 50 minuti sia possibile giudicare e classificare l’idoneità predestinata di un essere umano nella vita». Nonostante le critiche, il test – che misura le abilità su una scala non assoluta ma relativa, definita dall’età o da altre variabili – ebbe grande successo e continuò a diffondersi. Negli anni Trenta i bambini con un alto QI venivano mandati in classi più impegnative per prepararsi a ricevere una formazione adatta all’università e a lavori ad alto reddito.Per dimostrare l’attendibilità del test, Terman pensò anche di sottoporlo a un insieme sufficientemente ampio di scolari della California, scegliere quelli con i punteggi più alti e seguire i loro progressi attraverso l’adolescenza e fino all’età adulta in un grande studio longitudinale. Tra decine di migliaia di soggetti furono infine selezionati i 1528 con il punteggio più alto, 856 maschi e 672 femmine, con una età media di 11 anni e un QI medio di 151, quasi tutti bianchi e di famiglie ricche o della classe media. I risultati della ricerca furono pubblicati con il titolo Genetic Studies of Genius, cinque volumi usciti tra il 1925 e il 1959. Il campione usato da Terman è ancora oggi oggetto di studi, sebbene viziato da pregiudizi di selezione, e i suoi membri sono scherzosamente chiamati “termiti” (termites, contrazione di termanites, “termaniani”).Le persone studiate da Terman diventarono professori, dottori, avvocati, scienziati, ingegneri e professionisti di altro tipo, ma nessuno di loro è mai diventato ciò che molte persone considererebbero un genio, scrisse nel 2018 sulla rivista Nautilus Dean Keith Simonton, docente di psicologia alla University of California, Davis. Due di loro, Robert Sears e Lee Cronbach, diventarono anche stimati psicologi della Stanford University e ripresero loro stessi, dopo la morte di Terman, lo studio di cui facevano parte. Stimati psicologi, appunto: non geni come Sigmund Freud o Jean Piaget, secondo Simonton.Molti partecipanti allo studio di Terman non riuscirono a laurearsi affatto né a ottenere lavori che richiedessero un’istruzione di livello superiore. Per non parlare delle donne, alcune delle quali non ottennero particolari successi nonostante un QI superiore a 180: cosa tuttavia meno sorprendente, scrisse Simonton, se si considera che vissero «in un momento in cui ci si aspettava che tutte le donne diventassero casalinghe, non importa quanto brillanti». In ogni caso, il QI degli uomini di successo non era sostanzialmente diverso da quello di tutti gli altri.– Leggi anche: Per valutare il successo bisogna considerare il “pregiudizio di sopravvivenza”Un altro fatto notevole contribuì a indebolire ulteriormente l’ipotesi di partenza di Terman. Dei circa 168 mila bambini da lui valutati in preparazione dello studio uno dei moltissimi non selezionati fu Luis Walter Álvarez, un bambino di San Francisco che si sottopose al test quando aveva 10 anni, nel 1921, e ottenne un punteggio troppo basso per entrare nel campione. Alla fine conseguì un dottorato di ricerca alla University of Chicago e diventò uno dei fisici più importanti del Novecento: per i suoi contributi allo studio delle particelle elementari ricevette il Nobel per la Fisica nel 1968.Anche un altro bambino non ottenne un punteggio sufficiente a entrare nel campione di Terman: William Shockley, nato a Palo Alto un anno prima di Álvarez. Finì per laurearsi al California Institute of Technology (Caltech) e prendere un dottorato al MIT, e lavorò a lungo nei Bell Laboratories, uno dei più importanti centri di ricerca della storia statunitense. Insieme ad altri due ricercatori del laboratorio, costruì nel 1947 il primo prototipo funzionante di transistor mai realizzato e ricevette il Nobel per la fisica nel 1956.Altri bambini scartati da Terman non vinsero il Nobel, ma almeno due diventarono comunque geni nel loro campo. Studiarono musica e sono oggi unanimemente considerati tra i più grandi violinisti del Novecento: Yehudi Menuhin e Isaac Stern.– Leggi anche: Storie di invenzioni conteseIn generale, come osservato dagli psicologi Russell Warne della Brigham Young University e Ross Larsen e Jonathan Clark della Utah Valley University, la correlazione tra il QI e il conseguimento di un premio Nobel è piuttosto debole. Il punteggio di Shockley e Álvarez non era sufficiente a rientrare nel gruppo studiato da Terman, ma era in linea con quello di altri premi Nobel, intorno a 120-125: il biologo James Dewey Watson e il fisico e famoso divulgatore Richard Feynman.In un’intervista nel 2004 l’astrofisico Stephen Hawking disse di non avere idea di quale fosse il suo QI e definì «sfigate» le persone che si vantano del proprio. A proposito della qualifica di genio a lui attribuita da molte persone, disse che «i media hanno bisogno di supereroi nella scienza proprio come in ogni sfera della vita» e che «di fatto esiste una gamma continua di abilità e nessuna chiara linea di demarcazione» tra quali siano geniali e quali no.In mancanza di dati sul QI di molti scienziati del passato le stime che circolano sono perlopiù basate, nella migliore delle ipotesi, sui risultati scolastici e universitari. È un ragionamento in parte legittimato dalla correlazione attuale tra i test sulle abilità cognitive come il QI e quelli di valutazione più utilizzati in ambito scolastico, tra cui lo Scholastic Aptitude Test (SAT), il principale test per l’ammissione ai college statunitensi. Ma anche dando per buona e applicando retroattivamente questa correlazione attuale non tornerebbero molto i conti con i QI irrealistici attribuiti ad alcuni famosi geni.Einstein, comunemente ma scorrettamente associato a un QI di 160, fu bocciato all’esame di ammissione al Politecnico di Zurigo la prima volta in cui lo sostenne, a 16 anni, nel 1895. Ottenne risultati eccellenti nelle sezioni di matematica e fisica, ma non in quella generale, in cui risultò penalizzato dalla sua conoscenza all’epoca ancora scarsa del francese, la lingua dell’esame e per lui seconda lingua.In generale, sulla base dei suoi risultati scolastici e universitari, è plausibile immaginare che Einstein fosse un ottimo studente: non uno con il massimo dei voti in ogni materia, che è però l’unica condizione che legittimerebbe – e solo fino a un certo punto – la tendenza ad attribuirgli un QI straordinariamente fuori dal comune. L’ipotesi più realistica, come recentemente suggerito dallo scrittore e neuroscienziato statunitense Erik Hoel, è che a un test del QI Einstein avrebbe ottenuto un punteggio non eccezionale, simile a quello di Feynman (125), Watson e altri geni.– Leggi anche: Perché il concetto di meritocrazia è controversoUna delle ragioni della tendenza ad attribuire ai geni QI altissimi e molto rari è la scarsa qualità di alcune pubblicazioni a cui molti ancora fanno riferimento. In un libro pubblicato negli anni Cinquanta dalla psicologa statunitense Anne Roe, intitolato The Making of a Scientist, sono presenti affermazioni infondate e indimostrabili come l’attribuzione di un QI di 205 a Leibniz e 210 a Goethe, personaggi vissuti tra il Seicento e la prima metà dell’Ottocento.Per calcolare il QI di un campione di premi Nobel a partire dai risultati di altri test di valutazione, Roe utilizzò per le conversioni non uno dei diversi test del QI già disponibili all’epoca ma uno mai provato prima e da lei progettato appositamente sulla base di un modello di test scolastico SAT. Seguì questo metodo, come ricostruito da Hoel, perché la maggior parte dei test esistenti ha come limite un punteggio massimo di 130 o 140, che sarebbe stato percepito come troppo basso per dei vincitori del premio Nobel.Alla fine ottenne un QI medio del gruppo di 166, ma ricavandolo da una serie di calcoli che lei stessa definì «trasformazioni statistiche basate su assunzioni generalmente valide» ma «non specificatamente verificate per questi dati». I buoni punteggi ottenuti dai premi Nobel nel test progettato da Roe – buoni ma non straordinari – non giustificano in alcun modo il tipo di conversione statistica che porta a ottenere il QI medio di 166, ha scritto Hoel, che piuttosto riconosce al libro di Roe il merito di aver esplorato e reso noti altri aspetti più interessanti delle vite, delle abitudini e delle motivazioni dei premi Nobel.Un altro argomento che indebolisce molto l’idea comune che il test del QI sia uno strumento utile a individuare abilità geniali e da molti considerate in qualche misura innate è che i risultati del test del QI cambiano con la pratica, come del resto quelli dei test di valutazione scolastica. Qualunque cosa valutino, cioè, è qualcosa che può essere allenato e migliorato.In un esperimento condotto negli anni Ottanta dallo psicologo dell’Università di Belgrado Radivoy Kvashchev, i cui risultati furono confermati in uno studio australiano nel 2020, un campione di circa 300 studenti sottoposti al test del QI fu diviso equamente in due gruppi. A uno solo dei due furono assegnati esercizi di problem solving creativo da tre a quattro volte a settimana per un periodo di tre anni, in cui le prestazioni degli studenti furono verificate in quattro occasioni.Alla fine dell’esperimento il gruppo mostrò un incremento del QI di 15 punti superiore rispetto all’incremento del QI nel gruppo che non si era esercitato. Lo studio australiano di revisione dell’esperimento concluse che le capacità cognitive misurate dai test di intelligenza «potrebbero non essere entità fisse», dal momento che «un allenamento prolungato e intensivo nella risoluzione creativa dei problemi» può portare a miglioramenti considerevoli delle funzioni cognitive riscontrate nella tarda adolescenza (18-19 anni).– Leggi anche: Il complicato rapporto tra i progressisti e la geneticaParte degli equivoci che emergono quando si parla di test del QI deriva da un’attitudine comune a considerarli uno strumento affidabile quanto lo sono gli strumenti di misurazione in campi scientifici come la fisica o la biologia. A volte, scrive Hoel, il QI viene trattato «come se volasse miracolosamente al di sopra» di tutti i problemi di misurazione e standardizzazione regolarmente affrontati dalle scienze sociali.Un’altra fonte di equivoci è il fatto che i punteggi per una stessa persona possono differire anche molto a seconda del test utilizzato e del momento in cui viene svolto. Una persona può ottenere un risultato assolutamente nella media (101), secondo i parametri di un certo test, e superare di poco il punteggio minimo richiesto (83) per l’arruolamento nell’esercito statunitense, secondo i parametri di un altro test. Inoltre l’incertezza dei risultati aumenta sia per quanto riguarda la popolazione che ottiene i punteggi più bassi che quella che ottiene i più alti: nel complesso, un insieme numericamente molto esiguo.Questa incertezza negli estremi, secondo Hoel, viene inevitabilmente ereditata dalle molte ricerche incentrate sul QI e sul suo valore predittivo nell’evoluzione delle vite delle persone. È improbabile ottenere risultati significativi da studi sulla “genialità” che utilizzano punteggi reali tra 130 e 150, perché in quell’intervallo il margine di errore è comunque troppo ampio e il campione che soddisfa quella condizione è troppo piccolo. E questa estrema variabilità dei risultati è confermata dalle molte tesi divergenti che emergono dalla vastissima letteratura sul QI.La spiegazione più semplice quando spuntano punteggi come 150, 160, 170 e superiori, secondo Hoel, «è che semplicemente non sono reali». E qualsiasi dibattito che consideri soltanto quelli superiori a 140 come valori significativi da cui partire è abbastanza insensato, dal momento che «i QI stratosferici sono reali quasi quanto folletti, unicorni, sirene». Il che non implica un giudizio negativo in generale del valore del test del QI, uno strumento di valutazione comunque utile per i valori vicini al centro della distribuzione, benché pessimo agli estremi, conclude Hoel. LEGGI TUTTO

  • in

    Le zanzare invasive continuano a espandersi in Europa

    Caricamento playerIl Centro europeo per la prevenzione e il controllo delle malattie (ECDC), l’agenzia indipendente dell’Unione Europea che controlla la comparsa e la diffusione di malattie infettive, ha aggiornato le proprie mappe sulla presenza delle diverse specie di zanzare in Europa segnalando la loro continua espansione, anche in regioni dove fino a qualche anno fa non erano presenti, e il conseguente rischio che aumentino le trasmissioni di malattie legate a questi insetti. «Potremmo vedere più casi ed eventualmente morti dovute a malattie come la dengue, la chikungunya e la febbre West Nile», ha detto Andrea Ammon, direttrice dell’ECDC.L’aumento delle regioni in cui le zanzare prosperano è favorito dal fatto che per via del cambiamento climatico la stagione calda dura più a lungo, con giornate con temperature più alte e più umide in alcune zone. Ma è dovuto anche ad altri fattori, come gli scambi commerciali internazionali (la causa originaria dell’arrivo delle zanzare invasive nel continente europeo) e la gestione del territorio.Nel 2022 in undici paesi dell’Unione Europea ci sono stati 1.112 casi di trasmissione della febbre West Nile, di cui 723 in Italia: è il dato annuale più alto che sia stato registrato dopo il 2018, che fu il momento di massima diffusione del virus in Europa finora, con 1.548 casi. La febbre West Nile nella maggior parte delle persone infette non provoca sintomi; solo un quinto dei contagiati ne mostra qualcuno, solitamente è lieve. In rari casi il virus può causare convulsioni, paralisi e coma, e in quelli più gravi, che riguardano generalmente persone anziane o debilitate per altre ragioni, può essere letale ed è bene prevenirne la diffusione anche perché non esiste una cura specifica, né un vaccino.Per quanto riguarda la dengue, un’altra malattia di origine tropicale per cui non ci sono cure specifiche, ma che comunque risulta grave o letale solo raramente, nel 2022 i casi nell’Unione Europea sono stati 71, quasi tutti in Francia: è lo stesso numero di casi che è stato registrato nei paesi dell’Unione insieme a Islanda, Liechtenstein e Norvegia tra il 2010 e il 2021.Questi dati non indicano che ci si debba allarmare per questi virus, ma le autorità sanitarie devono comunque tenere conto dei fattori che favoriscono l’aumento dei rischi e prevenirli, ad esempio con iniziative per il controllo delle popolazioni di zanzare e con l’informazione.Non tutte le specie di zanzare possono essere vettori di virus, cioè contribuire alla loro trasmissione da persona a persona. Tra le specie autoctone europee, la zanzara comune (Culex pipiens) può fare da vettore al virus della febbre West Nile, mentre notoriamente le specie europee del genere Anopheles possono trasmettere il virus della malaria se diffuso – l’Italia ne fu dichiarata libera dall’Organizzazione mondiale della sanità (OMS) nel 1970 dopo diversi anni con assenza di casi. Invece la principale specie invasiva, la zanzara tigre (Aedes albopictus), può fare da vettore per il virus della dengue, oltre che per quello della chikungunya, che ha caratteristiche simili alla dengue, e Zika, che invece può avere conseguenze più gravi.La zanzara tigre, riconoscibile dalle visibili macchie bianche da cui prende il nome comune, è ben presente in Italia da più di trent’anni: originaria dell’Asia orientale, si è diffusa per via del trasporto accidentale delle sue uova dentro pneumatici usati e piante ornamentali commerciate tra continenti diversi. Le zanzare infatti depongono le proprie uova in luoghi umidi, come può essere l’interno di uno pneumatico con un po’ d’acqua o il sottovaso di una pianta, e quelle delle zanzare tigre possono poi resistere a temperature molto diverse e in assenza di acqua anche per mesi, e quindi nella stiva di una nave ad esempio.In alcuni paesi europei la zanzara tigre non c’è ancora, ma sta pian piano espandendo il proprio areale, cioè la zona in cui prospera: negli ultimi dieci anni è arrivata in cinque nuovi paesi europei.La diffusione della zanzara tigre in Europa: è ben presente nelle regioni indicate in rosso, assente da quelle indicate in verde, appena introdotta in quelle indicate in giallo (ECDC)Ci sono poi altre tre specie di zanzare invasive che si sono stabilite in alcune regioni europee. Due sono arrivate anche in Italia, dove infatti sono state citate più volte sui giornali negli ultimi anni: la zanzara giapponese (Aedes japonicus) e la zanzara coreana (Aedes koreicus). Entrambe possono essere confuse con la zanzara tigre perché hanno a loro volta delle macchie bianche; per il momento sono presenti solo nel nord-est del paese e, per quanto riguarda la sola zanzara coreana, in Liguria.La zanzara giapponese è originaria di vari paesi dell’Asia orientale e non solo del Giappone. Sopporta bene anche le temperature che si registrano d’inverno nelle regioni temperate e può sopravvivere in assenza di acqua stagnante, a differenza della zanzara tigre. Grazie a queste caratteristiche si è stabilita negli Stati Uniti e nell’Europa centrale, dove è arrivata a partire dagli anni Novanta grazie ai commerci internazionali. Si sa che potrebbe a sua volta fare da vettore per i virus della febbre West Nile, della dengue e della chikungunya.La diffusione della zanzara giapponese in Europa (ECDC)La zanzara coreana, un po’ più presente in Italia ma meno in Europa rispetto a quella giapponese, ha cominciato a diffondersi più di recente ma sembra a sua volta più capace di sopportare temperature basse rispetto alla zanzara tigre. In alcune zone della Russia ha trasmesso un virus che causa l’encefalite che però non è presente in Europa. Come le altre specie del genere Aedes è attiva anche nelle ore diurne.La diffusione della zanzara coreana in Europa (ECDC)Una specie di zanzara più preoccupante per l’ECDC è la cosiddetta zanzara della febbre gialla (Aedes aegypti), che è originaria dell’Africa, ha a sua volta macchie bianche ed è ritenuta la più pericolosa per il trasporto dei virus; la malattia da cui prende il nome peraltro ha sintomi più gravi rispetto alla febbre West Nile e alla dengue. Da tempo la zanzara della febbre gialla si è espansa lungo le coste orientali del mar Nero, in alcune regioni della Russia, della Georgia e della Turchia, e nell’ultimo anno secondo i dati dell’ECDC anche a Cipro – l’isola del Mediterraneo orientale che è anche un paese membro dell’Unione Europea.Per questa come per le altre specie comunque il fatto che sia presente non comporta necessariamente la trasmissione di malattie e in particolare la trasmissione della febbre gialla, il cui virus non è presente in Europa.– Leggi anche: Perché certe zanzare preferiscono pungere noi invece che altri animali LEGGI TUTTO

  • in

    Quanto è comune una gravidanza naturale dopo una fecondazione in vitro

    Una ricerca da poco pubblicata sulla rivista scientifica Human Reproduction ha provato a valutare quanto siano comuni le gravidanze naturali tra le donne che in precedenza avevano avuto un figlio con tecniche di procreazione medicalmente assistita (PMA) – in particolare in vitro (FIV) – rilevando una frequenza maggiore rispetto al previsto. Lo studio ha stimato che un concepimento per via naturale possa avvenire in un caso su cinque dopo avere avuto un bambino con la PMA, ma ci sono comunque numerosi fattori da tenere in considerazione e che potrebbero avere condizionato le conclusioni della ricerca.Il lavoro è stato svolto presso l’University College of London, nel Regno Unito, ed è una revisione sistematica e una meta-analisi di ricerche svolte in precedenza per valutare le gravidanze successive a quelle ottenute con la FIV e altre tecniche. Una meta-analisi può essere considerata “uno studio di studi”, nel senso che si occupa di mettere insieme le conoscenze in un determinato ambito maturate nel tempo con più ricerche e di tirare le somme su cosa si è scoperto, utilizzando dati e metodi statistici per renderli comparabili. Le meta-analisi sono considerate tra i tipi di ricerche più affidabili, specialmente in ambito medico, ma possono avere comunque difetti dovuti soprattutto alla difficoltà di mettere insieme dati eterogenei ottenuti nel tempo con metodologie e pratiche diverse.Il gruppo di ricerca ha identificato nella letteratura scientifica 1.108 studi sull’argomento e li ha poi scremati, in base ai dati che offrivano e alla possibilità di essere confrontati tra loro. Alla fine della selezione sono rimasti 11 studi realizzati in varie parti del mondo e che nel complesso avevano interessato 5.180 donne. Le ricerche erano di «qualità moderata» e avevano seguito la storia clinica delle partecipanti da 2 a 15 anni dopo la gravidanza ottenuta con tecniche di fecondazione in vitro. Confrontando i dati è stato poi possibile calcolare l’incidenza di una gravidanza naturale dopo avere avuto un figlio con PMA in una donna su cinque.Annette Thwaites, una delle autrici dello studio, ha detto: «Ciò che abbiamo scoperto suggerisce che una gravidanza naturale dopo avere avuto un figlio con la FIV non sia un evento così raro. Ciò è in contrasto con le opinioni ampiamente diffuse – da parte delle donne e degli operatori sanitari – e con quelle comunemente espresse nei media, secondo le quali si tratta di un evento altamente improbabile».Non tutte le partecipanti ai vari studi avevano scelto la PMA a causa di problemi di infertilità, ma per altri motivi come essere in una relazione con una persona del proprio stesso sesso o l’essere single. Nell’analisi sono stati presi in considerazione vari altri fattori come l’età delle partecipanti, il periodo di tempo intercorso tra la gravidanza con PMA e la successiva gravidanza naturale e altre variabili. Derivare un dato unico e valido per tutte le persone non è comunque possibile, proprio a causa della grande quantità di variabili, che comprendono anche come è fatta ciascuna persona.Le tecniche di fecondazione in vitro negli ultimi anni sono migliorate sensibilmente, portando al successo in circa la metà dei casi nelle donne al di sotto dei 35 anni: nel 1995 il tasso di successo medio era intorno al 22 per cento, mentre nel 2003 era del 33 per cento. Due degli studi utilizzati dalla meta-analisi comprendono dati su partecipanti che avevano fatto ricorso alla PMA quasi 30 anni fa, una differenza tenuta in considerazione dal gruppo di ricerca.Secondo Thwaites: «Sapere ciò che è possibile potrebbe dare alle donne il controllo dei loro progetti familiari e aiutarle a prendere decisioni più consapevoli su successivi trattamenti per la fertilità o per la contraccezione». Immaginando di avere problemi di fertilità è infatti probabile che alcune donne scelgano di non utilizzare mezzi di contraccezione, ritenendo improbabile se non impossibile una nuova gravidanza per via naturale dopo averne avuta una con la PMA. Se confermata, la maggiore incidenza segnalata dalla ricerca potrebbe indurre il personale medico a suggerire maggiori cautele alle pazienti a seconda delle loro aspettative.Il gruppo di ricerca ricorda che lo studio è un primo passo nell’analisi di un ambito molto ampio e ancora poco studiato in questi termini, ma che proprio per questo merita di essere approfondito considerata la diffusione delle tecniche per la procreazione medicalmente assistita. LEGGI TUTTO

  • in

    Come l’ambiente influenza le culture

    Le differenze culturali sono uno dei fattori comunemente utilizzati per spiegare la variabilità dei comportamenti delle persone a seconda del luogo in cui vivono o sono cresciute. In alcune regioni del mondo è normale mangiare carne di animali che in altri posti è vietato mangiare. In alcuni paesi il sesso prematrimoniale è una pratica comune, mentre in altri è rarissimo. In Romania le persone estranee tra loro mantengono solitamente una distanza di oltre un metro e 20 centimetri l’una dall’altra, mentre in Bulgaria, che pure confina con la Romania per un lunghissimo tratto, la distanza interpersonale mediamente mantenuta tra sconosciuti è meno della metà.In uno studio da poco pubblicato sulla rivista scientifica Proceedings of the Royal Society B un gruppo di ricerca del dipartimento di psicologia della Arizona State University ha in parte associato le variazioni culturali nel mondo a differenze ambientali, riprendendo alcune teorie e ricerche in psicologia ed ecologia condotte in anni recenti. I fattori ambientali presi in considerazione sono per esempio la geografia fisica e la densità di popolazione, ma anche l’aspettativa di vita e il rischio di malattie infettive. E dall’analisi di questi fattori e della loro evoluzione nel tempo è emerso che popolazioni che vivono in ambienti simili, non necessariamente vicini, sviluppano in una percentuale significativa gli stessi modelli culturali.Il gruppo di ricerca ha raccolto un vasto insieme di dati che misurano variabili ambientali e culturali in 220 paesi del mondo, lo ha chiamato The Ecology-Culture Dataset e lo ha reso pubblico su Scientific Data, la rivista del gruppo Nature dedicata alla pubblicazione di set di dati rilevanti per le scienze naturali, la medicina, l’ingegneria e le scienze sociali. Tra le variabili ambientali, nove in tutto, ci sono il livello medio annuo delle precipitazioni e della temperatura, il tasso di mortalità per cause esterne, la percentuale di disoccupazione e la diseguaglianza economica (coefficiente di Gini).Le variabili culturali sono 72 in tutto – ma nello studio ne sono state utilizzate 66 – e comprendono la rigidità delle norme sociali, l’indice di corruzione, il benessere soggettivo, l’innovazione, il conformismo, l’individualismo, le caratteristiche istituzionali e la disuguaglianza di genere. Sulla base dell’analisi delle relazioni tra i due diversi gruppi di dati gli psicologi della Arizona State University hanno stimato che quasi il 20 per cento della variazione culturale umana può essere spiegata da quella ambientale.– Leggi anche: Perché alcuni cibi ci disgustano?Come spiegato dalla ricercatrice Alexandra Wormley, una delle coautrici dello studio, le stime tengono conto dei problemi noti in questo tipo di ricerche interculturali. Uno di questi è che le società vicine nello spazio o con radici storiche condivise tendono a essere simili anche per aspetti e sfumature che sfuggono alle misurazioni degli studi. Le somiglianze culturali tra la Germania meridionale e l’Austria, per esempio, possono essere spiegate dal loro patrimonio culturale e linguistico condiviso, oltre che da climi e livelli di ricchezza simili.Ma l’analisi dei dati ha permesso di scoprire anche somiglianze sorprendenti e meno facili da interpretare, come quelle tra Polonia e Perù, per esempio. Entrambi i paesi hanno aspettative di vita simili (rispettivamente 73,5 e 75,2 anni) e livelli relativamente bassi di rischio di malattie infettive, e condividono diversi valori culturali tra cui l’indipendenza e la coesione sociale. L’analisi dei dati, secondo Wormley, potrebbe anche servire a prevedere future somiglianze culturali altrimenti insospettabili, tra aree del mondo distanti fisicamente e storicamente ma accomunate per esempio da caratteristiche come la piovosità.Le correlazioni tra variabili ambientali e modelli culturali sono da diversi anni oggetto di un numero crescente di studi che si concentrano su fattori come i rischi per la sicurezza, la temperatura dell’aria e la disponibilità di risorse idriche. La psicologa statunitense Michele Gelfand si è a lungo occupata dell’opposizione tra rigidità ed elasticità delle norme sociali, definendo «culture rigide» quelle con norme sociali forti e scarsa tolleranza per le devianze, e «culture elastiche» quelle molte permissive e con norme sociali deboli.In un ampio studio pubblicato nel 2011 su Science e condotto insieme ad altri 44 ricercatori e ricercatrici di diversi paesi del mondo, Gelfand ha scoperto che la rigidità delle norme sociali in una data cultura è tendenzialmente legata alla quantità di minacce alla sicurezza che la società deve affrontare, dalle guerre ai disastri ambientali. Norme sociali più rigide possono aiutare i membri della comunità a restare uniti e cooperare di fronte a tali pericoli.– Leggi anche: Perché collaboriamoUno studio recente pubblicato sulla rivista Psychological Science e condotto in Iran dai due ricercatori Thomas Talhelm e Hamidreza Harati ha scoperto che alcune comunità con minore accesso alle risorse idriche adottano modelli culturali più orientati all’investimento a lungo termine. L’ipotesi suggerita nello studio è che la scarsità di acqua dolce renda più stringente per le popolazioni il bisogno di pianificare le azioni future in modo da non esaurirla precocemente.Anche la temperatura è considerata una variabile potenzialmente influente nelle differenze culturali tra i paesi. In uno studio del 2017 sulle distanze interpersonali, condotto su circa 9 mila persone provenienti da 42 paesi, i ricercatori e le ricercatrici hanno messo in relazione le distanze abituali con un insieme di caratteristiche individuali dei partecipanti, attributi delle diverse culture e caratteristiche ambientali. E hanno scoperto che anche queste ultime possono spiegare variazioni nei risultati: in luoghi con temperature mediamente più basse le persone sentono meno necessità di spazio personale in pubblico.Una delle ipotesi suggerite nello studio è che nei paesi più caldi e umidi la presenza di microrganismi patogeni e la maggiore diffusione di malattie infettive abbiano influenzato l’evoluzione delle distanze interpersonali. L’ipotesi si basa sul fatto che l’aumento di quelle distanze e la riduzione dei contatti fisici sono stati per secoli parte dell’adattamento comportamentale contro le epidemie. E nelle regioni storicamente più colpite da malattie infettive, come osservato in alcuni studi, le persone tendono effettivamente a essere meno estroverse. Mantenere distanze interpersonali maggiori, secondo questa ipotesi, sarebbe quindi il risultato evolutivo di un comportamento utile a ridurre il rischio di infezioni.In precedenti studi la presenza di microrganismi patogeni nell’ambiente è stata associata anche ad altre differenze culturali. In particolare è stato ipotizzato che nelle regioni con una maggiore diffusione storica di malattie infettive l’inclinazione al conformismo anziché all’individualismo e la “chiusura” verso ciò che sta fuori dalla comunità siano parte di un modello culturale influenzato dalla necessità di inibire la trasmissione degli agenti patogeni. Da questo punto di vista anche l’attenzione e l’enfasi sui modi tradizionali di fare le cose, dalla cucina alla cura della prole alle pratiche di sepoltura, potrebbero servire a disincentivare comportamenti non sicuri.È un’ipotesi evolutivamente sensata, disse nel 2016 lo psicologo statunitense Michael Varnum, principale autore del recente studio della Arizona State University: «Gli agenti patogeni evocano un’intera gamma di risposte che probabilmente sono o erano adattative in qualche modo, che inducono le persone a ridurre le possibilità di infezione». Le prospettive invece cambiano, secondo questa ipotesi, negli ambienti in cui la minaccia delle malattie infettive viene progressivamente meno, privando di senso comportamenti come rimandare l’istruzione, l’esplorazione o l’impegno politico per mettere su famiglia e garantire la trasmissione dei geni prima di morire per una malattia.– Leggi anche: Il complicato rapporto tra i progressisti e la geneticaUn’altra correlazione molto forte confermata dallo studio più recente di Varnum e Wormley, già emersa in uno studio pubblicato nel 2017 sulla rivista Nature Human Behaviour, è quella tra l’evoluzione delle malattie infettive e l’uguaglianza di genere. La diminuzione della prevalenza delle maggiori malattie infettive è correlata a una crescita dell’uguaglianza di genere, in una relazione statistica descritta da Varnum come una delle più strette da lui mai osservate e da lui paragonata a quella tra il fumo e il cancro ai polmoni. La spiegazione ipotizzata è che il rischio inferiore di contrarre malattie infettive favorisca una generica maggiore disponibilità al cambiamento sociale, e di conseguenza apra più spazio all’intraprendenza personale e riduca la spinta a mantenere tradizioni che nella maggior parte dei casi sono patriarcali.Secondo diversi scienziati uno dei principali limiti delle ricerche come quelle sull’influenza dei tassi di malattie infettive sui modelli culturali è l’alto rischio di stabilire correlazioni spurie. Due fenomeni potrebbero cioè essere statisticamente correlati, ma senza che uno dei due influenzi necessariamente l’altro: entrambi potrebbero per esempio dipendere da una terza variabile non presa in considerazione.In uno studio pubblicato nel 2013 sulla rivista Evolution and Human Behavior da due sociologi della stessa università di Varnum e Wormley, Joseph Hackman e Daniel Hruschka, l’analisi di un insieme di dati relativi agli Stati Uniti mostrò una correlazione tra comportamenti violenti e malattie sessualmente trasmissibili, ma non altre malattie infettive. Lo studio descrisse inoltre l’età in cui le persone si sposano e hanno figli come una variabile molto più influente di qualsiasi altra legata ai tassi di malattie infettive.Il rischio di stabilire correlazioni casuali tra variabili ambientali e culturali è chiarito anche nelle conclusioni del recente studio della Arizona State University, in cui si suggerisce che i confronti siano sempre fatti con estrema cautela. Gli autori e le autrici definiscono tuttavia lo studio e l’ampio insieme di dati da loro reso pubblico come un punto di partenza per future ricerche e come strumenti utili a favorire un approccio trasversale alle basi più ampie possibili di dati statistici, necessarie per trarre relazioni plausibili e conclusioni significative. LEGGI TUTTO

  • in

    Non sappiamo quali saranno gli effetti del nuovo El Niño sull’Europa

    L’8 giugno la National Oceanic and Atmospheric Administration (NOAA), l’agenzia federale statunitense che si occupa di meteorologia, ha annunciato che è infine tornato il cosiddetto “El Niño”, quell’insieme di fenomeni atmosferici che si verifica periodicamente nell’oceano Pacifico e influenza il clima di gran parte del pianeta, portando tra le altre cose a un aumento della temperatura media globale. Per i prossimi anni dunque si prevedono nuovi record di alte temperature perché gli effetti del riscaldamento dovuto alle emissioni di gas serra saranno ulteriormente accentuati da quelli di El Niño.Ci saranno poi altre conseguenze del fenomeno atmosferico, che riguarderanno le precipitazioni: a causa di El Niño in alcune regioni pioverà di più e in altre di meno. Per la sua lontananza dal Pacifico, l’Europa non subirà gli effetti più forti di El Niño, ma un’influenza ci sarà comunque, specialmente se quello di quest’anno – ed eventualmente dei prossimi, se la situazione dovesse durare a lungo – sarà particolarmente intenso.Con l’espressione “El Niño” si fa riferimento a una delle tre fasi di quello che i climatologi chiamano ENSO, acronimo inglese di “El Niño-Oscillazione Meridionale”: una variazione dei venti e della temperatura della superficie della parte tropicale orientale del Pacifico che avviene periodicamente a intervalli irregolari. C’è una fase neutra in cui l’acqua superficiale del Pacifico è più fredda nella parte orientale dell’oceano rispetto a quella occidentale e i venti tendono a soffiare da est a ovest complessivamente.“El Niño” è invece la fase detta di riscaldamento, in cui i venti si indeboliscono o cambiano direzione, spingendo le acque più calde verso est invece che verso ovest: si scaldano così le acque superficiali del Pacifico orientale, sempre nella fascia tropicale. Il suo nome significa “il bambino” in spagnolo: deriva dal fatto che nel Diciassettesimo secolo i pescatori del Perù notarono che a intervalli di qualche anno le acque dell’oceano diventavano più calde nel periodo di Natale, cioè della festa di Gesù bambino.Convenzionalmente si dice che El Niño è iniziato quando la temperatura negli strati d’acqua superficiali nella fascia tropicale del Pacifico orientale aumenta di almeno mezzo grado Celsius rispetto alla media di lungo periodo, situazione che si è verificata tra fine maggio e inizio giugno.Come è cambiata la temperatura degli strati superficiali dell’acqua del Pacifico rispetto alla media tra il 30 gennaio e il 4 giugno 2023 rispetto alla media di lungo periodo (NOAA)Tra le altre cose El Niño potrebbe portare molte precipitazioni nel sud degli Stati Uniti e nel Golfo del Messico, e ridurle fino a condizioni di siccità nel sud-est asiatico, in Australia e nell’Africa centrale; al tempo stesso El Niño aumenta la frequenza di tempeste tropicali nel Pacifico e diminuisce quella di uragani nell’Atlantico.Un El Niño molto forte potrebbe avere effetti considerevoli, con alluvioni in alcune aree e siccità in altre, con danni per l’agricoltura e la pesca soprattutto per i paesi sulle coste del Pacifico. Si stima che tra il 1997 e il 1998 El Niño causò danni in giro per il mondo pari a quasi 35 miliardi di dollari, con 23mila morti riconducibili al fenomeno atmosferico. L’ultima volta in cui si è verificato fu nel 2016: l’anno con la temperatura media globale più alta mai registrata.Da zona a zona comunque gli effetti possono variare, anche a seconda dell’intensità dell’El Niño in questione, e sarebbe complicato elencarli tutti: alcune regioni del mondo potrebbero essere più fredde o più calde del solito in diversi momenti dell’anno.Per quanto riguarda l’Europa, ci sono molte incertezze su se e come il nuovo El Niño ne influenzerà le condizioni meteorologiche, sia per quanto riguarda la temperatura che le precipitazioni. Potrebbe causare inverni più freddi della media nel Nord Europa, ma non è certo: dipenderà da quanto sarà intenso, se fosse molto forte ci sarà invece una tendenza per temperature più alte. Altre possibilità sono che porti un’estate e un autunno più piovosi nella penisola iberica, cioè in Portogallo e Spagna, e un autunno più caldo nel Mediterraneo, Italia compresa.La terza fase di ENSO, quella di raffreddamento, è stata chiamata “La Niña”, al femminile, in quanto opposto di El Niño. Si verifica quando i venti diretti da est a ovest soffiano più forte, spingendo le acque calde ancora più a ovest rispetto alla fase neutra e rendendo particolarmente più fredde quelle del Pacifico orientale: succede infatti che acque più fredde risalgono dalle profondità oceaniche, raffreddando quelle in superficie.Generalmente due diverse fasi di El Niño avvengono a una distanza che va dai due ai sette anni e di solito durano dai nove mesi a un anno; non si alternano necessariamente con le fasi di La Niña, che peraltro sono meno frequenti.Fino allo scorso marzo eravamo in una fase di La Niña, la terza di fila dal 2020: nonostante il suo generale effetto di raffreddamento globale gli ultimi tre anni sono stati particolarmente caldi (il 2022 il terzo più caldo di sempre per temperatura media), un segno del fatto che anche in presenza di La Niña le conseguenze del cambiamento climatico causato dalle attività umane sono evidenti.– Leggi anche: È molto probabile che supereremo il limite di 1,5 °C entro il 2027 LEGGI TUTTO

  • in

    Perché è così difficile trovare il sommergibile disperso vicino al Titanic

    Caricamento playerNell’Atlantico settentrionale a circa 700 chilometri dalla costa della provincia canadese Terranova e Labrador proseguono le ricerche del Titan, il sommergibile con cinque persone a bordo di cui non si hanno più notizie dalla mattina di domenica 18 giugno. L’immersione era stata organizzata dalla società OceanGate per esplorare il relitto del Titanic, il famoso transatlantico affondato nell’aprile del 1912. Le attività di ricerca sono complicate dalle condizioni del mare e più in generale dalla difficoltà di ritrovare oggetti di dimensioni relativamente contenute, come nel caso del Titan, in acqua a profondità che potrebbero essere di svariate migliaia di metri.OceanGate non ha fornito molti dettagli sulle persone a bordo, per tutelare la loro riservatezza e quella delle loro famiglie. Secondo le ricostruzioni, nel sommergibile dovrebbero comunque esserci il milionario britannico Hamish Harding, l’uomo d’affari pakistano Shahzada Dawood con il figlio Suleman, l’esploratore francese Paul-Henry Nargeolet e Stockton Rush, il CEO della società che organizza le esplorazioni sottomarine. La lista non è ufficiale e si attendono ancora conferme.La spedizione era partita dal Canada sulla nave di appoggio Polar Prince e l’immersione era iniziata nelle prime ore di domenica. Dopo poco meno di due ore, la Polar Prince aveva perso i contatti con il sommergibile e da allora non si sono più avute notizie delle persone a bordo. Da lunedì la Guardia Costiera degli Stati Uniti coordina le ricerche, cui partecipano anche la sua omologa canadese, alcune navi commerciali e altre organizzazioni che si occupano di esplorazioni sottomarine.Le attività di ricerca si stanno concentrando nell’area di mare in cui si trova il relitto del Titanic, a una profondità di 3.800 metri. È una zona molto ampia per trovare un sommergibile lungo poco meno di 7 metri e con un diametro di circa 2,5 metri. Di solito i veicoli sottomarini sono dotati di un dispositivo acustico che invia un segnale che si propaga nell’acqua e che può essere captato dalle squadre di soccorso nelle vicinanze. Non è al momento chiaro se il Titan sia dotato di uno strumento di questo tipo e se stia funzionando correttamente.Se la rilevazione non può essere effettuata in questo modo, si possono impiegare le “sonoboe”, particolari tipi di boe che emettono onde acustiche e che rilevano poi come queste vengono riflesse da ciò che si trova nell’acqua. L’analisi della riflessione può offrire importanti informazioni per scoprire la presenza di qualcosa di estraneo nell’ambiente marino, come un sommergibile. Queste tecnologie vengono spesso utilizzate in ambito militare per rilevare la presenza di sottomarini e altri dispositivi, ma il loro impiego per scopi civili è sempre più diffuso.Le sonoboe vengono lanciate in mare da un aereo e sono costituite da vari elementi che si inabissano nell’acqua, collegati a un trasmettitore che rimane invece sulla superficie. La profondità a cui scendono i sensori è variabile e può essere determinata prima del lancio in base alle necessità di ricerca. I sensori trasmettono via cavo i dati fino al trasmettitore sulla superficie dell’acqua che invia poi un segnale radio all’aeroplano che sta compiendo la ricognizione. Di solito si utilizzano più sonoboe in un ampio tratto di mare, con l’aereo che passa poi periodicamente per raccogliere i dati inviati dai trasmettitori.Cilindri contenenti le sonoboe in fase di preparazione (U.S. Navy photo by Chief Mass Communication Specialist Keith DeVinney/Released)La ricerca rende quindi necessaria la presenza di uno o più aerei, in grado di avere una buona autonomia per rimanere a lungo sul tratto di mare in cui si stanno effettuando le ricerche. Le condizioni del mare e del meteo possono rendere difficili le rilevazioni e in alcuni casi possono costringere gli aerei ad allontanarsi dalla zona in attesa di un miglioramento delle condizioni atmosferiche. Almeno quattro aerei C-130 sorvolano da lunedì la zona in cui è scomparso il Titan.Se il sommergibile si trova comunque a migliaia di metri di profondità, le ricerche potrebbero essere ancora più complicate dall’impossibilità di compiere ricognizioni in tempi rapidi. A causa della pressione molto alta, a quelle profondità non si possono inviare squadre di sommozzatori. L’unica opzione è l’impiego di altri sommergibili equipaggiati per muoversi a quelle profondità, con equipaggio o privi di equipaggio e guidati a distanza. Anche in questo caso si dovrebbero utilizzare sistemi di rilevazione basati sulle onde acustiche (sonar), perché a quelle profondità i raggi solari non arrivano e l’ambiente marino è completamente al buio.La Marina militare statunitense ha a disposizione alcuni veicoli sottomarini guidati a distanza, sostanzialmente dei droni che possono raggiungere profondità di oltre 3.500 metri. Ma ci sono comunque tempi tecnici per trasportare veicoli di questo tipo nella zona, utilizzando una nave di appoggio che sia adeguata per condurre poi le ricerche in mare, e il tempo a disposizione è sempre meno.Il CURV 21 è uno dei dispositivi sottomarini guidati a distanza di cui dispone la Marina militare statunitense (US Navy)OceanGate dice che il Titan ha un’autonomia di ossigeno per 96 ore circa, grazie a un sistema di riciclo e purificazione dell’aria. Considerato che si sono perse le tracce del sommergibile nelle prime ore di domenica, alle persone a bordo non resta molto tempo, ammesso che le batterie e i sistemi per purificare l’aria abbiano continuato a funzionare nelle ore dopo la scomparsa.Le batterie a bordo non servono solamente per l’aria, ma anche per scaldare l’interno del sommergibile a profondità in cui la temperatura è intorno ai 4 °C. Le persone a bordo potrebbero soffrire di ipotermia, una condizione che se prolungata può avere conseguenze gravi. In mancanza del sistema di pulizia dell’aria, gli occupanti perderebbero i sensi e morirebbero per asfissia in poco tempo.Il sommergibile Titan (OceanGate)Oltre alle difficoltà che si hanno in generale nel cercare qualcosa sott’acqua a grandi profondità c’è il problema di riuscire a recuperarlo. Se il Titan si fosse per esempio incastrato in parte del relitto del Titanic o in qualche altro oggetto che si trovava in acqua, potrebbe essere molto difficile liberarlo e riportarlo in superficie. Il veicolo sottomarino di soccorso potrebbe provare a urtare il più delicatamente possibile il Titan, cercando in questo modo di smuoverlo. In alternativa, sarebbe necessaria la presenza di un braccio robotico potente a sufficienza per liberare il sommergibile rimasto incastrato.Nella storia delle attività e delle esplorazioni sottomarine ci furono casi in cui fu possibile recuperare un sommergibile e metterne in salvo l’equipaggio, ma a profondità di poche centinaia di metri e non delle migliaia ipotizzate per il caso del Titan. Nel 1973, per esempio, il sommergibile canadese Pisces III per la posa di cavi per le telecomunicazioni perse la capacità di tornare a galla, mettendo a rischio la vita dei due tecnici che si trovavano a bordo. Due sommergibili di soccorso riuscirono a raggiungere la profondità di circa 500 metri a cui si trovava il Pisces III, agganciandolo e riportandolo in superficie anche con l’aiuto di un veicolo sottomarino guidato a distanza. I due tecnici sopravvissero. LEGGI TUTTO

  • in

    Le Nazioni Unite hanno adottato il primo trattato per proteggere la vita marina in alto mare

    Lunedì i 193 paesi membri delle Nazioni Unite hanno adottato il trattato per proteggere la vita marina in alto mare. Il trattato mira a proteggere la biodiversità nelle acque al di fuori dei confini nazionali (l’”alto mare”), che coprono quasi la metà della superficie terrestre ma sono finora state in larga parte escluse da tutti i trattati esistenti sulla preservazione della biodiversità. Nelle Nazioni Unite si discuteva di questo trattato da vent’anni, ma si è trovato un accordo sul testo soltanto nel marzo di quest’anno.Il nuovo accordo è considerato particolarmente importante perché negli ultimi decenni gli animali e le piante marine sono diventati sempre più vulnerabili non solo a causa degli effetti del cambiamento climatico, ma anche per via della pesca eccessiva, del traffico navale e dell’inquinamento.Per entrare in vigore il testo dovrà essere ratificato da 60 paesi: lo si potrà fare a parrtire dal 20 settembre, quando i leader mondiali si troveranno per l’incontro annuale all’Assemblea generale delle Nazioni Unite. Il nuovo accordo contiene 75 articoli: tra le altre cose, verrà creato un nuovo organismo per gestire la conservazione della vita oceanica e istituire aree marine protette in alto mare, con l’obiettivo di trasformare il 30 per cento delle acque internazionali in mare aperto in aree protette entro il 2030. Verranno inoltre stabilite delle regole su come svolgere le valutazioni di impatto ambientale sulle attività commerciali negli oceani.– Leggi anche: Nel 2022 le temperature medie degli oceani sono aumentate ancora (Pixabay) LEGGI TUTTO