More stories

  • in

    Cercasi pianta femmina per pianta maschio in via di estinzione

    Caricamento playerAnche le specie vegetali possono estinguersi e anche delle specie vegetali può succedere che sia rimasto un unico individuo sul pianeta. È il caso della cicas di Wood, un albero originario del Sudafrica, che è stato soprannominato “la pianta più sola nel mondo”. Ce ne sono circa 110 all’interno di giardini botanici di vari paesi, ma geneticamente si tratta della stessa pianta, che è stata propagata staccando steli dall’unica cicas di Wood trovata in natura finora. C’è però chi sta cercando di trovarne un’altra, e così evitare l’estinzione della specie, usando droni in volo sopra una foresta e un algoritmo per il riconoscimento delle immagini.
    La cicas di Wood dei Kew Gardens di Londra, nel Regno Unito, nel 2019; venne propagata dall’individuo trovato in Sudafrica nel 1899 (il Post)
    La cicas di Wood è, come suggerisce il nome, un tipo di cicas, un gruppo di specie di piante diverse. Apparentemente le cicas sono simili alle palme, ma in realtà sono molto distanti a livello evolutivo, e sono molto più antiche – esistevano già 270 milioni di anni fa, nel Mesozoico, detto anche “era delle cicas”. Sono piante dioiche, di cui cioè esistono individui femminili e individui maschili. La cicas di Wood di cui siamo a conoscenza è un individuo maschile, per questa ragione per preservare la specie non basterebbe trovare una cicas di Wood qualsiasi, ma un individuo femminile.
    Il nome scientifico della cicas di Wood è Encephalartos woodii: la specie deve il suo nome a John Medley Wood, un botanico sudafricano vissuto tra il 1827 e il 1915. Nel 1895 Wood trovò l’individuo di cicas a noi noto nella foresta di Ngoye, un’area boscosa nell’est del Sudafrica che attualmente ha un’estensione di 40 chilometri quadrati. Dal 1916 quell’albero si trova a Pretoria, in un’area recintata e protetta, dove è stato portato perché il dipartimento forestale del Sudafrica temeva che potesse essere distrutto.
    Dopo il 1895 vari esploratori hanno cercato altre cicas di Wood nella foresta di Ngoye, ma senza successo. La foresta però non è mai stata esplorata del tutto. Ispirato dalla “solitudine” della cicas di Wood maschio C-LAB, un collettivo di ricerca artistica che impiega metodi scientifici per i propri progetti, ha deciso di provare a cercare una femmina usando tecnologie contemporanee, a cominciare da droni e algoritmi.
    La cicas di Wood trovata da John Medley Wood nella foresta di Ngoye nel 1907 (James Wylie)
    Laura Cinti, ricercatrice dell’Università di Southampton e una dei fondatori di C-LAB, spiega che per il collettivo l’arte e la scienza sono «discipline interconnesse che possono ispirarsi a vicenda». «Nella nostra attività usiamo metodi sofisticati e materiali intricati, e lavoriamo a stretto contatto con scienziati ed esperti. Questa combinazione offre prospettive uniche sul modo con cui vediamo, capiamo e sperimentiamo il mondo», dice.
    Per provare a trovare la cicas di Wood femmina, all’inizio del 2024 C-LAB ha fatto volare dei droni su una piccola porzione della foresta di Ngoye, meno di un chilometro quadrato, raccogliendo più di 15mila fotografie. Tutte insieme le immagini formano una mappa molto dettagliata della porzione di foresta esaminata.
    Mosaico di immagini di cicas usate per addestrare l’algoritmo di C-LAB (Laura Cinti & Howard Boland © C-LAB)
    La mappa è poi stata fatta analizzare a un algoritmo per il riconoscimento delle immagini precedentemente “addestrato” a riconoscere le cicas usando sia fotografie reali di diverse cicas, sia immagini di diverse cicas di Wood prodotte con un software di intelligenza artificiale. L’idea è di ottenere un sistema informatico in grado di individuare altre cicas di Wood nella foresta di Ngoye grazie alle fotografie fatte dall’alto coi droni.
    Per ora non sono state trovate altre cicas, ma resta da esaminare ancora la stragrande maggioranza della foresta, e col procedere delle ricerche l’algoritmo di C-LAB dovrebbe migliorare le proprie prestazioni. Intanto il collettivo artistico sta avviando un’ulteriore ricerca per capire se utilizzando degli stimoli chimici o fisici si potrebbe far cambiare sesso a una delle cicas di Wood presenti nei giardini botanici. Infatti secondo alcuni studi è già successo che individui di altre specie di cicas abbiamo cambiato sesso in seguito a cambiamenti nel loro ambiente.

    – Leggi anche: Cosa fai tutto il giorno quando la tua specie si è estinta LEGGI TUTTO

  • in

    Gli animali hanno una cultura?

    Un recente articolo scientifico sui bombi, un genere di insetti della stessa famiglia delle api, ha fornito alcune informazioni rilevanti a sostegno di un’ipotesi da tempo discussa nel campo dell’etologia, la parte della biologia che studia il comportamento animale. L’ipotesi è che la capacità tipicamente umana di imparare dagli altri più di quanto sia possibile imparare da sé nel corso di una vita – condizione necessaria per la formazione di quella che definiamo “cultura” – sia una capacità condivisa con altre specie animali.Pubblicato a marzo sulla rivista Nature da un gruppo di ricercatrici e ricercatori della Queen Mary University of London e della University of Sheffield, l’articolo descrive i risultati di un esperimento in cui ai bombi era richiesto di risolvere un problema complesso su una specie di giradischi all’interno di una scatola. Per ottenere una ricompensa (una soluzione zuccherina) che percepivano ma non potevano raggiungere direttamente, i bombi dovevano compiere due azioni in sequenza: sbloccare un piatto girevole spingendo un fermo e poi ruotarlo in senso antiorario.
    I bombi, che sono considerati insetti prodigiosi nell’apprendimento sociale, non sono riusciti a risolvere il problema durante l’esperimento, nemmeno dopo un tempo di esposizione prolungata di 24 giorni. Alcuni ce l’hanno fatta solo dopo un addestramento: in pratica gli sperimentatori li hanno indotti ad apprendere il passaggio intermedio ponendo una prima ricompensa sul fermo che bisognava spingere per sbloccare la piattaforma. A quel punto i bombi sono riusciti a superare anche il secondo passaggio e ad arrivare alla soluzione zuccherina.
    Il risultato sorprendente e giudicato più significativo dai ricercatori è che un gruppo di bombi non addestrati, che come tutti gli altri non avevano inizialmente saputo risolvere il problema, è riuscito in seguito a capire come agire senza bisogno della prima ricompensa. Si è limitato ad apprendere dal comportamento di un bombo «dimostratore», cioè uno di quelli addestrati a superare il primo passaggio.

    La capacità degli animali non umani di compiere azioni nuove apprendendo dal comportamento dei propri simili è nota e studiata da decenni in specie come gli scimpanzé, i macachi, i corvi e le megattere. Il risultato descritto nello studio uscito su Nature è tuttavia considerato la prima prova della presenza di questa capacità sociale tra gli invertebrati, applicata alla soluzione di problemi particolarmente complessi: problemi cioè troppo difficili perché un solo individuo possa risolverli procedendo per tentativi ed errori.
    Alcuni commenti a questo esperimento e ad altri simili hanno interpretato i risultati come un’ulteriore prova della possibilità che la cultura, intesa come capacità di una specie di apprendere e diffondere comportamenti complessi in una popolazione, non sia un fatto unicamente umano. L’esempio dei bombi è significativo perché suggerisce che anche i comportamenti di insetti di cui sono note da tempo le sofisticate strutture sociali, come le api, potrebbero essere almeno in parte comportamenti appresi e non innati, che era l’ipotesi finora prevalente.

    – Leggi anche: Capiremo mai come ragionano gli animali?

    Sebbene nel linguaggio comune sia utilizzata in molti modi diversi, la parola “cultura” in etologia e in altre discipline affini ha un significato abbastanza preciso. Indica l’insieme di tradizioni comportamentali di una popolazione, cioè comportamenti tramandati attraverso l’apprendimento sociale e che persistono in un gruppo o in una società nel corso del tempo. I ricercatori hanno osservato nel regno animale numerosi comportamenti che soddisfano questa definizione di cultura cumulativa, contraddistinta da innovazioni sequenziali che si basano su altre precedenti.
    Quasi ogni parte della vita degli esseri umani si basa su conoscenze e tecnologie di questo tipo, troppo complesse per essere gestite da un individuo in modo indipendente e senza una tradizione culturale, appunto. Non sarebbe stato possibile altrimenti viaggiare nello Spazio, per esempio, ma nemmeno far funzionare un wc.
    Un articolo uscito a marzo sulla rivista Nature Human Behaviour ha presentato i risultati di un esperimento simile a quello con i bombi, ma condotto con gli scimpanzé da un gruppo di ricercatori dell’Università di Utrecht, nei Paesi Bassi, e del Max Planck Institute for Evolutionary Anthropology di Lipsia, in Germania. Nel Chimfunshi Wildlife Orphanage, un rifugio per la fauna selvatica in Zambia, i ricercatori hanno lasciato a disposizione di una comunità di 66 scimpanzé, suddivisi in due gruppi, una scatola di noccioline che funzionava come una specie di distributore automatico.
    Gli scimpanzé potevano vedere e annusare le noccioline, ma per raggiungerle dovevano azionare il distributore raccogliendo una delle palline di legno lasciate dai ricercatori nelle vicinanze. La scatola aveva un cassetto a molla che bisognava aprire e tenere aperto, perché al suo interno si trovava un incavo in cui far scivolare la pallina per ricevere una manciata di noccioline. Dopo tre mesi in cui nessuno scimpanzé è riuscito a far funzionare il distributore, i ricercatori hanno selezionato in ciascuno dei due gruppi una femmina anziana per l’addestramento.
    «Non si può scegliere un animale a caso», ha detto Edwin van Leeuwen, uno degli autori dello studio, spiegando che per il successo dell’addestramento è importante selezionare individui audaci e di rango medio-alto all’interno del gruppo. Una volta finito l’addestramento delle due femmine, il distributore è stato riposizionato e lasciato di nuovo a disposizione dei due gruppi. Dopo due mesi trascorsi in presenza degli individui addestrati, 14 scimpanzé sono riusciti ad azionare il distributore osservando più volte il comportamento di un altro individuo che aveva capito come farlo funzionare.

    Sia lo studio sugli scimpanzé che quello sui bombi sono considerati importanti prove sperimentali dell’apprendimento sociale negli animali, di cui esistono da tempo numerose prove aneddotiche. La capacità di apprendere osservando e imitando il comportamento di altri individui è infatti ritenuto uno dei fattori che contribuiscono a determinare differenze comportamentali intraspecifiche tra gruppi diversi.
    Degli scimpanzé, per esempio, è ben nota la pratica di utilizzare dei bastoncini o dei fili d’erba per catturare le termiti, osservata e studiata fin dai primi anni Sessanta dall’etologa inglese Jane Goodall. Ma alla fine degli anni Novanta lo zoologo e psicologo Andrew Whiten scoprì insieme al suo gruppo di ricerca della University of St Andrews, in Scozia, e alla stessa Goodall che gli scimpanzé utilizzano le tecniche di cattura delle termiti in modo diverso a seconda del gruppo a cui appartengono. Quelli di alcune zone dell’Africa mangiano gli insetti direttamente dal bastoncino, mentre altri usano la mano libera per raccoglierli prima di mangiarli.

    – Leggi anche: Jane Goodall: dilettante, scienziata, attivista, simbolo

    In anni recenti è inoltre aumentata la quantità di prove dell’esistenza di comportamenti sociali, abitudini alimentari e persino canti e richiami diversi tra gruppi della stessa specie. Le differenze sono dovute a fattori ambientali, ma sono anche rese possibili dalla tendenza sociale ad accogliere e diffondere elementi di innovazione introdotti dai singoli individui all’interno dei gruppi. Prove di una simile evoluzione culturale sono state osservate tra le orche, i capodogli e altre cetacei, ma anche tra diverse specie di uccelli.

    Le differenze culturali all’interno di una stessa specie possono riflettersi anche in aspetti della vita sociale più stabili ed evidenti, come hanno mostrato alcuni ricercatori del dipartimento di biologia della Katholieke Universiteit Leuven, in Belgio, e del laboratorio di entomologia dell’istituto Embrapa, in Brasile, in un articolo pubblicato a marzo sulla rivista Current Biology. In un grande apiario a Jaguariúna, in Brasile, il gruppo di ricerca ha osservato 416 colonie di Scaptotrigona depilis, una specie di ape senza pungiglione diffusa in Sudamerica, per due lunghi periodi nel 2022 e nel 2023.
    Circa il 95 per cento delle colonie presentava favi costruiti in strati orizzontali sovrapposti, come torte nuziali su più livelli, il tipo di struttura preferita dalle Scaptotrigona depilis. Le restanti colonie presentavano invece una struttura a spirale: sia in un caso che nell’altro lo stile architettonico veniva mantenuto per molte generazioni di api. Inoltre non c’erano differenze nella velocità di costruzione, quindi nessun vantaggio in termini di efficienza nel seguire uno stile anziché l’altro.

    Per escludere che la differenza di stile derivasse da fattori genetici il gruppo di ricerca ha trapiantato alcuni individui da colonie i cui favi erano costruiti su più strati in colonie con favi strutturati a spirale, e viceversa. Prima di farlo ha svuotato le strutture ospitanti in modo da non lasciare adulti “indigeni” nella colonia, che avrebbero potuto influenzare il comportamento delle operaie importate. In breve tempo le api importate adottavano lo stile locale, che veniva ereditato anche dalle larve della colonia quando maturavano in adulti.
    Secondo il biologo Tom Wenseleers, a capo del laboratorio della KU Leuven che ha condotto la ricerca, le api potrebbero cambiare stile per far fronte all’accumulo di microscopici errori di costruzione commessi dai loro predecessori. Questo processo, in cui alcuni individui di insetti sociali influenzano indirettamente il comportamento di altri attraverso le tracce che lasciano nel loro ambiente, è definito stigmergia. Per avere conferma dell’ipotesi di Wenseleers il gruppo ha quindi introdotto micro-variazioni nella struttura di favi a strati orizzontali sovrapposti, e ha scoperto che in quel caso le api passavano effettivamente alla costruzione a spirale.
    I risultati dello studio sulle api a Jaguariúna suggeriscono che la trasmissione di differenti tradizioni nella costruzione dei favi attraverso le generazioni possa avvenire anche senza bisogno che gli individui siano direttamente istruiti dai loro coetanei. Permettono quindi di pensare alla cultura in termini più ampi, senza intenderla rigidamente come un insieme di comportamenti trasmessi da individuo a individuo fino a diventare caratteristici di un gruppo.
    Anche la trasmissione di comportamenti animali più complessi – come la costruzione delle dighe da parte dei castori o dei giacigli sugli alberi da parte degli scimpanzé – potrebbero avvenire in questo stesso modo indiretto, ha detto Whiten all’Economist. Ed è possibile che processi di stigmergia siano anche alla base della trasmissione di alcune tradizioni umane. LEGGI TUTTO

  • in

    È stata scoperta una rete di antiche città in Amazzonia, abitata quando in Europa c’era l’Impero Romano

    Caricamento playerUn gruppo di archeologi guidati dal francese Stéphen Rostain ha scoperto i resti di una serie di antiche città nella foresta amazzonica dell’Ecuador, grazie a una tecnologia di telerilevamento basata sul laser e a indagini sul campo. L’articolo scientifico che documenta la scoperta, pubblicato sulla rivista Science, spiega che queste città furono abitate circa tra il 500 a.C. e un periodo compreso tra il 300 e il 600 d.C., più o meno quando in Europa c’era l’Impero Romano.
    Appartenevano al cosiddetto popolo Upano, così chiamato dal nome di un fiume che scorre in una regione collinare ai piedi delle Ande: è la più antica società umana amazzonica mai scoperta e studiata. Questi insediamenti infatti hanno almeno mille anni in più dei più antichi trovati in precedenza nell’Amazzonia.
    Rostain è un archeologo esperto di antiche civiltà amazzoniche precolombiane, cioè che vivevano in America prima che ci arrivasse Cristoforo Colombo nel 1492, ed è un ricercatore del Centre national de la recherche scientifique (CNRS), l’analogo francese del Consiglio Nazionale delle Ricerche (CNR) italiano. Aveva iniziato a studiare alcune montagnole del tipo che solitamente nasconde resti di antiche costruzioni nella valle dell’Upano una trentina d’anni fa, ma per molto tempo lui e i suoi colleghi si erano limitati a studiare due siti principali, Sangay e Kilamope, dove sono stati trovati manufatti di ceramica dipinta e incisa.
    Le sue scoperte si sono estese dopo che nel 2015 l’Istituto nazionale per il patrimonio culturale dell’Ecuador realizzò una mappatura aerea della valle dell’Upano con un LIDAR, uno strumento che permette di misurare la distanza di oggetti e superfici attraverso impulsi laser e che per questo può essere usato per rilevare la presenza di strutture umane nascoste in una fitta foresta. Grazie alle informazioni ottenute in questo modo gli archeologi si sono accorti che i siti a loro noti erano collegati ad altri, fino ad allora sconosciuti, attraverso una rete di strade. Complessivamente sono stati trovati cinque grandi insediamenti e dieci più piccoli in una zona di 300 chilometri quadrati. Le strade più grandi misuravano 10 metri di larghezza e si allungavano fino a 20 chilometri.
    La copertina di Science del 12 gennaio 2024, dedicata alla scoperta della rete di antiche città scoperta in Amazzonia
    Sono state trovate le tracce di campi coltivati a mais, patate e manioca (un altro tubero), canali, abitazioni e costruzioni per cerimonie religiose, entrambe realizzate con mattoni di fango, l’unico materiale da costruzione reperibile nella regione. Il gruppo di Rostain ha stimato che nella rete di centri potessero vivere almeno 10mila persone, forse fino a 30mila nei periodi di picco demografico. Sarebbe una popolazione numericamente simile a quella che abitava Londra in epoca romana e capace di organizzare il lavoro in maniera complessa, avendo potuto realizzare una rete urbana di questa estensione.
    La scoperta è una ulteriore conferma del fatto che le popolazioni della foresta amazzonica non vissero sempre in piccoli gruppi più o meno nomadi, come si pensava in passato, ma che nella regione si svilupparono anche altri tipi di società prima dell’arrivo degli europei. LEGGI TUTTO

  • in

    Chi è chi in “Oppenheimer”

    Caricamento playerIl film Oppenheimer di Christopher Nolan sulla vita di Robert Oppenheimer, “il padre dell’atomica”, ha un cast molto nutrito con una cinquantina di attrici e attori che interpretano fisici e politici famosissimi, funzionari meno conosciuti e diversi altri personaggi molto importanti per la storia. Molti di loro non vengono nemmeno presentati per nome e cognome, una scelta deliberata per non distogliere troppo l’attenzione dal protagonista principale del film, Oppenheimer. La mancanza di riferimenti può però confondere con una quantità così grande di personaggi e aspetti appena accennati, e sapere chi-è-chi è piuttosto importante per seguire la storia, o per ricostruire dopo aver visto il film i pezzi in cui ci si è persi. Questa è quindi una rapida guida al chi-è-chi non solo nel film, ma anche nella realtà di chi fece l’atomica.Robert Oppenheimer (1904 – 1967)(AP Photo)Tra i fisici più influenti nella storia del Novecento, è considerato “il padre dell’atomica”. Coordinò buona parte del lavoro dei gruppi di ricerca a Los Alamos, dove furono sviluppati i primi modelli di bomba atomica alla fine della Seconda guerra mondiale. Oppenheimer aveva 38 anni quando fu scelto per l’incarico e aveva accumulato una specchiata carriera accademica, occupandosi di astronomia teorica, fisica nucleare, meccanica quantistica e di relatività, argomento molto dibattuto all’epoca nella comunità scientifica. Dopo i bombardamenti nucleari di Hiroshima e Nagasaki in Giappone, Oppenheimer divenne un convinto sostenitore della necessità di evitare la proliferazione di ordigni nucleari, ma rimase inascoltato. Per le sue vicinanze agli ambienti comunisti statunitensi in gioventù finì sotto inchiesta, rimanendo emarginato dalle istituzioni governative che si occupavano di nucleare. Diversi anni dopo di Hiroshima disse: «Penso che Hiroshima abbia causato più morti e sofferenze disumane di quanto sarebbe stato necessario per diventare un motivo efficace per mettere fine alla guerra». Nel film è interpretato da Cillian Murphy.Leslie Groves (1896 – 1970)(AP)Generale dell’esercito, nel 1942 assunse il comando del Manhattan Project, l’ambizioso programma di ricerca per la costruzione di armi atomiche. Fu Groves a scegliere Oppenheimer, sorprendendo diversi colleghi e osservatori, convinto che fosse la persona giusta per dirigere i gruppi di ricerca a Los Alamos. Groves si occupò direttamente degli aspetti logistici e organizzativi di buona parte del progetto, partecipò ai gruppi di lavoro che studiavano i progressi della Germania nazista nella costruzione di una bomba atomica e collaborò alla scelta delle città giapponesi da bombardare. Nel film è interpretato da Matt Damon.Lewis Strauss (1896 – 1974)(AP Photo/Henry Griffin)Fu tra i principali esponenti della Commissione per l’energia atomica degli Stati Uniti, costituita alla fine della Seconda guerra mondiale per trasferire parte del controllo dell’energia atomica dall’esercito ai civili. Molto influente, sostenne la necessità di costruire una bomba a idrogeno e di mantenere la massima segretezza sui piani atomici statunitensi, soprattutto nei confronti dell’Unione Sovietica. Strauss fu tra i principali critici di Oppenheimer ai tempi delle audizioni per la sua vicinanza agli ambienti comunisti statunitensi in gioventù; fu inoltre a favore della rimozione delle autorizzazioni di sicurezza per Oppenheimer, che di fatto lo estromisero da qualsiasi decisione e confronto a livello governativo sul nucleare. Nel film è interpretato da Robert Downey Jr.Enrico Fermi (1901 – 1954)(AP)Premio Nobel per la Fisica nel 1938, fu tra i principali studiosi del decadimento radioattivo e delle forze nucleari debole e forte. Dopo avere lavorato in Italia, si trasferì negli Stati Uniti e guidò la progettazione e la costruzione del “Chicago Pile-1”, il primo reattore nucleare a fissione nel 1942. Il suo lavoro fu fondamentale per studiare la reazione nucleare a catena e per la produzione del materiale fissile necessario per le prime bombe atomiche. Nel film compare in pochissime scene, interpretato da Danny Deferrari.Jean Tatlock (1914 – 1944)(Wikimedia)Psichiatra e attivista comunista, fu fidanzata e poi amante di Oppenheimer, tanto da essere storicamente considerata il suo vero grande amore. Il loro rapporto fu centrale nelle audizioni del 1954 sulle presunte frequentazioni comuniste di Oppenheimer. La relazione amorosa durò circa tre anni, il rapporto sarebbe stato in seguito descritto come tumultuoso, ma non si sa di preciso cosa portò Tatlock a interrompere la relazione. La sua morte venne considerata un suicidio, anche se negli anni diverse persone, tra cui suo fratello, continuarono a sostenere che si fosse trattato di un omicidio politico particolarmente ben congegnato. Nel film è interpretata da Florence Pugh.Edward Teller (1908 – 2003)(AP)Se Oppenheimer è “il padre della bomba atomica”, Teller è considerato “il padre della bomba a idrogeno”. Di origini ungheresi, si dedicò alla fisica nucleare e molecolare, ma si occupò anche di meccanica quantistica. Fu tra i primi scienziati a essere coinvolti nel Manhattan Project e quasi da subito sostenne la necessità di sviluppare una bomba a fusione nucleare, potenzialmente molto più potente delle bombe a fissione in via di sviluppo a Los Alamos. Ebbe un rapporto complicato con Oppenheimer, che non voleva distrazioni dall’obiettivo principale di ricerca orientato verso la fissione, di conseguenza per vario tempo lavorò a Los Alamos a propri progetti. Teller testimoniò contro Oppenheimer alle audizioni del 1954, ricevendo pesanti critiche dalla comunità scientifica. Fu sempre un fermo sostenitore della necessità di rendere il più potente possibile l’arsenale atomico degli Stati Uniti, contro eventuali minacce sovietiche. Nel film è interpretato dal regista Benny Safdie.Ernest Lawrence (1901 – 1958)(AP)Premio Nobel per la Fisica nel 1939 per l’invenzione del ciclotrone, il primo acceleratore di particelle elementari, isolò nei propri laboratori il plutonio, di importanza essenziale per le ricerche a Los Alamos legate alla bomba atomica. Diede un importante contributo allo sviluppo delle tecniche di separazione dell’uranio 235, elemento utilizzato come materiale fissile per la bomba sganciata su Hiroshima. Dopo la Seconda guerra mondiale fu tra i principali sostenitori di “Big Science”, la richiesta al governo statunitense di finanziare grandi progetti scientifici per la ricerca e lo sviluppo di nuove tecnologie. Nel film è interpretato da Josh Hartnett.Leo Szilard (1898 – 1964)(AP Photo/Henry Griffin)Ungherese, fu uno dei più eminenti fisici nucleari europei e già nel 1933 ipotizzò che fosse possibile sviluppare una reazione nucleare a catena, il principio alla base degli ordigni nucleari e in forma controllata dei reattori per la produzione di energia elettrica. Quando dalla teoria si passò alla pratica con i primi esperimenti di fissione in Germania, nel 1939 Szilard propose ad Albert Einstein di inviare una lettera all’allora presidente degli Stati Uniti, Franklin D. Roosevelt, per segnalare la possibilità che il regime nazista si dotasse di armi atomiche: la lettera fu scritta da Szilard e firmata da Einstein, che aveva una maggiore fama. Fu quella lettera a convincere Roosevelt ad avviare le prime attività di ricerca sul nucleare, che sarebbero poi sfociate nel Manhattan Project. Nel film è interpretato da Máté Haumann.Katherine Oppenheimer (1910 – 1972)Katherine Puening sposò Oppenheimer nel 1940, dopo che Tatlock aveva interrotto la relazione con lui. Puening aveva fatto parte del partito comunista statunitense, aveva un dottorato in botanica e due matrimoni alle spalle. Il primo figlio, concepito con Oppenheimer quando Puening era ancora in una precedente relazione, nacque nel maggio del 1941, mentre la loro seconda figlia nacque tre anni dopo a Los Alamos, dove la famiglia si era trasferita per seguire lo sviluppo della bomba atomica. Ebbero un matrimonio complicato con alcune storie extraconiugali, ma rimasero insieme fino alla morte di Oppenheimer nel 1967. Nel film è interpretata da Emily Blunt.Niels Bohr (1885 – 1962)(AP Photo/Alan Richard)Danese, fu uno dei più grandi e importanti fisici del Novecento. I suoi studi furono fondamentali per comprendere la struttura atomica e per la meccanica quantistica, per questo già nel 1922 ricevette il Nobel per la Fisica. A Bohr si deve il principio di complementarietà, secondo il quale nella meccanica quantistica l’aspetto duplice di alcune rappresentazioni fisiche di ciò che avviene a livello atomico e subatomico non può essere osservato contemporaneamente durante il medesimo esperimento. Non fu mai presente in forma stabile a Los Alamos, ma fece più volte visita ai gruppi di ricerca, diventando un punto di riferimento soprattutto per i ricercatori più giovani. In seguito avrebbe detto infatti: «Non avevano bisogno del mio aiuto per fare la bomba atomica». Nel film lo interpreta Kenneth Branagh.Werner Heisenberg (1901 – 1976)(AP Photo/Gerhard Baatz)Tedesco, fu tra i pionieri della meccanica quantistica, insieme ai fisici Max Born e Pascual Jordan, e per le sue ricerche fu insignito del Premio Nobel per la Fisica nel 1932. È conosciuto soprattutto per il principio di indeterminazione, che stabilisce i limiti nella misurazione dei valori di alcuni tipi di grandezze in un sistema fisico. Rimase in Germania nel corso della Seconda guerra mondiale e guidò il gruppo di lavoro civile all’interno del programma nucleare militare tedesco, voluto dal regime nazista per sviluppare armi atomiche. Nel film è interpretato da Matthias Schweighöfer.Boris Pash (1900 – 1995)(Wikimedia)Ufficiale dell’esercito degli Stati Uniti, lavorò nel controspionaggio e fu tra i responsabili delle indagini su sospette attività di spionaggio sovietico all’Università della California. In quell’occasione interrogò e fece verifiche anche su Oppenheimer, concludendo che probabilmente fosse ancora legato al partito comunista statunitense. Pash non ritenne comunque che Oppenheimer lavorasse come spia sovietica, convinto che la sua posizione di rilievo e la sua immagine pubblica fossero un deterrente nel diventarlo. Nel film è Casey Affleck.Albert Einstein (1879 – 1955)(AP)Probabilmente il fisico più famoso della storia del Novecento, sviluppò a partire dai primi anni del secolo la teoria della relatività, fondamentale per la fisica moderna insieme alla meccanica quantistica. Tedesco di origini ebraiche, nei primi anni Trenta si trasferì negli Stati Uniti per sfuggire al regime nazista. Non partecipò attivamente al Manhattan Project, ma firmò la lettera scritta da Szilard per avvisare il presidente statunitense Roosevelt sui pericoli legati all’eventuale sviluppo di armi atomiche da parte della Germania nazista. Einstein era profondamente pacifista e in seguito confidò di avere fatto un errore nel firmare una lettera che, secondo alcuni storici, avviò la cosiddetta “corsa all’atomica”. Nel 1955 Einstein sottoscrisse un manifesto insieme ad alcuni intellettuali come il filosofo britannico Bertrand Russell sui pericoli derivanti dalle armi nucleari. Nel film è l’attore Tom Conti, con un trucco secondo molti poco realistico.Harry Truman (1884 – 1972)(AP)Divenne presidente degli Stati Uniti alla morte di Franklin D. Roosevelt, di cui era il vice, nell’aprile del 1945 e solo in quel momento fu messo al corrente del Manhattan Project e dei piani per costruire la bomba atomica. Pochi mesi dopo, Truman fu il primo e unico capo di stato ad autorizzare bombardamenti nucleari su due città, consapevole di causare la morte di decine di migliaia di civili. Oppenheimer incontrò Truman alla Casa Bianca alcune settimane dopo la distruzione di Hiroshima e Nagasaki e confidò al presidente di sentire «le mani sporche di sangue». Truman rimase colpito da quell’affermazione, avendo autorizzato personalmente i due bombardamenti, e allontanò in malo modo Oppenheimer, dicendo in seguito ai propri collaboratori: «Non voglio mai più vedere quel piagnone in quest’ufficio». Fu eletto per un secondo mandato presidenziale nel 1948, lavorò per il miglioramento dei diritti civili nel paese e non si ricandidò nel 1952. Nel film è interpretato da Gary Oldman, anche lui molto truccato.Haakon Chevalier (1901 – 1985)(Evening Standard/Hulton Archive/Getty Images)Incontrò Oppenheimer nel 1937 all’Università della California, Berkeley, e insieme costituirono un gruppo che promuoveva idee di sinistra e aveva legami con il partito comunista negli Stati Uniti. Chevalier ebbe indirettamente un ruolo importante nelle audizioni che portarono alla revoca dei permessi di sicurezza di Oppenheimer e di fatto misero fine alla sua carriera. Nel 1942 aveva riferito a Oppenheimer di conoscere una persona che stava cercando di avere informazioni sul Manhattan Project per conto dei sovietici. Oppenheimer riferì tardivamente questa circostanza alle autorità e omise informazioni su Chevalier cercando di proteggerlo, attività che sembrarono sospette a chi conduceva le indagini e che influirono notevolmente sulla scelta della revoca dei permessi nel 1954. Nel film è Jefferson Hall.Klaus Fuchs (1911 – 1988)(Keystone/Getty Images)Tedesco, emigrò nel Regno Unito all’inizio del nazismo. Capace fisico teorico, a Los Alamos lavorò a importanti calcoli per i primi modelli della bomba atomica a implosione sotto la guida di Hans Bethe, dando contributi molto importanti anche per il successivo sviluppo della bomba a fusione, a guerra finita. All’inizio degli anni Cinquanta confessò di avere trasmesso informazioni sulle attività segrete del Manhattan Project all’Unione Sovietica e fu condannato a 14 anni di carcere nel Regno Unito, dove si era trasferito. Scontò nove anni di pena e si trasferì nella Germania dell’Est dove divenne direttore dell’Istituto centrale di fisica nucleare di Dresda. Nel film è interpretato da Christopher Denham.David Hill (1919 – 2008)(Wikimedia)Lavorò con Enrico Fermi al “Chicago Pile-1” al Met Lab dell’Università di Chicago, dove rimase per buona parte della Seconda guerra mondiale. Quando divenne imminente il lancio delle prime bombe atomiche sul Giappone, Hill sottoscrisse una petizione avviata da Leo Szilard con la quale si chiedeva al presidente Truman di dare un avvertimento al governo giapponese prima di un bombardamento atomico. Anni dopo da consigliere della Federazione degli scienziati americani testimoniò davanti a una commissione del Senato degli Stati Uniti opponendosi alla nomina di Lewis Strauss alla carica di Segretario del commercio, anche per il ruolo che aveva avuto nelle indagini contro Oppenheimer nel 1954. Nel film è interpretato da Rami Malek.William L. Borden (1920 – 1985)(Wikimedia)Tra il 1949 e il 1953 ebbe un ruolo molto importante come direttore esecutivo della Commissione congiunta del Congresso degli Stati Uniti sull’energia atomica. Ma è ricordato soprattutto per avere scritto nel 1953 una lettera all’allora potentissimo capo dell’FBI, J. Edgar Hoover, nella quale segnalava che «molto probabilmente» Oppenheimer era una spia dell’Unione Sovietica, senza fornire prove specifiche. Fu uno dei primi passi verso l’indagine del 1954 con la quale Oppenheimer avrebbe perso le autorizzazioni di sicurezza. Nel film è interpretato da David Dastmalchian.Roger Robb (1907 – 1985)(AP Photo/John Rous)Magistrato, fu consigliere speciale durante le audizioni della Commissione per l’energia atomica sul ruolo di Oppenheimer e sui suoi presunti legami con l’Unione Sovietica. Secondo gli osservatori dell’epoca, interrogò Oppenheimer molto duramente, con un trattamento di solito riservato a chi era accusato di alto tradimento. Nel film è interpretato da Jason Clarke.Isidor Isaac Rabi (1898 – 1988)(AP Photo)Premio Nobel per la Fisica nel 1944, studiò il momento magnetico dell’atomo e mise le basi per lo sviluppo di sistemi di diagnostica per immagini che usiamo ancora oggi, come la risonanza magnetica nucleare. Rabi non partecipò direttamente alle attività di ricerca di Los Alamos, ma fu comunque un importante consulente per il Manhattan Project e fu tra gli scienziati presenti durante “Trinity”, il primo test della storia su una bomba nucleare. Quel giorno vinse una scommessa tra i fisici presenti su quanta energia avrebbe sprigionato l’esplosione: arrivò tardi ed era rimasto un solo numero disponibile, 18 kilotoni, l’esplosione ne produsse 18,6. Nel film è interpretato da David Krumholtz.Gordon Gray (1909 – 1982)(AP Photo)Funzionario nei governi di Harry Truman e Dwight Eisenhower, fu a capo dalla commissione che si occupò di indagare i presunti legami di Oppenheimer con il comunismo e l’Unione Sovietica. Fu molto criticato per come gestì il proprio ruolo senza lasciare a Oppenheimer la possibilità di difendersi adeguatamente. Fu uno dei due membri, su tre, della commissione a votare a favore della revoca dei permessi di sicurezza per Oppenheimer, sancendo di fatto la fine della sua carriera nelle istituzioni statunitensi. Nel film è interpretato da Tony Goldwyn.Vannevar Bush (1890 – 1974)(AP Photo)Ingegnere e inventore, ebbe un ruolo chiave per gli Stati Uniti nel corso della Seconda guerra mondiale, coordinando una grande quantità di lavori di ricerca su nuove tecnologie da impiegare in ambito bellico. Fu tra i principali sostenitori della necessità di sviluppare armi atomiche e nel periodo del Manhattan Project fu il principale punto di collegamento tra il gruppo di ricerca e la presidenza degli Stati Uniti. Dopo la Seconda guerra mondiale cercò di opporsi al test della prima bomba a fusione, ritenendo che avrebbe portato a un’ulteriore corsa agli armamenti da parte dell’Unione Sovietica. Nel 1954 difese pubblicamente in più occasioni Oppenheimer dalle accuse che gli erano state mosse. Nel film è Matthew Modine.Robert Serber (1909 – 1997)(Wikimedia)Fisico, ebbe un ruolo molto importante a Los Alamos: fare in modo che i nuovi ricercatori che arrivavano al laboratorio fossero messi il più rapidamente possibile al passo col lavoro di ricerca già svolto. Oppenheimer aveva scelto di non compartimentare conoscenze e informazioni tra singoli dipartimenti, mantenendo il più aperta possibile la comunicazione interna in modo che a Los Alamos tutti sapessero l’andamento e l’entità dello sforzo collettivo. Serber preparò alcune lezioni, conosciute come The Los Alamos Primer, per questo scopo. Fu anche tra i primi a entrare a Hiroshima e Nagasaki per verificare gli effetti dei bombardamenti atomici. Nel film è Michael Angarano.Lilli Hornig (1921 – 2017)(Wikimedia)Fu tra le relativamente poche donne che parteciparono alle attività di ricerca a Los Alamos, dove era arrivata seguendo il marito, il chimico Donald Hornig. Le furono affidati vari compiti di ricerca legati allo studio del plutonio e delle sue caratteristiche. Firmò una petizione che chiedeva che il primo attacco nucleare fosse condotto su un’isola disabitata a scopo dimostrativo. Dopo la Seconda guerra mondiale divenne docente di chimica e promosse numerose iniziative per dare alle donne pari opportunità di accesso nel settore della ricerca e non solo. Nel film è interpretata da Olivia Thirlby. LEGGI TUTTO

  • in

    L’altissimo QI dei geni è una balla

    Caricamento playerA volte capita di scorrere sui social inserzioni pubblicitarie in cui esperti e aziende di vari settori, per promuovere corsi o applicazioni per allenare la mente, la prendono larghissima e partono dal quoziente intellettivo dei geni del passato. Citano risultati clamorosi ottenuti nei test da scienziati come Leonardo Da Vinci, Isaac Newton e Albert Einstein, al quale viene comunemente associato un punteggio di 160. Il problema è che questi risultati sono inventati: sono stime, perché nessuno di quegli scienziati ha mai svolto un test del QI. E sono stime basate su deduzioni molto fragili, perché non ci sono valide ragioni per credere che i geni abbiano un QI molto alto.Esistono diversi test del quoziente intellettivo, ma tutti derivano da un tipo di valutazione psicologica ideata all’inizio del Novecento per misurare in modo il più possibile oggettivo le abilità cognitive delle persone in rapporto alla loro età. Nel contesto anglosassone il test è ampiamente utilizzato in ambito scolastico, professionale, medico e scientifico, e deve in larga parte il suo successo alla sua praticità: il fatto che permetta di esprimere in modo sintetico qualcosa di così complesso, sfuggente e poliedrico come l’intelligenza umana.L’affidabilità del test e in generale l’utilità del quoziente intellettivo come strumento di indagine sono però da anni oggetto di riflessioni e studi che si concentrano sui limiti e sui rischi di misurare l’intelligenza sulla base di un test standardizzato. I limiti sono peraltro noti alla maggior parte degli istituti e dei professionisti che utilizzano regolarmente il test, considerandolo uno strumento utile ma insufficiente, il cui risultato richiede un’interpretazione critica e ben contestualizzata alla luce di altri tipi di valutazione.Uno dei principali limiti noti del test del quoziente intellettivo è la sua scarsa attendibilità man mano che i punteggi si allontanano da quelli vicini alla mediana della popolazione e presentano un rischio maggiore di essere influenzati da variabili fuorvianti. È la ragione per cui un punteggio molto basso, inferiore a 70, non è un criterio sufficiente di diagnosi di disabilità intellettiva. Come uno superiore a 130 non è necessariamente un indice di genialità: considerazione che rende abbastanza insensato attribuire fantasiosi punteggi stratosferici a grandi scienziati del passato.– Leggi anche: Ci sono meno geni che in passato?Le prime versioni del test del QI furono sviluppate in Francia nel 1905 dagli psicologi Alfred Binet e Theodore Simon, con l’obiettivo di individuare precocemente i bambini con difficoltà di apprendimento e che avrebbero avuto bisogno di aiuto durante la formazione scolastica. Fu Lewis Terman, uno psicologo statunitense della Stanford University, a introdurre quel test negli Stati Uniti nel 1916 e ad ampliarne l’utilizzo. Dopo averlo fatto tradurre dal francese all’inglese, lo standardizzò su un certo numero di bambini e realizzò uno dei test più noti e diffusi ancora oggi (in una versione aggiornata), lo Stanford-Binet, convinto che il test potesse servire anche per il motivo opposto a quello immaginato da Binet e Simon: individuare i bambini geniali.Il test attirò da subito diverse critiche, tra cui quella del giornalista statunitense Walter Lippmann, che sulla rivista New Republic scrisse: «Detesto l’impudenza nell’affermare che in 50 minuti sia possibile giudicare e classificare l’idoneità predestinata di un essere umano nella vita». Nonostante le critiche, il test – che misura le abilità su una scala non assoluta ma relativa, definita dall’età o da altre variabili – ebbe grande successo e continuò a diffondersi. Negli anni Trenta i bambini con un alto QI venivano mandati in classi più impegnative per prepararsi a ricevere una formazione adatta all’università e a lavori ad alto reddito.Per dimostrare l’attendibilità del test, Terman pensò anche di sottoporlo a un insieme sufficientemente ampio di scolari della California, scegliere quelli con i punteggi più alti e seguire i loro progressi attraverso l’adolescenza e fino all’età adulta in un grande studio longitudinale. Tra decine di migliaia di soggetti furono infine selezionati i 1528 con il punteggio più alto, 856 maschi e 672 femmine, con una età media di 11 anni e un QI medio di 151, quasi tutti bianchi e di famiglie ricche o della classe media. I risultati della ricerca furono pubblicati con il titolo Genetic Studies of Genius, cinque volumi usciti tra il 1925 e il 1959. Il campione usato da Terman è ancora oggi oggetto di studi, sebbene viziato da pregiudizi di selezione, e i suoi membri sono scherzosamente chiamati “termiti” (termites, contrazione di termanites, “termaniani”).Le persone studiate da Terman diventarono professori, dottori, avvocati, scienziati, ingegneri e professionisti di altro tipo, ma nessuno di loro è mai diventato ciò che molte persone considererebbero un genio, scrisse nel 2018 sulla rivista Nautilus Dean Keith Simonton, docente di psicologia alla University of California, Davis. Due di loro, Robert Sears e Lee Cronbach, diventarono anche stimati psicologi della Stanford University e ripresero loro stessi, dopo la morte di Terman, lo studio di cui facevano parte. Stimati psicologi, appunto: non geni come Sigmund Freud o Jean Piaget, secondo Simonton.Molti partecipanti allo studio di Terman non riuscirono a laurearsi affatto né a ottenere lavori che richiedessero un’istruzione di livello superiore. Per non parlare delle donne, alcune delle quali non ottennero particolari successi nonostante un QI superiore a 180: cosa tuttavia meno sorprendente, scrisse Simonton, se si considera che vissero «in un momento in cui ci si aspettava che tutte le donne diventassero casalinghe, non importa quanto brillanti». In ogni caso, il QI degli uomini di successo non era sostanzialmente diverso da quello di tutti gli altri.– Leggi anche: Per valutare il successo bisogna considerare il “pregiudizio di sopravvivenza”Un altro fatto notevole contribuì a indebolire ulteriormente l’ipotesi di partenza di Terman. Dei circa 168 mila bambini da lui valutati in preparazione dello studio uno dei moltissimi non selezionati fu Luis Walter Álvarez, un bambino di San Francisco che si sottopose al test quando aveva 10 anni, nel 1921, e ottenne un punteggio troppo basso per entrare nel campione. Alla fine conseguì un dottorato di ricerca alla University of Chicago e diventò uno dei fisici più importanti del Novecento: per i suoi contributi allo studio delle particelle elementari ricevette il Nobel per la Fisica nel 1968.Anche un altro bambino non ottenne un punteggio sufficiente a entrare nel campione di Terman: William Shockley, nato a Palo Alto un anno prima di Álvarez. Finì per laurearsi al California Institute of Technology (Caltech) e prendere un dottorato al MIT, e lavorò a lungo nei Bell Laboratories, uno dei più importanti centri di ricerca della storia statunitense. Insieme ad altri due ricercatori del laboratorio, costruì nel 1947 il primo prototipo funzionante di transistor mai realizzato e ricevette il Nobel per la fisica nel 1956.Altri bambini scartati da Terman non vinsero il Nobel, ma almeno due diventarono comunque geni nel loro campo. Studiarono musica e sono oggi unanimemente considerati tra i più grandi violinisti del Novecento: Yehudi Menuhin e Isaac Stern.– Leggi anche: Storie di invenzioni conteseIn generale, come osservato dagli psicologi Russell Warne della Brigham Young University e Ross Larsen e Jonathan Clark della Utah Valley University, la correlazione tra il QI e il conseguimento di un premio Nobel è piuttosto debole. Il punteggio di Shockley e Álvarez non era sufficiente a rientrare nel gruppo studiato da Terman, ma era in linea con quello di altri premi Nobel, intorno a 120-125: il biologo James Dewey Watson e il fisico e famoso divulgatore Richard Feynman.In un’intervista nel 2004 l’astrofisico Stephen Hawking disse di non avere idea di quale fosse il suo QI e definì «sfigate» le persone che si vantano del proprio. A proposito della qualifica di genio a lui attribuita da molte persone, disse che «i media hanno bisogno di supereroi nella scienza proprio come in ogni sfera della vita» e che «di fatto esiste una gamma continua di abilità e nessuna chiara linea di demarcazione» tra quali siano geniali e quali no.In mancanza di dati sul QI di molti scienziati del passato le stime che circolano sono perlopiù basate, nella migliore delle ipotesi, sui risultati scolastici e universitari. È un ragionamento in parte legittimato dalla correlazione attuale tra i test sulle abilità cognitive come il QI e quelli di valutazione più utilizzati in ambito scolastico, tra cui lo Scholastic Aptitude Test (SAT), il principale test per l’ammissione ai college statunitensi. Ma anche dando per buona e applicando retroattivamente questa correlazione attuale non tornerebbero molto i conti con i QI irrealistici attribuiti ad alcuni famosi geni.Einstein, comunemente ma scorrettamente associato a un QI di 160, fu bocciato all’esame di ammissione al Politecnico di Zurigo la prima volta in cui lo sostenne, a 16 anni, nel 1895. Ottenne risultati eccellenti nelle sezioni di matematica e fisica, ma non in quella generale, in cui risultò penalizzato dalla sua conoscenza all’epoca ancora scarsa del francese, la lingua dell’esame e per lui seconda lingua.In generale, sulla base dei suoi risultati scolastici e universitari, è plausibile immaginare che Einstein fosse un ottimo studente: non uno con il massimo dei voti in ogni materia, che è però l’unica condizione che legittimerebbe – e solo fino a un certo punto – la tendenza ad attribuirgli un QI straordinariamente fuori dal comune. L’ipotesi più realistica, come recentemente suggerito dallo scrittore e neuroscienziato statunitense Erik Hoel, è che a un test del QI Einstein avrebbe ottenuto un punteggio non eccezionale, simile a quello di Feynman (125), Watson e altri geni.– Leggi anche: Perché il concetto di meritocrazia è controversoUna delle ragioni della tendenza ad attribuire ai geni QI altissimi e molto rari è la scarsa qualità di alcune pubblicazioni a cui molti ancora fanno riferimento. In un libro pubblicato negli anni Cinquanta dalla psicologa statunitense Anne Roe, intitolato The Making of a Scientist, sono presenti affermazioni infondate e indimostrabili come l’attribuzione di un QI di 205 a Leibniz e 210 a Goethe, personaggi vissuti tra il Seicento e la prima metà dell’Ottocento.Per calcolare il QI di un campione di premi Nobel a partire dai risultati di altri test di valutazione, Roe utilizzò per le conversioni non uno dei diversi test del QI già disponibili all’epoca ma uno mai provato prima e da lei progettato appositamente sulla base di un modello di test scolastico SAT. Seguì questo metodo, come ricostruito da Hoel, perché la maggior parte dei test esistenti ha come limite un punteggio massimo di 130 o 140, che sarebbe stato percepito come troppo basso per dei vincitori del premio Nobel.Alla fine ottenne un QI medio del gruppo di 166, ma ricavandolo da una serie di calcoli che lei stessa definì «trasformazioni statistiche basate su assunzioni generalmente valide» ma «non specificatamente verificate per questi dati». I buoni punteggi ottenuti dai premi Nobel nel test progettato da Roe – buoni ma non straordinari – non giustificano in alcun modo il tipo di conversione statistica che porta a ottenere il QI medio di 166, ha scritto Hoel, che piuttosto riconosce al libro di Roe il merito di aver esplorato e reso noti altri aspetti più interessanti delle vite, delle abitudini e delle motivazioni dei premi Nobel.Un altro argomento che indebolisce molto l’idea comune che il test del QI sia uno strumento utile a individuare abilità geniali e da molti considerate in qualche misura innate è che i risultati del test del QI cambiano con la pratica, come del resto quelli dei test di valutazione scolastica. Qualunque cosa valutino, cioè, è qualcosa che può essere allenato e migliorato.In un esperimento condotto negli anni Ottanta dallo psicologo dell’Università di Belgrado Radivoy Kvashchev, i cui risultati furono confermati in uno studio australiano nel 2020, un campione di circa 300 studenti sottoposti al test del QI fu diviso equamente in due gruppi. A uno solo dei due furono assegnati esercizi di problem solving creativo da tre a quattro volte a settimana per un periodo di tre anni, in cui le prestazioni degli studenti furono verificate in quattro occasioni.Alla fine dell’esperimento il gruppo mostrò un incremento del QI di 15 punti superiore rispetto all’incremento del QI nel gruppo che non si era esercitato. Lo studio australiano di revisione dell’esperimento concluse che le capacità cognitive misurate dai test di intelligenza «potrebbero non essere entità fisse», dal momento che «un allenamento prolungato e intensivo nella risoluzione creativa dei problemi» può portare a miglioramenti considerevoli delle funzioni cognitive riscontrate nella tarda adolescenza (18-19 anni).– Leggi anche: Il complicato rapporto tra i progressisti e la geneticaParte degli equivoci che emergono quando si parla di test del QI deriva da un’attitudine comune a considerarli uno strumento affidabile quanto lo sono gli strumenti di misurazione in campi scientifici come la fisica o la biologia. A volte, scrive Hoel, il QI viene trattato «come se volasse miracolosamente al di sopra» di tutti i problemi di misurazione e standardizzazione regolarmente affrontati dalle scienze sociali.Un’altra fonte di equivoci è il fatto che i punteggi per una stessa persona possono differire anche molto a seconda del test utilizzato e del momento in cui viene svolto. Una persona può ottenere un risultato assolutamente nella media (101), secondo i parametri di un certo test, e superare di poco il punteggio minimo richiesto (83) per l’arruolamento nell’esercito statunitense, secondo i parametri di un altro test. Inoltre l’incertezza dei risultati aumenta sia per quanto riguarda la popolazione che ottiene i punteggi più bassi che quella che ottiene i più alti: nel complesso, un insieme numericamente molto esiguo.Questa incertezza negli estremi, secondo Hoel, viene inevitabilmente ereditata dalle molte ricerche incentrate sul QI e sul suo valore predittivo nell’evoluzione delle vite delle persone. È improbabile ottenere risultati significativi da studi sulla “genialità” che utilizzano punteggi reali tra 130 e 150, perché in quell’intervallo il margine di errore è comunque troppo ampio e il campione che soddisfa quella condizione è troppo piccolo. E questa estrema variabilità dei risultati è confermata dalle molte tesi divergenti che emergono dalla vastissima letteratura sul QI.La spiegazione più semplice quando spuntano punteggi come 150, 160, 170 e superiori, secondo Hoel, «è che semplicemente non sono reali». E qualsiasi dibattito che consideri soltanto quelli superiori a 140 come valori significativi da cui partire è abbastanza insensato, dal momento che «i QI stratosferici sono reali quasi quanto folletti, unicorni, sirene». Il che non implica un giudizio negativo in generale del valore del test del QI, uno strumento di valutazione comunque utile per i valori vicini al centro della distribuzione, benché pessimo agli estremi, conclude Hoel. LEGGI TUTTO

  • in

    Come l’ambiente influenza le culture

    Le differenze culturali sono uno dei fattori comunemente utilizzati per spiegare la variabilità dei comportamenti delle persone a seconda del luogo in cui vivono o sono cresciute. In alcune regioni del mondo è normale mangiare carne di animali che in altri posti è vietato mangiare. In alcuni paesi il sesso prematrimoniale è una pratica comune, mentre in altri è rarissimo. In Romania le persone estranee tra loro mantengono solitamente una distanza di oltre un metro e 20 centimetri l’una dall’altra, mentre in Bulgaria, che pure confina con la Romania per un lunghissimo tratto, la distanza interpersonale mediamente mantenuta tra sconosciuti è meno della metà.In uno studio da poco pubblicato sulla rivista scientifica Proceedings of the Royal Society B un gruppo di ricerca del dipartimento di psicologia della Arizona State University ha in parte associato le variazioni culturali nel mondo a differenze ambientali, riprendendo alcune teorie e ricerche in psicologia ed ecologia condotte in anni recenti. I fattori ambientali presi in considerazione sono per esempio la geografia fisica e la densità di popolazione, ma anche l’aspettativa di vita e il rischio di malattie infettive. E dall’analisi di questi fattori e della loro evoluzione nel tempo è emerso che popolazioni che vivono in ambienti simili, non necessariamente vicini, sviluppano in una percentuale significativa gli stessi modelli culturali.Il gruppo di ricerca ha raccolto un vasto insieme di dati che misurano variabili ambientali e culturali in 220 paesi del mondo, lo ha chiamato The Ecology-Culture Dataset e lo ha reso pubblico su Scientific Data, la rivista del gruppo Nature dedicata alla pubblicazione di set di dati rilevanti per le scienze naturali, la medicina, l’ingegneria e le scienze sociali. Tra le variabili ambientali, nove in tutto, ci sono il livello medio annuo delle precipitazioni e della temperatura, il tasso di mortalità per cause esterne, la percentuale di disoccupazione e la diseguaglianza economica (coefficiente di Gini).Le variabili culturali sono 72 in tutto – ma nello studio ne sono state utilizzate 66 – e comprendono la rigidità delle norme sociali, l’indice di corruzione, il benessere soggettivo, l’innovazione, il conformismo, l’individualismo, le caratteristiche istituzionali e la disuguaglianza di genere. Sulla base dell’analisi delle relazioni tra i due diversi gruppi di dati gli psicologi della Arizona State University hanno stimato che quasi il 20 per cento della variazione culturale umana può essere spiegata da quella ambientale.– Leggi anche: Perché alcuni cibi ci disgustano?Come spiegato dalla ricercatrice Alexandra Wormley, una delle coautrici dello studio, le stime tengono conto dei problemi noti in questo tipo di ricerche interculturali. Uno di questi è che le società vicine nello spazio o con radici storiche condivise tendono a essere simili anche per aspetti e sfumature che sfuggono alle misurazioni degli studi. Le somiglianze culturali tra la Germania meridionale e l’Austria, per esempio, possono essere spiegate dal loro patrimonio culturale e linguistico condiviso, oltre che da climi e livelli di ricchezza simili.Ma l’analisi dei dati ha permesso di scoprire anche somiglianze sorprendenti e meno facili da interpretare, come quelle tra Polonia e Perù, per esempio. Entrambi i paesi hanno aspettative di vita simili (rispettivamente 73,5 e 75,2 anni) e livelli relativamente bassi di rischio di malattie infettive, e condividono diversi valori culturali tra cui l’indipendenza e la coesione sociale. L’analisi dei dati, secondo Wormley, potrebbe anche servire a prevedere future somiglianze culturali altrimenti insospettabili, tra aree del mondo distanti fisicamente e storicamente ma accomunate per esempio da caratteristiche come la piovosità.Le correlazioni tra variabili ambientali e modelli culturali sono da diversi anni oggetto di un numero crescente di studi che si concentrano su fattori come i rischi per la sicurezza, la temperatura dell’aria e la disponibilità di risorse idriche. La psicologa statunitense Michele Gelfand si è a lungo occupata dell’opposizione tra rigidità ed elasticità delle norme sociali, definendo «culture rigide» quelle con norme sociali forti e scarsa tolleranza per le devianze, e «culture elastiche» quelle molte permissive e con norme sociali deboli.In un ampio studio pubblicato nel 2011 su Science e condotto insieme ad altri 44 ricercatori e ricercatrici di diversi paesi del mondo, Gelfand ha scoperto che la rigidità delle norme sociali in una data cultura è tendenzialmente legata alla quantità di minacce alla sicurezza che la società deve affrontare, dalle guerre ai disastri ambientali. Norme sociali più rigide possono aiutare i membri della comunità a restare uniti e cooperare di fronte a tali pericoli.– Leggi anche: Perché collaboriamoUno studio recente pubblicato sulla rivista Psychological Science e condotto in Iran dai due ricercatori Thomas Talhelm e Hamidreza Harati ha scoperto che alcune comunità con minore accesso alle risorse idriche adottano modelli culturali più orientati all’investimento a lungo termine. L’ipotesi suggerita nello studio è che la scarsità di acqua dolce renda più stringente per le popolazioni il bisogno di pianificare le azioni future in modo da non esaurirla precocemente.Anche la temperatura è considerata una variabile potenzialmente influente nelle differenze culturali tra i paesi. In uno studio del 2017 sulle distanze interpersonali, condotto su circa 9 mila persone provenienti da 42 paesi, i ricercatori e le ricercatrici hanno messo in relazione le distanze abituali con un insieme di caratteristiche individuali dei partecipanti, attributi delle diverse culture e caratteristiche ambientali. E hanno scoperto che anche queste ultime possono spiegare variazioni nei risultati: in luoghi con temperature mediamente più basse le persone sentono meno necessità di spazio personale in pubblico.Una delle ipotesi suggerite nello studio è che nei paesi più caldi e umidi la presenza di microrganismi patogeni e la maggiore diffusione di malattie infettive abbiano influenzato l’evoluzione delle distanze interpersonali. L’ipotesi si basa sul fatto che l’aumento di quelle distanze e la riduzione dei contatti fisici sono stati per secoli parte dell’adattamento comportamentale contro le epidemie. E nelle regioni storicamente più colpite da malattie infettive, come osservato in alcuni studi, le persone tendono effettivamente a essere meno estroverse. Mantenere distanze interpersonali maggiori, secondo questa ipotesi, sarebbe quindi il risultato evolutivo di un comportamento utile a ridurre il rischio di infezioni.In precedenti studi la presenza di microrganismi patogeni nell’ambiente è stata associata anche ad altre differenze culturali. In particolare è stato ipotizzato che nelle regioni con una maggiore diffusione storica di malattie infettive l’inclinazione al conformismo anziché all’individualismo e la “chiusura” verso ciò che sta fuori dalla comunità siano parte di un modello culturale influenzato dalla necessità di inibire la trasmissione degli agenti patogeni. Da questo punto di vista anche l’attenzione e l’enfasi sui modi tradizionali di fare le cose, dalla cucina alla cura della prole alle pratiche di sepoltura, potrebbero servire a disincentivare comportamenti non sicuri.È un’ipotesi evolutivamente sensata, disse nel 2016 lo psicologo statunitense Michael Varnum, principale autore del recente studio della Arizona State University: «Gli agenti patogeni evocano un’intera gamma di risposte che probabilmente sono o erano adattative in qualche modo, che inducono le persone a ridurre le possibilità di infezione». Le prospettive invece cambiano, secondo questa ipotesi, negli ambienti in cui la minaccia delle malattie infettive viene progressivamente meno, privando di senso comportamenti come rimandare l’istruzione, l’esplorazione o l’impegno politico per mettere su famiglia e garantire la trasmissione dei geni prima di morire per una malattia.– Leggi anche: Il complicato rapporto tra i progressisti e la geneticaUn’altra correlazione molto forte confermata dallo studio più recente di Varnum e Wormley, già emersa in uno studio pubblicato nel 2017 sulla rivista Nature Human Behaviour, è quella tra l’evoluzione delle malattie infettive e l’uguaglianza di genere. La diminuzione della prevalenza delle maggiori malattie infettive è correlata a una crescita dell’uguaglianza di genere, in una relazione statistica descritta da Varnum come una delle più strette da lui mai osservate e da lui paragonata a quella tra il fumo e il cancro ai polmoni. La spiegazione ipotizzata è che il rischio inferiore di contrarre malattie infettive favorisca una generica maggiore disponibilità al cambiamento sociale, e di conseguenza apra più spazio all’intraprendenza personale e riduca la spinta a mantenere tradizioni che nella maggior parte dei casi sono patriarcali.Secondo diversi scienziati uno dei principali limiti delle ricerche come quelle sull’influenza dei tassi di malattie infettive sui modelli culturali è l’alto rischio di stabilire correlazioni spurie. Due fenomeni potrebbero cioè essere statisticamente correlati, ma senza che uno dei due influenzi necessariamente l’altro: entrambi potrebbero per esempio dipendere da una terza variabile non presa in considerazione.In uno studio pubblicato nel 2013 sulla rivista Evolution and Human Behavior da due sociologi della stessa università di Varnum e Wormley, Joseph Hackman e Daniel Hruschka, l’analisi di un insieme di dati relativi agli Stati Uniti mostrò una correlazione tra comportamenti violenti e malattie sessualmente trasmissibili, ma non altre malattie infettive. Lo studio descrisse inoltre l’età in cui le persone si sposano e hanno figli come una variabile molto più influente di qualsiasi altra legata ai tassi di malattie infettive.Il rischio di stabilire correlazioni casuali tra variabili ambientali e culturali è chiarito anche nelle conclusioni del recente studio della Arizona State University, in cui si suggerisce che i confronti siano sempre fatti con estrema cautela. Gli autori e le autrici definiscono tuttavia lo studio e l’ampio insieme di dati da loro reso pubblico come un punto di partenza per future ricerche e come strumenti utili a favorire un approccio trasversale alle basi più ampie possibili di dati statistici, necessarie per trarre relazioni plausibili e conclusioni significative. LEGGI TUTTO

  • in

    Il diritto del mare ha sempre più limiti

    Caricamento playerPer lungo tempo, prima di essere codificato in una serie di trattati e poi in una Convenzione introdotta dalle Nazioni Unite nel 1982, il diritto internazionale che regola i rapporti tra gli stati in ambito marittimo si basava su una concezione del mare inteso come spazio libero, privo delle regole valide sulla terraferma. Fu inizialmente un principio funzionale agli interessi commerciali e strategici delle potenze coloniali europee, in particolare i Paesi Bassi, la cui supremazia economica all’inizio del Seicento dipese fortemente dai successi della loro marina mercantile e dal potere esercitato lungo le principali rotte d’oltreoceano.Qualsiasi tentativo di regolare i diritti di navigazione in quel contesto era per quelle potenze sostanzialmente sconveniente. Ma dalla seconda metà dell’Ottocento cominciò ad affermarsi una tendenza degli stati costieri a estendere progressivamente la propria giurisdizione sui mari adiacenti. E sia dalla normalizzazione di questa successiva tendenza che dal principio della libertà rimasto valido per il mare più distante dalle coste derivano in gran parte gli istituti del diritto internazionale del mare vigenti ancora oggi, che stabiliscono una serie di delimitazioni più o meno rigide degli spazi marini e regole sui poteri che gli stati possono esercitare su quegli spazi.In un lungo articolo sulla rivista The Dial, Surabhi Ranganathan, ricercatrice inglese e docente di diritto internazionale alla University of Cambridge, ha posto alcune questioni centrali riguardo alle evoluzioni più recenti del dibattito sul diritto del mare e quelle prevedibili nel prossimo futuro. E ha citato diversi esempi di come le categorie e le classificazioni su cui si basa la distinzione tra parti del mare giuridicamente assimilabili alla terraferma e parti che non lo sono siano diventate nel corso del tempo più incerte e problematiche a causa di molteplici fattori.Le innovazioni tecnologiche hanno permesso di rendere terra parte di ciò che prima era mare: è successo per esempio con gli ampi progetti di bonifica nello stretto di Singapore. Gli effetti dei cambiamenti climatici potrebbero anche rapidamente trasformare in mare ciò che prima era terra. E spazi oceanici di scoperta relativamente recente, come le “isole di plastica” e le sorgenti idrotermali, non sono né completamente mare né completamente terra. Questi fenomeni mettono in discussione non soltanto i modi in cui responsabilità e diritti sui diversi spazi del mare sono stati interpretati nei secoli, ma lasciano emergere parti sempre più ampie di questioni indefinite e complicano la nostra stessa immaginazione su cosa sia terra e cosa sia mare.– Leggi anche: La Terra è rotondaL’innalzamento del livello del mare avrà un impatto significativo sui territori più fragili ed esposti, incluse le molte zone portuali del mondo ricavate da attività di bonifica di territori a contatto con gli oceani. Ma in generale è uno dei fenomeni che mettono più a rischio l’esistenza di grandi centri urbani e la sopravvivenza di milioni di persone, tra cui molte che si sono faticosamente stabilite in quelle aree dopo aver già perso altrove la casa e i mezzi di sussistenza.Ci sono poi stati insulari che rischiano di scomparire del tutto, come Tuvalu, le isole Marshall, le Kiribati e le Salomone nell’oceano Pacifico, o le Maldive e le Seychelles nell’oceano Indiano. E la possibilità di una completa estinzione di questi territori solleva questioni giuridiche irrisolte. Se, come scrisse l’esperto australiano di diritto internazionale James Richard Crawford, la presenza di «una comunità territoriale governata» è uno dei criteri da soddisfare affinché uno stato possa esistere, «che fare delle isole che non avranno più comunità territoriali perché il loro territorio sarà stato reclamato dal mare?», si chiede Ranganathan, indicando anche un problema di definizioni. «Quelle popolazioni diventeranno apolidi, per aver perso non la cittadinanza o la nazionalità, ma piuttosto il terreno su cui si trovavano un tempo?».L’atollo di Tarawa, nelle isole Kiribati, il 30 marzo 2004 (AP Photo/Richard Vogel)In anni recenti alcuni stati insulari comprensibilmente preoccupati della propria sovranità e indipendenza a fronte degli effetti del cambiamento climatico hanno esplorato la possibilità di dislocare i propri territori. Nel 2014, dopo il parziale insuccesso di un programma di adattamento sostenuto dalle Nazioni Unite e dalla Banca Mondiale, la Repubblica di Kiribati acquistò 20 chilometri quadrati di territorio perlopiù disabitato nelle isole Fiji pagando 8,77 milioni di dollari alla Chiesa anglicana, giunta in diverse regioni del Pacifico nell’Ottocento attraverso l’espansione dell’Impero britannico e l’attività dei missionari.«Speriamo di non trasferire tutti su quel pezzo di terra, ma se diventasse assolutamente necessario, sì, potremmo farlo», disse l’allora presidente di Kiribati Anote Tong riferendosi ai circa 110 mila abitanti delle isole del paese che potrebbero un giorno abitare nel territorio delle Fiji. Acquisti di questo tipo riguardano tuttavia la proprietà dei territori ma non la sovranità, che deve essere invece discussa con lo stato cedente e su cui di solito è molto più difficile trovare un accordo, come dimostra tra gli altri un caso storico tra l’Australia e la piccola repubblica di Nauru, analizzato dalla giurista australiana ed esperta di cambiamenti climatici Jane McAdam.A lungo colonia dell’Impero tedesco, Nauru divenne alla fine dell’Ottocento uno dei territori governati tramite un mandato della Lega delle Nazioni, l’organizzazione da cui poi nacque l’ONU, e la sua gestione fu affidata all’Australia, alla Nuova Zelanda e al Regno Unito. Dopo aver subito diversi danni ambientali a causa dell’estrazione di fosfato, una sostanza impiegata nella produzione di fertilizzanti e molto presente nei giacimenti del paese, Nauru propose un reinsediamento su una nuova isola. Nel 1963 l’Australia dichiarò la disponibilità a fornire a questo scopo Curtis Island, un’isola di 400 mila metri quadrati nello stato del Queensland, distante circa 3 mila chilometri da Nauru. Ma rifiutò categoricamente di trasferire a Nauru la sovranità dell’isola.Un altro problema posto dalla possibilità di reinsediamento degli stati insulari a rischio di estinzione territoriale, considerando questa estinzione un fenomeno graduale e già in corso, riguarda i confini da usare come riferimento per tracciare altrove i limiti di un eventuale nuovo territorio. Un’ipotesi valutata in anni recenti nel diritto internazionale e sostenuta da diversi paesi e territori dell’Oceania è di “congelare” le linee di riferimento, cioè fissare in modo definitivo nel tempo dei punti sulla base dei quali misurare l’estensione degli stati de-territorializzati.Questo approccio avrebbe il vantaggio di garantire che progressive riduzioni o estensioni dei territori, dipendenti dai confini mutevoli tra terra e mare, non abbiano alcun effetto sui diritti alle risorse reclamati dagli stati che stanno affondando, scrive Ranganathan. Ma ovviamente un eventuale trasferimento di massa risolverebbe solo una parte del problema, dal momento che le persone costrette a lasciare le loro case per l’innalzamento del livello del mare avrebbero comunque bisogno di nuove case e di prospettive per la loro sussistenza e per la sopravvivenza delle loro comunità politiche.– Leggi anche: Adattarsi male al cambiamento climaticoPer come si è sviluppato nel Novecento il diritto del mare ha posto una serie di problemi anche riguardo alla piattaforma continentale, cioè la parte sommersa dei continenti che si estende fino al punto in cui la pendenza del fondale marino aumenta nettamente (in corrispondenza della cosiddetta scarpata continentale). Su questo spazio, considerato da meno di un secolo il naturale prolungamento del territorio degli stati costieri, ciascuno degli stati può esercitare il diritto di sfruttamento esclusivo delle risorse minerali e viventi. Solo che alcune coste hanno una piattaforma continentale molto ampia e altre ne hanno una stretta, e quindi per convenzione si considera come zona di sfruttamento esclusivo un’area di mare che si estende per 200 miglia nautiche (circa 370 chilometri) dalla costa, indipendentemente dalla struttura fisica del fondale e dalla profondità.A portare i paesi costieri verso questa convenzione furono soprattutto due fattori, scrive Ranganathan. Il primo fu la pressione delle compagnie petrolifere e le loro migliorate capacità di compiere estrazioni in acque più profonde, cosa che incoraggiò gli stati a estendere la giurisdizione su tratti più ampi della piattaforma continentale così da poter garantire alle società l’utilizzo esclusivo dei siti di trivellazione. E l’altro fattore fu la pressione degli stati con piattaforme poco ampie, come molti paesi latinoamericani, interessati a tenere in considerazione un criterio di distanza dalla costa anziché uno di profondità del fondale.La Convenzione delle Nazioni Unite sul diritto del mare introdotta nel 1982, che riflette questo orientamento dei paesi, stabilisce che sia possibile per gli stati costieri affermare il controllo sui fondali marini anche oltre il confine convenzionale di 200 miglia nautiche. Ma per poterlo fare è necessario dimostrare a un’istituzione specifica delle Nazioni Unite – la Commissione per i limiti della piattaforma continentale – che la propria piattaforma si estenda oltre quel limite. Se le prove geologiche vengono accettate, la parte ulteriormente qualificata come piattaforma viene posta sotto la giurisdizione dello stato che ha presentato la richiesta e sottratta alle acque internazionali, cioè quelle su cui nessun paese ha giurisdizione né proprietà e a cui tutti hanno libero accesso.Un caso molto noto di disputa sulla piattaforma continentale riguarda parti dell’oceano Artico rivendicate da Canada, Danimarca, Norvegia, Stati Uniti e Russia: tutti paesi che possiedono solo una parte dell’Artide, mentre la maggior parte degli oltre quattro milioni di chilometri quadrati su cui si estende la regione non è sotto alcuna giurisdizione nazionale. I motivi delle rivendicazioni sono sia economici che politici, legati ai giacimenti di petrolio e gas naturale nell’Artico non ancora scoperti, e all’importanza strategica della possibilità di aprire rotte commerciali che potrebbero diventare più percorribili in seguito allo scioglimento dei ghiacci provocato dal riscaldamento globale.Dopo aver formulato una richiesta alle Nazioni Unite già nel 2002, senza ottenere alcun risultato, nel 2007 la Russia posizionò una bandiera russa sul fondale del Mar Glaciale Artico, come gesto simbolico per reclamare la sovranità su quel tratto. «Questo non è il Quindicesimo secolo. Non puoi andare in giro per il mondo piantando bandiere, e dire: “Rivendichiamo questo territorio”», disse l’allora ministro degli Esteri canadese Peter MacKay contestando l’azione della Russia.Una bandiera russa sul fondale di un tratto del Mar Glaciale Artico, il 2 agosto 2007 (AP Photo/Association of Russian Polar Explorers)Sebbene le aspettative dei paesi siano che la Convenzione e la Commissione possano risolvere dispute come quelle sulla piattaforma continentale, scrive Ranganathan, bisognerebbe tenere presente che molte rivendicazioni in conflitto tra loro sono fondate proprio sul diritto del mare come regolamentato da questi strumenti, in una sorta di circolo vizioso. A questo si aggiunge che la Commissione non può pronunciarsi su rivendicazioni in conflitto tra loro: se più di un paese avanza richieste di possesso e sovranità sulle stesse zone, si devono mettere d’accordo tra loro quei paesi, con la supervisione di tutti i firmatari della Convenzione.Molti problemi sono cioè effetti a lungo termine di orientamenti espressi a monte di quegli accordi, in parte funzionali allo sfruttamento delle risorse naturali e, nello specifico, all’estrazione di combustibili fossili: che è a sua volta in relazione con il riscaldamento globale e lo scioglimento dei ghiacci dell’Artico, origine delle dispute recenti.– Leggi anche: Come stanno cambiando le rotte articheUn fenomeno utile a chiarire quanto la definizione delle responsabilità nel diritto del mare possa essere tanto problematica quanto urgente sono le isole galleggianti di rifiuti di plastica che si raccolgono sulla superficie degli oceani Pacifico, Atlantico e Indiano, provocando gravi danni ambientali e contaminazioni lungo la catena alimentare. Secondo le stime di uno studio del 2018 la quantità di plastica accumulata nelle acque subtropicali tra la California e le Hawaii ha un peso approssimativo di 79 mila tonnellate e un’estensione di 1,6 milioni di chilometri quadrati (quanto tutto l’Iran, oltre 5 volte l’Italia).Nonostante l’esistenza di diversi accordi che regolano la cooperazione internazionale in materia di protezione dell’ambiente marino, come la Convenzione internazionale per la prevenzione dell’inquinamento causato da navi (Marpol 73/78) e la Convenzione di Londra del 1972, è difficile sia attribuire responsabilità specifiche per il problema delle isole di plastica, sia individuare quali paesi dovrebbero risolverlo nell’interesse collettivo. E non è chiaro nemmeno quanta responsabilità gli stati saranno disposti ad assumersi nel nuovo atteso trattato internazionale per ridurre i rifiuti di plastica che dovrebbe essere completato entro il 2024.Eventuali operazioni di rimozione e bonifica delle aree in cui è raccolta la plastica galleggiante, ricorda Ranganathan, presentano inoltre due grandi problemi pratici. Uno riguarda i costi, così ingenti da aver dissuaso dal sostenerli anche i paesi con una più forte e influente presenza di associazioni ambientaliste. E l’altro riguarda le tecnologie specificamente studiate per questo scopo, che secondo uno studio del 2020 metterebbero a rischio la vita di una quantità di animali compresa tra 0,8 e 40 miliardi per ogni ora di utilizzo, condizionando negativamente il rapporto tra costi e benefici.Un cumulo di rifiuti galleggianti sul lago Potpeć vicino a Priboj, in Serbia, il 22 gennaio 2021 (AP Photo/Darko Vojinovic)Per attirare l’attenzione sulla dimensione del problema della plastica in mare e sulle responsabilità collettive, nel 2017 il gruppo editoriale inglese LADbible e l’associazione statunitense non profit Plastic Oceans International avviarono una campagna piuttosto creativa per chiedere alle Nazioni Unite di riconoscere l’accumulo di plastica presente nel Pacifico come un paese autonomo e indipendente, chiamato Trash Isles (“Isole Spazzatura”). Ne progettarono la bandiera, la valuta, il passaporto e i francobolli, e invitarono le persone a richiederne la cittadinanza: l’appello fu accolto da oltre 225 mila aspiranti cittadini dell’isola, tra cui il famoso divulgatore scientifico inglese David Attenborough e l’ex vicepresidente statunitense Al Gore.In un articolo dedicato all’iniziativa, in cui ne descrivevano le implicazioni paradossali, i responsabili suggerirono che l’isola avrebbe potuto teoricamente soddisfare i criteri di territorialità, sovranità e altri necessari per essere considerata un paese. E diventando un paese delle Nazioni Unite avrebbe potuto chiedere agli altri paesi membri, sulla base del principio 7 della Dichiarazione di Rio sull’ambiente e lo sviluppo del 1992, di intervenire sull’isola «cooperando in uno spirito di partnership globale per conservare, tutelare e ripristinare la salute e l’integrità dell’ecosistema terrestre».– Leggi anche: È difficile sapere dove finisce tutta la plasticaEsistono infine, secondo Ranganathan, altri esempi concreti di attività umane o naturali che descrivono i limiti del diritto del mare nel definire responsabilità e diritti in acque internazionali. Uno di questi sono le reti di cavi sottomarini che, dopo varie evoluzioni ma attraverso vecchie rotte telegrafiche e telefoniche, collegano i continenti fin dalla seconda metà dell’Ottocento: «le arterie nascoste della globalizzazione», come le definisce Ranganathan. Si calcola che poche centinaia di cavi sottomarini, che appartengono perlopiù a grandi aziende private e coprono complessivamente una lunghezza di oltre 1,4 milioni di chilometri, siano attualmente responsabili di quasi tutto il traffico di dati transoceanico.La produzione e la posa di questi cavi ebbe un pesante impatto ambientale fin da subito, definito dallo storico australiano John A. Tully un «disastro ecologico vittoriano». Per ottenere l’isolamento dall’acqua necessario al funzionamento dell’infrastruttura, all’inizio, i fili dei cavi erano avvolti in un tipo di gomma naturale – la guttaperca – ricavata da alberi delle foreste pluviali del Sudest asiatico. Questa necessità, secondo Tully, portò alla distruzione complessiva di circa 88 milioni di alberi fino all’inizio del Novecento, quando la guttaperca cominciò a essere progressivamente sostituita da altri materiali, che ancora oggi comportano comunque costi ambientali estremamente elevati.Una serie di cavi telefonici sottomarini vengono posati lungo un tratto del fiume Charles a Boston, di fronte alla baia del Massachusetts, il 21 aprile 1952 (AP Photo)Oltre alle responsabilità dei costi ambientali esiste anche una questione relativa ai rischi di danni accidentali alla rete, provocati a loro volta dagli altri utilizzi intensivi degli oceani: spedizioni, pesca, estrazione di petrolio, gas e minerali in acque profonde, per esempio. Come esiste anche il rischio di danni provocati intenzionalmente, per atti di terrorismo o in contesti di guerra, o causati da eventi meteorologici estremi legati agli effetti del cambiamento climatico. Secondo Ranganathan e altri esperti il diritto del mare non offre sufficienti protezioni contro tutti questi rischi: perché l’infrastruttura si trova in quella complicata e indistinta zona del diritto a metà tra la proprietà privata e l’interesse pubblico, e perché le leggi sottolineano la libertà di posare cavi ma forniscono indicazioni molti limitate sui diritti e le responsabilità che ne derivano.– Leggi anche: Dobbiamo preoccuparci di più di cavi e tubi sottomarini?Un’altra questione rispetto alla quale gli strumenti forniti dal diritto del mare risultano limitati e inadatti riguarda le sorgenti idrotermali: fratture nelle profondità oceaniche da cui fuoriesce acqua riscaldata e in cui si trovano molti minerali preziosi, scoperte negli anni Settanta in corrispondenza di aree vulcaniche attive. Le sorgenti ospitano ecosistemi molto rari e forniscono sostanze essenziali per microrganismi che per sopravvivere in mancanza di luce solare non utilizzano la fotosintesi ma la chemiosintesi (un processo di conversione di sostanze inorganiche, derivate da particolari reazioni chimiche, in sostanze organiche ed energia).Queste parti del pianeta, che non ricadono sotto alcuna giurisdizione nazionale, rappresentano un punto di interesse per il possibile sfruttamento delle risorse: dalle fratture sgorgano minerali sempre più richiesti dall’industria mondiale, tra cui manganese, rame, ferro, nichel, cobalto, oro e argento, che precipitano e si depositano sul fondale formando lastre e tumuli. Ma rappresentano anche un’opportunità per la ricerca scientifica e una preziosa fonte di informazioni sulle condizioni in cui la vita potrebbe aver avuto origine. Proprio per questo, alcune aree in corrispondenza delle sorgenti idrotermali potrebbero ottenere protezione dall’UNESCO attraverso l’assegnazione del titolo di Patrimonio mondiale dell’umanità.Un veicolo della National Oceanic and Atmospheric Administration, l’agenzia statunitense che si occupa degli studi meteorologici e oceanici, esplora una formazione idrotermale in acque profonde vicino alle isole Marianne, nell’oceano Pacifico, il 28 aprile 2016 (NOAA/AP)Questo fenomeno naturale, scoperto troppo tardi perché la Convenzione del 1982 potesse tenerne conto e citarlo direttamente, secondo Ranganathan espone in modo molto chiaro una debolezza intrinseca nel trattato: quella di essere basato su «nette classificazioni binarie tra terra e acqua, vita e materia, mobilità e immobilità», e su disposizioni che suddividono l’oceano e il suo contenuto in regimi economici discreti.I minerali dei fondali marini indicati come patrimonio dell’umanità, per esempio, sono posti sotto la giurisdizione dell’Autorità internazionale dei fondali marini (ISA), un ente indipendente istituito dalla Convenzione, peraltro non interessato a proibire l’estrazione mineraria ma solo a limitarne l’impatto ambientale. E per le forme di vita vige invece il principio di libertà del mare, e cioè le disposizioni generali in materia di pesca e, prossimamente, quelle contenute in un accordo sulla conservazione e l’utilizzo sostenibile della diversità biologica marina delle zone al di fuori della giurisdizione nazionale.È tuttavia improbabile, conclude Ranganathan, che le sorgenti idrotermali possano essere inquadrate correttamente nelle normative. In parte le classificazioni assecondano fin dall’origine, regolandolo, un orientamento incline all’estrazione di risorse. Ma le sorgenti idrotermali sfuggono per loro natura a qualsiasi classificazione. Sono luoghi in cui «solidi e liquidi si mescolano e si fondono in modo dinamico», in cui materia e vita sono entità intrecciate, e «mobilità e immobilità sono distinzioni prive di significato», in attesa di conoscenze più approfondite sui processi che avvengono all’interno delle sorgenti.– Leggi anche: Dragheremo gli oceani LEGGI TUTTO

  • in

    Perché alcuni cibi ci disgustano?

    Caricamento playerNelle settimane scorse è circolato molto sui social un test online (in inglese) che cerca di misurare e classificare tramite un’autovalutazione il disgusto per alcuni cibi sulla base dei diversi fattori specifici che lo attivano. Nel test, intitolato Food Disgust Test e sviluppato da una piattaforma (IDRlabs) che pubblica quiz tratti da articoli scientifici, viene chiesto di esprimere approvazione o disapprovazione riguardo a 32 affermazioni del tipo: “Trovo disgustoso mangiare formaggio a pasta dura dalla cui superficie sia stata rimossa la muffa” e “Trovo disgustoso mangiare pesce crudo come il sushi”, ma anche “non bevo dallo stesso bicchiere da cui ha bevuto qualcun altro”.Come specificato dagli autori, il test di sensibilità al disgusto alimentare ha soltanto un valore didattico e non diagnostico (obiettivo per cui è consigliabile rivolgersi eventualmente a specialisti della salute mentale). Ha generato comunque un certo interesse ed è stato ripreso da alcuni siti di informazione per l’opportunità che offre di riflettere su una delle emozioni primarie, il disgusto, e sui condizionamenti sociali, culturali e ambientali che subisce. Questi condizionamenti contribuiscono a determinare la variabilità individuale e collettiva del disgusto alimentare e ne fanno qualcosa di molto più complesso e diverso da un meccanismo evolutivo di difesa dall’ingestione di sostanze tossiche e nocive.Il test circolato su internet si rifà a una classificazione dei fattori di disgusto basata su otto gruppi distinti, proposta nel 2018 da una ricercatrice e un ricercatore del Politecnico federale di Zurigo (ETH), Christina Hartmann e Michael Siegrist. Entrambi si occupano di comportamento dei consumatori, la disciplina che attraverso diverse branche delle scienze sociali (psicologia, sociologia, economia comportamentale, antropologia sociale e altre) studia il modo in cui le emozioni e le preferenze dell’individuo e del gruppo influenzano i comportamenti negli acquisti.Negli studi di Hartmann e Siegrist il disgusto per un certo tipo di cibi o un altro non è inteso come qualcosa che è soltanto o presente o assente, ma come una ripugnanza che può variare di intensità a seconda dei casi. Una delle scale di sensibilità al disgusto alimentare da loro descritte è il grado di sensibilità alla carne animale, che determina la tendenza a provare disgusto per la carne cruda o per le parti degli animali mangiate meno comunemente (le frattaglie, per esempio). Una persona può gradire molto il sapore e la consistenza di una certa pietanza a base di un certo taglio di carne, ma avere un intenso disgusto per pietanze a base di altre parti e tessuti dello stesso animale.Dei diversi fattori di disgusto alimentare, scrivono Siegrist e Hartmann, si ritiene che la sensibilità alla carne sia tra quelli con una più forte base culturale. Per ragioni molto radicate, che possono a loro volta essere influenzate da argomenti relativi ad aspetti religiosi e morali, un certo numero di persone in una determinata società può trovare disgustoso e inaccettabile mangiare carne di animali che invece sono parte della cucina di altri paesi in altre culture.In altri studi sul disgusto alimentare, simili fattori basati su argomenti di ordine culturale e morale sono risultati influenti anche nel caso del disgusto per i prodotti ottenuti tramite nuove biotecnologie, come gli OGM, o per quelli di origine animale considerati inappropriati, come i prodotti a base di insetti. I ricercatori suggeriscono che per molte persone influenzate da questi fattori il disgusto sia tale da renderli sostanzialmente insensibili a eventuali argomenti basati su una valutazione dei rischi e dei benefici dell’introduzione di quegli alimenti.– Leggi anche: Le farine di insetti, spiegateIl genere di disgusto alimentare di cui si sono più occupati Hartmann e Siegrist è però quello alla base di variazioni individuali e di gruppo meno omogenee e prevedibili rispetto a quello mediato da fattori culturali più estesi e condivisi. È in particolare un disgusto attivato da segni che possono essere interpretati in modo diverso da persona a persona. La sensibilità alle muffe indicata da Siegrist e Hartmann come altro possibile fattore di disgusto, per esempio, è un esempio abbastanza chiaro di come un disgusto correlato alla possibile presenza di organismi patogeni possa emergere anche in presenza di muffe che non comportano rischi significativi per la salute.Il disgusto determinato dalla sensibilità alle muffe è un meccanismo di difesa normalmente attivo di fronte ad alimenti potenzialmente dannosi, e cioè quelli su cui si sviluppano muffe che potrebbero renderli non più buoni da mangiare. I formaggi freschi, per esempio, richiedono di essere mangiati entro poche settimane, prima che la muffa favorisca la proliferazione di batteri nocivi. In questo caso il disgusto alimentare è strettamente correlato al disgusto in quanto emozione primaria, in grado cioè di attivare un comportamento necessario alla sopravvivenza: non ingerire il cibo andato a male.– Leggi anche: Partiamo dalle BasiLo stesso disgusto può però manifestarsi anche quando la muffa non comporta concreti rischi per la salute, come nel caso di quella che a volte si forma sulla superficie di formaggi a pasta dura o semidura, come il formaggio svizzero o il cheddar. In questo caso è possibile mangiare il formaggio dopo aver rimosso la parte ammuffita, facendo attenzione a tagliarla via e non a raschiarla (azione che potrebbe aumentare il rischio di contaminare la parte non ammuffita). E ci sono poi anche alcuni tipi di muffe commestibili notoriamente utilizzate per produrre alcuni formaggi, come il Camembert, il Gorgonzola, lo Stilton o altri meno diffusi, che a seconda delle abitudini e dei gusti possono risultare deliziosi ad alcune persone ma sgradevoli ad altre.La ragione evolutiva del disgusto per questo tipo di alimenti è che il deterioramento del cibo, sia quello di origine animale che quello di origine vegetale, è spesso segnalato da cambiamenti di colore, consistenza, odore e sapore. E alimenti che presentano cambiamenti di questo tipo possono quindi indurre una reazione di disgusto, anche quando i cambiamenti non indicano necessariamente la presenza di agenti patogeni, come nel caso di un frutto la cui polpa diventa scura per effetto dell’ossidazione pur rimanendo del tutto commestibile.Un altro fattore di disgusto alimentare descritto da Siegrist e Hartmann non riguarda nemmeno dei cibi specifici bensì le condizioni igieniche relative alla loro preparazione o alla loro assunzione. Anche in questo caso il disgusto deriva da una predisposizione evolutiva a evitare o ridurre rischi di contaminazione del cibo. Ma la soglia di accettabilità delle condizioni igieniche può variare molto, sia tra una cultura e l’altra, sia da persona a persona, e quindi in presenza di pratiche e abitudini alimentari condivise (ci sono persone che non mangiano stuzzichini se sono serviti su un piatto comune, per esempio).Nella letteratura scientifica il disgusto è considerato un’emozione primaria che protegge l’organismo scoraggiando l’ingestione di cibi il cui sapore o aspetto è spesso associato alla presenza di agenti patogeni. Si è quindi evoluto in un meccanismo più complesso, che aiuta a regolare il comportamento in varie situazioni sociali e interpersonali, tenendo conto dei relativi costi e benefici nell’evitare determinati stimoli. E per questa ragione è possibile considerarla «un’emozione dei confini», come ha spiegato la dottoressa e psicoterapeuta Serena Barbieri del centro clinico Spazio FormaMentis di Milano, nel podcast del Post Le Basi, a cura di Isabel Gangitano.È un’emozione che ha originariamente a che fare con la ricerca e la disponibilità di risorse nutrienti necessarie alla sopravvivenza. Non essere abbastanza “disgustati” mentre ci si muove all’interno di un ambiente potrebbe portare a ingerire sostanze nocive. Ma esserlo troppo – non mangiare un frutto un po’ ammaccato – potrebbe limitare le opportunità di nutrimento.Come ricordato dalla neuroscienziata canadese Rachel Herz, esperta nella psicologia degli odori e autrice del libro Perché mangiamo quel che mangiamo, il disgusto è l’unica emozione di base che deve essere «appresa», calibrando la propria reazione agli stimoli sulla base di regole e risposte condivise dai genitori, dagli altri membri del gruppo e dalla cultura in generale. E questa eredità culturale subisce l’influenza dell’ambiente.– Leggi anche: Perché ci piacciono i saponi che sanno di vaniglia e cioccolatoMolti degli alimenti che possono dare disgusto sono quelli ottenuti tramite la fermentazione, il processo in cui gli enzimi di alcuni microrganismi – batteri e funghi, in particolare lieviti e muffe – scompongono lo zucchero presente in un cibo in altre sostanze. È uno dei metodi di conservazione più antichi e relativamente economici al mondo, perché non prevede l’utilizzo di sale o di spezie ma soltanto l’assenza di ossigeno e il passare del tempo.Una delle ragioni per cui alcuni alimenti significano molto per determinate comunità è che contengono qualcosa di essenziale della flora o della fauna di una certa regione, ha scritto Herz. E lo stesso vale per i microrganismi che rendono possibile la fermentazione dei cibi, che variano notevolmente da una parte all’altra del mondo. I batteri utilizzati nella produzione del Kimchi, un piatto coreano a base di cavolo e ravanelli fermentati, non sono gli stessi utilizzati per produrre il formaggio Roquefort.Il disgusto è stato condizionato nel tempo anche dalla disponibilità di nuovi metodi, tecniche e strumenti di conservazione del cibo, dalla pastorizzazione ai frigoriferi, che hanno reso certi tipi di fermentazione meno necessari e diminuito la familiarità delle persone con certi sapori.In uno studio di antropologia, biologia e psicologia pubblicato nel 2021 sulla rivista Proceedings of the National Academy of Sciences, i ricercatori analizzarono i comportamenti di disgusto tra gli Shuar, un popolo indigeno che abita nella regione amazzonica dell’Ecuador e del Perù. E scoprirono che i membri dei gruppi e delle famiglie meno isolate e più integrate nella moderna economia di mercato – quelli che vivevano non di agricoltura, pesca e caccia, ma con un lavoro salariato o vendendo prodotti agricoli – avevano più alti livelli di sensibilità al disgusto, più probabilità di evitare cibo avariato e un minor numero di infezioni batteriche, virali e parassitarie.– Leggi anche: Il gusto del marcio LEGGI TUTTO