More stories

  • in

    Chi è chi in “Oppenheimer”

    Caricamento playerIl film Oppenheimer di Christopher Nolan sulla vita di Robert Oppenheimer, “il padre dell’atomica”, ha un cast molto nutrito con una cinquantina di attrici e attori che interpretano fisici e politici famosissimi, funzionari meno conosciuti e diversi altri personaggi molto importanti per la storia. Molti di loro non vengono nemmeno presentati per nome e cognome, una scelta deliberata per non distogliere troppo l’attenzione dal protagonista principale del film, Oppenheimer. La mancanza di riferimenti può però confondere con una quantità così grande di personaggi e aspetti appena accennati, e sapere chi-è-chi è piuttosto importante per seguire la storia, o per ricostruire dopo aver visto il film i pezzi in cui ci si è persi. Questa è quindi una rapida guida al chi-è-chi non solo nel film, ma anche nella realtà di chi fece l’atomica.Robert Oppenheimer (1904 – 1967)(AP Photo)Tra i fisici più influenti nella storia del Novecento, è considerato “il padre dell’atomica”. Coordinò buona parte del lavoro dei gruppi di ricerca a Los Alamos, dove furono sviluppati i primi modelli di bomba atomica alla fine della Seconda guerra mondiale. Oppenheimer aveva 38 anni quando fu scelto per l’incarico e aveva accumulato una specchiata carriera accademica, occupandosi di astronomia teorica, fisica nucleare, meccanica quantistica e di relatività, argomento molto dibattuto all’epoca nella comunità scientifica. Dopo i bombardamenti nucleari di Hiroshima e Nagasaki in Giappone, Oppenheimer divenne un convinto sostenitore della necessità di evitare la proliferazione di ordigni nucleari, ma rimase inascoltato. Per le sue vicinanze agli ambienti comunisti statunitensi in gioventù finì sotto inchiesta, rimanendo emarginato dalle istituzioni governative che si occupavano di nucleare. Diversi anni dopo di Hiroshima disse: «Penso che Hiroshima abbia causato più morti e sofferenze disumane di quanto sarebbe stato necessario per diventare un motivo efficace per mettere fine alla guerra». Nel film è interpretato da Cillian Murphy.Leslie Groves (1896 – 1970)(AP)Generale dell’esercito, nel 1942 assunse il comando del Manhattan Project, l’ambizioso programma di ricerca per la costruzione di armi atomiche. Fu Groves a scegliere Oppenheimer, sorprendendo diversi colleghi e osservatori, convinto che fosse la persona giusta per dirigere i gruppi di ricerca a Los Alamos. Groves si occupò direttamente degli aspetti logistici e organizzativi di buona parte del progetto, partecipò ai gruppi di lavoro che studiavano i progressi della Germania nazista nella costruzione di una bomba atomica e collaborò alla scelta delle città giapponesi da bombardare. Nel film è interpretato da Matt Damon.Lewis Strauss (1896 – 1974)(AP Photo/Henry Griffin)Fu tra i principali esponenti della Commissione per l’energia atomica degli Stati Uniti, costituita alla fine della Seconda guerra mondiale per trasferire parte del controllo dell’energia atomica dall’esercito ai civili. Molto influente, sostenne la necessità di costruire una bomba a idrogeno e di mantenere la massima segretezza sui piani atomici statunitensi, soprattutto nei confronti dell’Unione Sovietica. Strauss fu tra i principali critici di Oppenheimer ai tempi delle audizioni per la sua vicinanza agli ambienti comunisti statunitensi in gioventù; fu inoltre a favore della rimozione delle autorizzazioni di sicurezza per Oppenheimer, che di fatto lo estromisero da qualsiasi decisione e confronto a livello governativo sul nucleare. Nel film è interpretato da Robert Downey Jr.Enrico Fermi (1901 – 1954)(AP)Premio Nobel per la Fisica nel 1938, fu tra i principali studiosi del decadimento radioattivo e delle forze nucleari debole e forte. Dopo avere lavorato in Italia, si trasferì negli Stati Uniti e guidò la progettazione e la costruzione del “Chicago Pile-1”, il primo reattore nucleare a fissione nel 1942. Il suo lavoro fu fondamentale per studiare la reazione nucleare a catena e per la produzione del materiale fissile necessario per le prime bombe atomiche. Nel film compare in pochissime scene, interpretato da Danny Deferrari.Jean Tatlock (1914 – 1944)(Wikimedia)Psichiatra e attivista comunista, fu fidanzata e poi amante di Oppenheimer, tanto da essere storicamente considerata il suo vero grande amore. Il loro rapporto fu centrale nelle audizioni del 1954 sulle presunte frequentazioni comuniste di Oppenheimer. La relazione amorosa durò circa tre anni, il rapporto sarebbe stato in seguito descritto come tumultuoso, ma non si sa di preciso cosa portò Tatlock a interrompere la relazione. La sua morte venne considerata un suicidio, anche se negli anni diverse persone, tra cui suo fratello, continuarono a sostenere che si fosse trattato di un omicidio politico particolarmente ben congegnato. Nel film è interpretata da Florence Pugh.Edward Teller (1908 – 2003)(AP)Se Oppenheimer è “il padre della bomba atomica”, Teller è considerato “il padre della bomba a idrogeno”. Di origini ungheresi, si dedicò alla fisica nucleare e molecolare, ma si occupò anche di meccanica quantistica. Fu tra i primi scienziati a essere coinvolti nel Manhattan Project e quasi da subito sostenne la necessità di sviluppare una bomba a fusione nucleare, potenzialmente molto più potente delle bombe a fissione in via di sviluppo a Los Alamos. Ebbe un rapporto complicato con Oppenheimer, che non voleva distrazioni dall’obiettivo principale di ricerca orientato verso la fissione, di conseguenza per vario tempo lavorò a Los Alamos a propri progetti. Teller testimoniò contro Oppenheimer alle audizioni del 1954, ricevendo pesanti critiche dalla comunità scientifica. Fu sempre un fermo sostenitore della necessità di rendere il più potente possibile l’arsenale atomico degli Stati Uniti, contro eventuali minacce sovietiche. Nel film è interpretato dal regista Benny Safdie.Ernest Lawrence (1901 – 1958)(AP)Premio Nobel per la Fisica nel 1939 per l’invenzione del ciclotrone, il primo acceleratore di particelle elementari, isolò nei propri laboratori il plutonio, di importanza essenziale per le ricerche a Los Alamos legate alla bomba atomica. Diede un importante contributo allo sviluppo delle tecniche di separazione dell’uranio 235, elemento utilizzato come materiale fissile per la bomba sganciata su Hiroshima. Dopo la Seconda guerra mondiale fu tra i principali sostenitori di “Big Science”, la richiesta al governo statunitense di finanziare grandi progetti scientifici per la ricerca e lo sviluppo di nuove tecnologie. Nel film è interpretato da Josh Hartnett.Leo Szilard (1898 – 1964)(AP Photo/Henry Griffin)Ungherese, fu uno dei più eminenti fisici nucleari europei e già nel 1933 ipotizzò che fosse possibile sviluppare una reazione nucleare a catena, il principio alla base degli ordigni nucleari e in forma controllata dei reattori per la produzione di energia elettrica. Quando dalla teoria si passò alla pratica con i primi esperimenti di fissione in Germania, nel 1939 Szilard propose ad Albert Einstein di inviare una lettera all’allora presidente degli Stati Uniti, Franklin D. Roosevelt, per segnalare la possibilità che il regime nazista si dotasse di armi atomiche: la lettera fu scritta da Szilard e firmata da Einstein, che aveva una maggiore fama. Fu quella lettera a convincere Roosevelt ad avviare le prime attività di ricerca sul nucleare, che sarebbero poi sfociate nel Manhattan Project. Nel film è interpretato da Máté Haumann.Katherine Oppenheimer (1910 – 1972)Katherine Puening sposò Oppenheimer nel 1940, dopo che Tatlock aveva interrotto la relazione con lui. Puening aveva fatto parte del partito comunista statunitense, aveva un dottorato in botanica e due matrimoni alle spalle. Il primo figlio, concepito con Oppenheimer quando Puening era ancora in una precedente relazione, nacque nel maggio del 1941, mentre la loro seconda figlia nacque tre anni dopo a Los Alamos, dove la famiglia si era trasferita per seguire lo sviluppo della bomba atomica. Ebbero un matrimonio complicato con alcune storie extraconiugali, ma rimasero insieme fino alla morte di Oppenheimer nel 1967. Nel film è interpretata da Emily Blunt.Niels Bohr (1885 – 1962)(AP Photo/Alan Richard)Danese, fu uno dei più grandi e importanti fisici del Novecento. I suoi studi furono fondamentali per comprendere la struttura atomica e per la meccanica quantistica, per questo già nel 1922 ricevette il Nobel per la Fisica. A Bohr si deve il principio di complementarietà, secondo il quale nella meccanica quantistica l’aspetto duplice di alcune rappresentazioni fisiche di ciò che avviene a livello atomico e subatomico non può essere osservato contemporaneamente durante il medesimo esperimento. Non fu mai presente in forma stabile a Los Alamos, ma fece più volte visita ai gruppi di ricerca, diventando un punto di riferimento soprattutto per i ricercatori più giovani. In seguito avrebbe detto infatti: «Non avevano bisogno del mio aiuto per fare la bomba atomica». Nel film lo interpreta Kenneth Branagh.Werner Heisenberg (1901 – 1976)(AP Photo/Gerhard Baatz)Tedesco, fu tra i pionieri della meccanica quantistica, insieme ai fisici Max Born e Pascual Jordan, e per le sue ricerche fu insignito del Premio Nobel per la Fisica nel 1932. È conosciuto soprattutto per il principio di indeterminazione, che stabilisce i limiti nella misurazione dei valori di alcuni tipi di grandezze in un sistema fisico. Rimase in Germania nel corso della Seconda guerra mondiale e guidò il gruppo di lavoro civile all’interno del programma nucleare militare tedesco, voluto dal regime nazista per sviluppare armi atomiche. Nel film è interpretato da Matthias Schweighöfer.Boris Pash (1900 – 1995)(Wikimedia)Ufficiale dell’esercito degli Stati Uniti, lavorò nel controspionaggio e fu tra i responsabili delle indagini su sospette attività di spionaggio sovietico all’Università della California. In quell’occasione interrogò e fece verifiche anche su Oppenheimer, concludendo che probabilmente fosse ancora legato al partito comunista statunitense. Pash non ritenne comunque che Oppenheimer lavorasse come spia sovietica, convinto che la sua posizione di rilievo e la sua immagine pubblica fossero un deterrente nel diventarlo. Nel film è Casey Affleck.Albert Einstein (1879 – 1955)(AP)Probabilmente il fisico più famoso della storia del Novecento, sviluppò a partire dai primi anni del secolo la teoria della relatività, fondamentale per la fisica moderna insieme alla meccanica quantistica. Tedesco di origini ebraiche, nei primi anni Trenta si trasferì negli Stati Uniti per sfuggire al regime nazista. Non partecipò attivamente al Manhattan Project, ma firmò la lettera scritta da Szilard per avvisare il presidente statunitense Roosevelt sui pericoli legati all’eventuale sviluppo di armi atomiche da parte della Germania nazista. Einstein era profondamente pacifista e in seguito confidò di avere fatto un errore nel firmare una lettera che, secondo alcuni storici, avviò la cosiddetta “corsa all’atomica”. Nel 1955 Einstein sottoscrisse un manifesto insieme ad alcuni intellettuali come il filosofo britannico Bertrand Russell sui pericoli derivanti dalle armi nucleari. Nel film è l’attore Tom Conti, con un trucco secondo molti poco realistico.Harry Truman (1884 – 1972)(AP)Divenne presidente degli Stati Uniti alla morte di Franklin D. Roosevelt, di cui era il vice, nell’aprile del 1945 e solo in quel momento fu messo al corrente del Manhattan Project e dei piani per costruire la bomba atomica. Pochi mesi dopo, Truman fu il primo e unico capo di stato ad autorizzare bombardamenti nucleari su due città, consapevole di causare la morte di decine di migliaia di civili. Oppenheimer incontrò Truman alla Casa Bianca alcune settimane dopo la distruzione di Hiroshima e Nagasaki e confidò al presidente di sentire «le mani sporche di sangue». Truman rimase colpito da quell’affermazione, avendo autorizzato personalmente i due bombardamenti, e allontanò in malo modo Oppenheimer, dicendo in seguito ai propri collaboratori: «Non voglio mai più vedere quel piagnone in quest’ufficio». Fu eletto per un secondo mandato presidenziale nel 1948, lavorò per il miglioramento dei diritti civili nel paese e non si ricandidò nel 1952. Nel film è interpretato da Gary Oldman, anche lui molto truccato.Haakon Chevalier (1901 – 1985)(Evening Standard/Hulton Archive/Getty Images)Incontrò Oppenheimer nel 1937 all’Università della California, Berkeley, e insieme costituirono un gruppo che promuoveva idee di sinistra e aveva legami con il partito comunista negli Stati Uniti. Chevalier ebbe indirettamente un ruolo importante nelle audizioni che portarono alla revoca dei permessi di sicurezza di Oppenheimer e di fatto misero fine alla sua carriera. Nel 1942 aveva riferito a Oppenheimer di conoscere una persona che stava cercando di avere informazioni sul Manhattan Project per conto dei sovietici. Oppenheimer riferì tardivamente questa circostanza alle autorità e omise informazioni su Chevalier cercando di proteggerlo, attività che sembrarono sospette a chi conduceva le indagini e che influirono notevolmente sulla scelta della revoca dei permessi nel 1954. Nel film è Jefferson Hall.Klaus Fuchs (1911 – 1988)(Keystone/Getty Images)Tedesco, emigrò nel Regno Unito all’inizio del nazismo. Capace fisico teorico, a Los Alamos lavorò a importanti calcoli per i primi modelli della bomba atomica a implosione sotto la guida di Hans Bethe, dando contributi molto importanti anche per il successivo sviluppo della bomba a fusione, a guerra finita. All’inizio degli anni Cinquanta confessò di avere trasmesso informazioni sulle attività segrete del Manhattan Project all’Unione Sovietica e fu condannato a 14 anni di carcere nel Regno Unito, dove si era trasferito. Scontò nove anni di pena e si trasferì nella Germania dell’Est dove divenne direttore dell’Istituto centrale di fisica nucleare di Dresda. Nel film è interpretato da Christopher Denham.David Hill (1919 – 2008)(Wikimedia)Lavorò con Enrico Fermi al “Chicago Pile-1” al Met Lab dell’Università di Chicago, dove rimase per buona parte della Seconda guerra mondiale. Quando divenne imminente il lancio delle prime bombe atomiche sul Giappone, Hill sottoscrisse una petizione avviata da Leo Szilard con la quale si chiedeva al presidente Truman di dare un avvertimento al governo giapponese prima di un bombardamento atomico. Anni dopo da consigliere della Federazione degli scienziati americani testimoniò davanti a una commissione del Senato degli Stati Uniti opponendosi alla nomina di Lewis Strauss alla carica di Segretario del commercio, anche per il ruolo che aveva avuto nelle indagini contro Oppenheimer nel 1954. Nel film è interpretato da Rami Malek.William L. Borden (1920 – 1985)(Wikimedia)Tra il 1949 e il 1953 ebbe un ruolo molto importante come direttore esecutivo della Commissione congiunta del Congresso degli Stati Uniti sull’energia atomica. Ma è ricordato soprattutto per avere scritto nel 1953 una lettera all’allora potentissimo capo dell’FBI, J. Edgar Hoover, nella quale segnalava che «molto probabilmente» Oppenheimer era una spia dell’Unione Sovietica, senza fornire prove specifiche. Fu uno dei primi passi verso l’indagine del 1954 con la quale Oppenheimer avrebbe perso le autorizzazioni di sicurezza. Nel film è interpretato da David Dastmalchian.Roger Robb (1907 – 1985)(AP Photo/John Rous)Magistrato, fu consigliere speciale durante le audizioni della Commissione per l’energia atomica sul ruolo di Oppenheimer e sui suoi presunti legami con l’Unione Sovietica. Secondo gli osservatori dell’epoca, interrogò Oppenheimer molto duramente, con un trattamento di solito riservato a chi era accusato di alto tradimento. Nel film è interpretato da Jason Clarke.Isidor Isaac Rabi (1898 – 1988)(AP Photo)Premio Nobel per la Fisica nel 1944, studiò il momento magnetico dell’atomo e mise le basi per lo sviluppo di sistemi di diagnostica per immagini che usiamo ancora oggi, come la risonanza magnetica nucleare. Rabi non partecipò direttamente alle attività di ricerca di Los Alamos, ma fu comunque un importante consulente per il Manhattan Project e fu tra gli scienziati presenti durante “Trinity”, il primo test della storia su una bomba nucleare. Quel giorno vinse una scommessa tra i fisici presenti su quanta energia avrebbe sprigionato l’esplosione: arrivò tardi ed era rimasto un solo numero disponibile, 18 kilotoni, l’esplosione ne produsse 18,6. Nel film è interpretato da David Krumholtz.Gordon Gray (1909 – 1982)(AP Photo)Funzionario nei governi di Harry Truman e Dwight Eisenhower, fu a capo dalla commissione che si occupò di indagare i presunti legami di Oppenheimer con il comunismo e l’Unione Sovietica. Fu molto criticato per come gestì il proprio ruolo senza lasciare a Oppenheimer la possibilità di difendersi adeguatamente. Fu uno dei due membri, su tre, della commissione a votare a favore della revoca dei permessi di sicurezza per Oppenheimer, sancendo di fatto la fine della sua carriera nelle istituzioni statunitensi. Nel film è interpretato da Tony Goldwyn.Vannevar Bush (1890 – 1974)(AP Photo)Ingegnere e inventore, ebbe un ruolo chiave per gli Stati Uniti nel corso della Seconda guerra mondiale, coordinando una grande quantità di lavori di ricerca su nuove tecnologie da impiegare in ambito bellico. Fu tra i principali sostenitori della necessità di sviluppare armi atomiche e nel periodo del Manhattan Project fu il principale punto di collegamento tra il gruppo di ricerca e la presidenza degli Stati Uniti. Dopo la Seconda guerra mondiale cercò di opporsi al test della prima bomba a fusione, ritenendo che avrebbe portato a un’ulteriore corsa agli armamenti da parte dell’Unione Sovietica. Nel 1954 difese pubblicamente in più occasioni Oppenheimer dalle accuse che gli erano state mosse. Nel film è Matthew Modine.Robert Serber (1909 – 1997)(Wikimedia)Fisico, ebbe un ruolo molto importante a Los Alamos: fare in modo che i nuovi ricercatori che arrivavano al laboratorio fossero messi il più rapidamente possibile al passo col lavoro di ricerca già svolto. Oppenheimer aveva scelto di non compartimentare conoscenze e informazioni tra singoli dipartimenti, mantenendo il più aperta possibile la comunicazione interna in modo che a Los Alamos tutti sapessero l’andamento e l’entità dello sforzo collettivo. Serber preparò alcune lezioni, conosciute come The Los Alamos Primer, per questo scopo. Fu anche tra i primi a entrare a Hiroshima e Nagasaki per verificare gli effetti dei bombardamenti atomici. Nel film è Michael Angarano.Lilli Hornig (1921 – 2017)(Wikimedia)Fu tra le relativamente poche donne che parteciparono alle attività di ricerca a Los Alamos, dove era arrivata seguendo il marito, il chimico Donald Hornig. Le furono affidati vari compiti di ricerca legati allo studio del plutonio e delle sue caratteristiche. Firmò una petizione che chiedeva che il primo attacco nucleare fosse condotto su un’isola disabitata a scopo dimostrativo. Dopo la Seconda guerra mondiale divenne docente di chimica e promosse numerose iniziative per dare alle donne pari opportunità di accesso nel settore della ricerca e non solo. Nel film è interpretata da Olivia Thirlby. LEGGI TUTTO

  • in

    L’altissimo QI dei geni è una balla

    Caricamento playerA volte capita di scorrere sui social inserzioni pubblicitarie in cui esperti e aziende di vari settori, per promuovere corsi o applicazioni per allenare la mente, la prendono larghissima e partono dal quoziente intellettivo dei geni del passato. Citano risultati clamorosi ottenuti nei test da scienziati come Leonardo Da Vinci, Isaac Newton e Albert Einstein, al quale viene comunemente associato un punteggio di 160. Il problema è che questi risultati sono inventati: sono stime, perché nessuno di quegli scienziati ha mai svolto un test del QI. E sono stime basate su deduzioni molto fragili, perché non ci sono valide ragioni per credere che i geni abbiano un QI molto alto.Esistono diversi test del quoziente intellettivo, ma tutti derivano da un tipo di valutazione psicologica ideata all’inizio del Novecento per misurare in modo il più possibile oggettivo le abilità cognitive delle persone in rapporto alla loro età. Nel contesto anglosassone il test è ampiamente utilizzato in ambito scolastico, professionale, medico e scientifico, e deve in larga parte il suo successo alla sua praticità: il fatto che permetta di esprimere in modo sintetico qualcosa di così complesso, sfuggente e poliedrico come l’intelligenza umana.L’affidabilità del test e in generale l’utilità del quoziente intellettivo come strumento di indagine sono però da anni oggetto di riflessioni e studi che si concentrano sui limiti e sui rischi di misurare l’intelligenza sulla base di un test standardizzato. I limiti sono peraltro noti alla maggior parte degli istituti e dei professionisti che utilizzano regolarmente il test, considerandolo uno strumento utile ma insufficiente, il cui risultato richiede un’interpretazione critica e ben contestualizzata alla luce di altri tipi di valutazione.Uno dei principali limiti noti del test del quoziente intellettivo è la sua scarsa attendibilità man mano che i punteggi si allontanano da quelli vicini alla mediana della popolazione e presentano un rischio maggiore di essere influenzati da variabili fuorvianti. È la ragione per cui un punteggio molto basso, inferiore a 70, non è un criterio sufficiente di diagnosi di disabilità intellettiva. Come uno superiore a 130 non è necessariamente un indice di genialità: considerazione che rende abbastanza insensato attribuire fantasiosi punteggi stratosferici a grandi scienziati del passato.– Leggi anche: Ci sono meno geni che in passato?Le prime versioni del test del QI furono sviluppate in Francia nel 1905 dagli psicologi Alfred Binet e Theodore Simon, con l’obiettivo di individuare precocemente i bambini con difficoltà di apprendimento e che avrebbero avuto bisogno di aiuto durante la formazione scolastica. Fu Lewis Terman, uno psicologo statunitense della Stanford University, a introdurre quel test negli Stati Uniti nel 1916 e ad ampliarne l’utilizzo. Dopo averlo fatto tradurre dal francese all’inglese, lo standardizzò su un certo numero di bambini e realizzò uno dei test più noti e diffusi ancora oggi (in una versione aggiornata), lo Stanford-Binet, convinto che il test potesse servire anche per il motivo opposto a quello immaginato da Binet e Simon: individuare i bambini geniali.Il test attirò da subito diverse critiche, tra cui quella del giornalista statunitense Walter Lippmann, che sulla rivista New Republic scrisse: «Detesto l’impudenza nell’affermare che in 50 minuti sia possibile giudicare e classificare l’idoneità predestinata di un essere umano nella vita». Nonostante le critiche, il test – che misura le abilità su una scala non assoluta ma relativa, definita dall’età o da altre variabili – ebbe grande successo e continuò a diffondersi. Negli anni Trenta i bambini con un alto QI venivano mandati in classi più impegnative per prepararsi a ricevere una formazione adatta all’università e a lavori ad alto reddito.Per dimostrare l’attendibilità del test, Terman pensò anche di sottoporlo a un insieme sufficientemente ampio di scolari della California, scegliere quelli con i punteggi più alti e seguire i loro progressi attraverso l’adolescenza e fino all’età adulta in un grande studio longitudinale. Tra decine di migliaia di soggetti furono infine selezionati i 1528 con il punteggio più alto, 856 maschi e 672 femmine, con una età media di 11 anni e un QI medio di 151, quasi tutti bianchi e di famiglie ricche o della classe media. I risultati della ricerca furono pubblicati con il titolo Genetic Studies of Genius, cinque volumi usciti tra il 1925 e il 1959. Il campione usato da Terman è ancora oggi oggetto di studi, sebbene viziato da pregiudizi di selezione, e i suoi membri sono scherzosamente chiamati “termiti” (termites, contrazione di termanites, “termaniani”).Le persone studiate da Terman diventarono professori, dottori, avvocati, scienziati, ingegneri e professionisti di altro tipo, ma nessuno di loro è mai diventato ciò che molte persone considererebbero un genio, scrisse nel 2018 sulla rivista Nautilus Dean Keith Simonton, docente di psicologia alla University of California, Davis. Due di loro, Robert Sears e Lee Cronbach, diventarono anche stimati psicologi della Stanford University e ripresero loro stessi, dopo la morte di Terman, lo studio di cui facevano parte. Stimati psicologi, appunto: non geni come Sigmund Freud o Jean Piaget, secondo Simonton.Molti partecipanti allo studio di Terman non riuscirono a laurearsi affatto né a ottenere lavori che richiedessero un’istruzione di livello superiore. Per non parlare delle donne, alcune delle quali non ottennero particolari successi nonostante un QI superiore a 180: cosa tuttavia meno sorprendente, scrisse Simonton, se si considera che vissero «in un momento in cui ci si aspettava che tutte le donne diventassero casalinghe, non importa quanto brillanti». In ogni caso, il QI degli uomini di successo non era sostanzialmente diverso da quello di tutti gli altri.– Leggi anche: Per valutare il successo bisogna considerare il “pregiudizio di sopravvivenza”Un altro fatto notevole contribuì a indebolire ulteriormente l’ipotesi di partenza di Terman. Dei circa 168 mila bambini da lui valutati in preparazione dello studio uno dei moltissimi non selezionati fu Luis Walter Álvarez, un bambino di San Francisco che si sottopose al test quando aveva 10 anni, nel 1921, e ottenne un punteggio troppo basso per entrare nel campione. Alla fine conseguì un dottorato di ricerca alla University of Chicago e diventò uno dei fisici più importanti del Novecento: per i suoi contributi allo studio delle particelle elementari ricevette il Nobel per la Fisica nel 1968.Anche un altro bambino non ottenne un punteggio sufficiente a entrare nel campione di Terman: William Shockley, nato a Palo Alto un anno prima di Álvarez. Finì per laurearsi al California Institute of Technology (Caltech) e prendere un dottorato al MIT, e lavorò a lungo nei Bell Laboratories, uno dei più importanti centri di ricerca della storia statunitense. Insieme ad altri due ricercatori del laboratorio, costruì nel 1947 il primo prototipo funzionante di transistor mai realizzato e ricevette il Nobel per la fisica nel 1956.Altri bambini scartati da Terman non vinsero il Nobel, ma almeno due diventarono comunque geni nel loro campo. Studiarono musica e sono oggi unanimemente considerati tra i più grandi violinisti del Novecento: Yehudi Menuhin e Isaac Stern.– Leggi anche: Storie di invenzioni conteseIn generale, come osservato dagli psicologi Russell Warne della Brigham Young University e Ross Larsen e Jonathan Clark della Utah Valley University, la correlazione tra il QI e il conseguimento di un premio Nobel è piuttosto debole. Il punteggio di Shockley e Álvarez non era sufficiente a rientrare nel gruppo studiato da Terman, ma era in linea con quello di altri premi Nobel, intorno a 120-125: il biologo James Dewey Watson e il fisico e famoso divulgatore Richard Feynman.In un’intervista nel 2004 l’astrofisico Stephen Hawking disse di non avere idea di quale fosse il suo QI e definì «sfigate» le persone che si vantano del proprio. A proposito della qualifica di genio a lui attribuita da molte persone, disse che «i media hanno bisogno di supereroi nella scienza proprio come in ogni sfera della vita» e che «di fatto esiste una gamma continua di abilità e nessuna chiara linea di demarcazione» tra quali siano geniali e quali no.In mancanza di dati sul QI di molti scienziati del passato le stime che circolano sono perlopiù basate, nella migliore delle ipotesi, sui risultati scolastici e universitari. È un ragionamento in parte legittimato dalla correlazione attuale tra i test sulle abilità cognitive come il QI e quelli di valutazione più utilizzati in ambito scolastico, tra cui lo Scholastic Aptitude Test (SAT), il principale test per l’ammissione ai college statunitensi. Ma anche dando per buona e applicando retroattivamente questa correlazione attuale non tornerebbero molto i conti con i QI irrealistici attribuiti ad alcuni famosi geni.Einstein, comunemente ma scorrettamente associato a un QI di 160, fu bocciato all’esame di ammissione al Politecnico di Zurigo la prima volta in cui lo sostenne, a 16 anni, nel 1895. Ottenne risultati eccellenti nelle sezioni di matematica e fisica, ma non in quella generale, in cui risultò penalizzato dalla sua conoscenza all’epoca ancora scarsa del francese, la lingua dell’esame e per lui seconda lingua.In generale, sulla base dei suoi risultati scolastici e universitari, è plausibile immaginare che Einstein fosse un ottimo studente: non uno con il massimo dei voti in ogni materia, che è però l’unica condizione che legittimerebbe – e solo fino a un certo punto – la tendenza ad attribuirgli un QI straordinariamente fuori dal comune. L’ipotesi più realistica, come recentemente suggerito dallo scrittore e neuroscienziato statunitense Erik Hoel, è che a un test del QI Einstein avrebbe ottenuto un punteggio non eccezionale, simile a quello di Feynman (125), Watson e altri geni.– Leggi anche: Perché il concetto di meritocrazia è controversoUna delle ragioni della tendenza ad attribuire ai geni QI altissimi e molto rari è la scarsa qualità di alcune pubblicazioni a cui molti ancora fanno riferimento. In un libro pubblicato negli anni Cinquanta dalla psicologa statunitense Anne Roe, intitolato The Making of a Scientist, sono presenti affermazioni infondate e indimostrabili come l’attribuzione di un QI di 205 a Leibniz e 210 a Goethe, personaggi vissuti tra il Seicento e la prima metà dell’Ottocento.Per calcolare il QI di un campione di premi Nobel a partire dai risultati di altri test di valutazione, Roe utilizzò per le conversioni non uno dei diversi test del QI già disponibili all’epoca ma uno mai provato prima e da lei progettato appositamente sulla base di un modello di test scolastico SAT. Seguì questo metodo, come ricostruito da Hoel, perché la maggior parte dei test esistenti ha come limite un punteggio massimo di 130 o 140, che sarebbe stato percepito come troppo basso per dei vincitori del premio Nobel.Alla fine ottenne un QI medio del gruppo di 166, ma ricavandolo da una serie di calcoli che lei stessa definì «trasformazioni statistiche basate su assunzioni generalmente valide» ma «non specificatamente verificate per questi dati». I buoni punteggi ottenuti dai premi Nobel nel test progettato da Roe – buoni ma non straordinari – non giustificano in alcun modo il tipo di conversione statistica che porta a ottenere il QI medio di 166, ha scritto Hoel, che piuttosto riconosce al libro di Roe il merito di aver esplorato e reso noti altri aspetti più interessanti delle vite, delle abitudini e delle motivazioni dei premi Nobel.Un altro argomento che indebolisce molto l’idea comune che il test del QI sia uno strumento utile a individuare abilità geniali e da molti considerate in qualche misura innate è che i risultati del test del QI cambiano con la pratica, come del resto quelli dei test di valutazione scolastica. Qualunque cosa valutino, cioè, è qualcosa che può essere allenato e migliorato.In un esperimento condotto negli anni Ottanta dallo psicologo dell’Università di Belgrado Radivoy Kvashchev, i cui risultati furono confermati in uno studio australiano nel 2020, un campione di circa 300 studenti sottoposti al test del QI fu diviso equamente in due gruppi. A uno solo dei due furono assegnati esercizi di problem solving creativo da tre a quattro volte a settimana per un periodo di tre anni, in cui le prestazioni degli studenti furono verificate in quattro occasioni.Alla fine dell’esperimento il gruppo mostrò un incremento del QI di 15 punti superiore rispetto all’incremento del QI nel gruppo che non si era esercitato. Lo studio australiano di revisione dell’esperimento concluse che le capacità cognitive misurate dai test di intelligenza «potrebbero non essere entità fisse», dal momento che «un allenamento prolungato e intensivo nella risoluzione creativa dei problemi» può portare a miglioramenti considerevoli delle funzioni cognitive riscontrate nella tarda adolescenza (18-19 anni).– Leggi anche: Il complicato rapporto tra i progressisti e la geneticaParte degli equivoci che emergono quando si parla di test del QI deriva da un’attitudine comune a considerarli uno strumento affidabile quanto lo sono gli strumenti di misurazione in campi scientifici come la fisica o la biologia. A volte, scrive Hoel, il QI viene trattato «come se volasse miracolosamente al di sopra» di tutti i problemi di misurazione e standardizzazione regolarmente affrontati dalle scienze sociali.Un’altra fonte di equivoci è il fatto che i punteggi per una stessa persona possono differire anche molto a seconda del test utilizzato e del momento in cui viene svolto. Una persona può ottenere un risultato assolutamente nella media (101), secondo i parametri di un certo test, e superare di poco il punteggio minimo richiesto (83) per l’arruolamento nell’esercito statunitense, secondo i parametri di un altro test. Inoltre l’incertezza dei risultati aumenta sia per quanto riguarda la popolazione che ottiene i punteggi più bassi che quella che ottiene i più alti: nel complesso, un insieme numericamente molto esiguo.Questa incertezza negli estremi, secondo Hoel, viene inevitabilmente ereditata dalle molte ricerche incentrate sul QI e sul suo valore predittivo nell’evoluzione delle vite delle persone. È improbabile ottenere risultati significativi da studi sulla “genialità” che utilizzano punteggi reali tra 130 e 150, perché in quell’intervallo il margine di errore è comunque troppo ampio e il campione che soddisfa quella condizione è troppo piccolo. E questa estrema variabilità dei risultati è confermata dalle molte tesi divergenti che emergono dalla vastissima letteratura sul QI.La spiegazione più semplice quando spuntano punteggi come 150, 160, 170 e superiori, secondo Hoel, «è che semplicemente non sono reali». E qualsiasi dibattito che consideri soltanto quelli superiori a 140 come valori significativi da cui partire è abbastanza insensato, dal momento che «i QI stratosferici sono reali quasi quanto folletti, unicorni, sirene». Il che non implica un giudizio negativo in generale del valore del test del QI, uno strumento di valutazione comunque utile per i valori vicini al centro della distribuzione, benché pessimo agli estremi, conclude Hoel. LEGGI TUTTO

  • in

    Come l’ambiente influenza le culture

    Le differenze culturali sono uno dei fattori comunemente utilizzati per spiegare la variabilità dei comportamenti delle persone a seconda del luogo in cui vivono o sono cresciute. In alcune regioni del mondo è normale mangiare carne di animali che in altri posti è vietato mangiare. In alcuni paesi il sesso prematrimoniale è una pratica comune, mentre in altri è rarissimo. In Romania le persone estranee tra loro mantengono solitamente una distanza di oltre un metro e 20 centimetri l’una dall’altra, mentre in Bulgaria, che pure confina con la Romania per un lunghissimo tratto, la distanza interpersonale mediamente mantenuta tra sconosciuti è meno della metà.In uno studio da poco pubblicato sulla rivista scientifica Proceedings of the Royal Society B un gruppo di ricerca del dipartimento di psicologia della Arizona State University ha in parte associato le variazioni culturali nel mondo a differenze ambientali, riprendendo alcune teorie e ricerche in psicologia ed ecologia condotte in anni recenti. I fattori ambientali presi in considerazione sono per esempio la geografia fisica e la densità di popolazione, ma anche l’aspettativa di vita e il rischio di malattie infettive. E dall’analisi di questi fattori e della loro evoluzione nel tempo è emerso che popolazioni che vivono in ambienti simili, non necessariamente vicini, sviluppano in una percentuale significativa gli stessi modelli culturali.Il gruppo di ricerca ha raccolto un vasto insieme di dati che misurano variabili ambientali e culturali in 220 paesi del mondo, lo ha chiamato The Ecology-Culture Dataset e lo ha reso pubblico su Scientific Data, la rivista del gruppo Nature dedicata alla pubblicazione di set di dati rilevanti per le scienze naturali, la medicina, l’ingegneria e le scienze sociali. Tra le variabili ambientali, nove in tutto, ci sono il livello medio annuo delle precipitazioni e della temperatura, il tasso di mortalità per cause esterne, la percentuale di disoccupazione e la diseguaglianza economica (coefficiente di Gini).Le variabili culturali sono 72 in tutto – ma nello studio ne sono state utilizzate 66 – e comprendono la rigidità delle norme sociali, l’indice di corruzione, il benessere soggettivo, l’innovazione, il conformismo, l’individualismo, le caratteristiche istituzionali e la disuguaglianza di genere. Sulla base dell’analisi delle relazioni tra i due diversi gruppi di dati gli psicologi della Arizona State University hanno stimato che quasi il 20 per cento della variazione culturale umana può essere spiegata da quella ambientale.– Leggi anche: Perché alcuni cibi ci disgustano?Come spiegato dalla ricercatrice Alexandra Wormley, una delle coautrici dello studio, le stime tengono conto dei problemi noti in questo tipo di ricerche interculturali. Uno di questi è che le società vicine nello spazio o con radici storiche condivise tendono a essere simili anche per aspetti e sfumature che sfuggono alle misurazioni degli studi. Le somiglianze culturali tra la Germania meridionale e l’Austria, per esempio, possono essere spiegate dal loro patrimonio culturale e linguistico condiviso, oltre che da climi e livelli di ricchezza simili.Ma l’analisi dei dati ha permesso di scoprire anche somiglianze sorprendenti e meno facili da interpretare, come quelle tra Polonia e Perù, per esempio. Entrambi i paesi hanno aspettative di vita simili (rispettivamente 73,5 e 75,2 anni) e livelli relativamente bassi di rischio di malattie infettive, e condividono diversi valori culturali tra cui l’indipendenza e la coesione sociale. L’analisi dei dati, secondo Wormley, potrebbe anche servire a prevedere future somiglianze culturali altrimenti insospettabili, tra aree del mondo distanti fisicamente e storicamente ma accomunate per esempio da caratteristiche come la piovosità.Le correlazioni tra variabili ambientali e modelli culturali sono da diversi anni oggetto di un numero crescente di studi che si concentrano su fattori come i rischi per la sicurezza, la temperatura dell’aria e la disponibilità di risorse idriche. La psicologa statunitense Michele Gelfand si è a lungo occupata dell’opposizione tra rigidità ed elasticità delle norme sociali, definendo «culture rigide» quelle con norme sociali forti e scarsa tolleranza per le devianze, e «culture elastiche» quelle molte permissive e con norme sociali deboli.In un ampio studio pubblicato nel 2011 su Science e condotto insieme ad altri 44 ricercatori e ricercatrici di diversi paesi del mondo, Gelfand ha scoperto che la rigidità delle norme sociali in una data cultura è tendenzialmente legata alla quantità di minacce alla sicurezza che la società deve affrontare, dalle guerre ai disastri ambientali. Norme sociali più rigide possono aiutare i membri della comunità a restare uniti e cooperare di fronte a tali pericoli.– Leggi anche: Perché collaboriamoUno studio recente pubblicato sulla rivista Psychological Science e condotto in Iran dai due ricercatori Thomas Talhelm e Hamidreza Harati ha scoperto che alcune comunità con minore accesso alle risorse idriche adottano modelli culturali più orientati all’investimento a lungo termine. L’ipotesi suggerita nello studio è che la scarsità di acqua dolce renda più stringente per le popolazioni il bisogno di pianificare le azioni future in modo da non esaurirla precocemente.Anche la temperatura è considerata una variabile potenzialmente influente nelle differenze culturali tra i paesi. In uno studio del 2017 sulle distanze interpersonali, condotto su circa 9 mila persone provenienti da 42 paesi, i ricercatori e le ricercatrici hanno messo in relazione le distanze abituali con un insieme di caratteristiche individuali dei partecipanti, attributi delle diverse culture e caratteristiche ambientali. E hanno scoperto che anche queste ultime possono spiegare variazioni nei risultati: in luoghi con temperature mediamente più basse le persone sentono meno necessità di spazio personale in pubblico.Una delle ipotesi suggerite nello studio è che nei paesi più caldi e umidi la presenza di microrganismi patogeni e la maggiore diffusione di malattie infettive abbiano influenzato l’evoluzione delle distanze interpersonali. L’ipotesi si basa sul fatto che l’aumento di quelle distanze e la riduzione dei contatti fisici sono stati per secoli parte dell’adattamento comportamentale contro le epidemie. E nelle regioni storicamente più colpite da malattie infettive, come osservato in alcuni studi, le persone tendono effettivamente a essere meno estroverse. Mantenere distanze interpersonali maggiori, secondo questa ipotesi, sarebbe quindi il risultato evolutivo di un comportamento utile a ridurre il rischio di infezioni.In precedenti studi la presenza di microrganismi patogeni nell’ambiente è stata associata anche ad altre differenze culturali. In particolare è stato ipotizzato che nelle regioni con una maggiore diffusione storica di malattie infettive l’inclinazione al conformismo anziché all’individualismo e la “chiusura” verso ciò che sta fuori dalla comunità siano parte di un modello culturale influenzato dalla necessità di inibire la trasmissione degli agenti patogeni. Da questo punto di vista anche l’attenzione e l’enfasi sui modi tradizionali di fare le cose, dalla cucina alla cura della prole alle pratiche di sepoltura, potrebbero servire a disincentivare comportamenti non sicuri.È un’ipotesi evolutivamente sensata, disse nel 2016 lo psicologo statunitense Michael Varnum, principale autore del recente studio della Arizona State University: «Gli agenti patogeni evocano un’intera gamma di risposte che probabilmente sono o erano adattative in qualche modo, che inducono le persone a ridurre le possibilità di infezione». Le prospettive invece cambiano, secondo questa ipotesi, negli ambienti in cui la minaccia delle malattie infettive viene progressivamente meno, privando di senso comportamenti come rimandare l’istruzione, l’esplorazione o l’impegno politico per mettere su famiglia e garantire la trasmissione dei geni prima di morire per una malattia.– Leggi anche: Il complicato rapporto tra i progressisti e la geneticaUn’altra correlazione molto forte confermata dallo studio più recente di Varnum e Wormley, già emersa in uno studio pubblicato nel 2017 sulla rivista Nature Human Behaviour, è quella tra l’evoluzione delle malattie infettive e l’uguaglianza di genere. La diminuzione della prevalenza delle maggiori malattie infettive è correlata a una crescita dell’uguaglianza di genere, in una relazione statistica descritta da Varnum come una delle più strette da lui mai osservate e da lui paragonata a quella tra il fumo e il cancro ai polmoni. La spiegazione ipotizzata è che il rischio inferiore di contrarre malattie infettive favorisca una generica maggiore disponibilità al cambiamento sociale, e di conseguenza apra più spazio all’intraprendenza personale e riduca la spinta a mantenere tradizioni che nella maggior parte dei casi sono patriarcali.Secondo diversi scienziati uno dei principali limiti delle ricerche come quelle sull’influenza dei tassi di malattie infettive sui modelli culturali è l’alto rischio di stabilire correlazioni spurie. Due fenomeni potrebbero cioè essere statisticamente correlati, ma senza che uno dei due influenzi necessariamente l’altro: entrambi potrebbero per esempio dipendere da una terza variabile non presa in considerazione.In uno studio pubblicato nel 2013 sulla rivista Evolution and Human Behavior da due sociologi della stessa università di Varnum e Wormley, Joseph Hackman e Daniel Hruschka, l’analisi di un insieme di dati relativi agli Stati Uniti mostrò una correlazione tra comportamenti violenti e malattie sessualmente trasmissibili, ma non altre malattie infettive. Lo studio descrisse inoltre l’età in cui le persone si sposano e hanno figli come una variabile molto più influente di qualsiasi altra legata ai tassi di malattie infettive.Il rischio di stabilire correlazioni casuali tra variabili ambientali e culturali è chiarito anche nelle conclusioni del recente studio della Arizona State University, in cui si suggerisce che i confronti siano sempre fatti con estrema cautela. Gli autori e le autrici definiscono tuttavia lo studio e l’ampio insieme di dati da loro reso pubblico come un punto di partenza per future ricerche e come strumenti utili a favorire un approccio trasversale alle basi più ampie possibili di dati statistici, necessarie per trarre relazioni plausibili e conclusioni significative. LEGGI TUTTO

  • in

    Il diritto del mare ha sempre più limiti

    Caricamento playerPer lungo tempo, prima di essere codificato in una serie di trattati e poi in una Convenzione introdotta dalle Nazioni Unite nel 1982, il diritto internazionale che regola i rapporti tra gli stati in ambito marittimo si basava su una concezione del mare inteso come spazio libero, privo delle regole valide sulla terraferma. Fu inizialmente un principio funzionale agli interessi commerciali e strategici delle potenze coloniali europee, in particolare i Paesi Bassi, la cui supremazia economica all’inizio del Seicento dipese fortemente dai successi della loro marina mercantile e dal potere esercitato lungo le principali rotte d’oltreoceano.Qualsiasi tentativo di regolare i diritti di navigazione in quel contesto era per quelle potenze sostanzialmente sconveniente. Ma dalla seconda metà dell’Ottocento cominciò ad affermarsi una tendenza degli stati costieri a estendere progressivamente la propria giurisdizione sui mari adiacenti. E sia dalla normalizzazione di questa successiva tendenza che dal principio della libertà rimasto valido per il mare più distante dalle coste derivano in gran parte gli istituti del diritto internazionale del mare vigenti ancora oggi, che stabiliscono una serie di delimitazioni più o meno rigide degli spazi marini e regole sui poteri che gli stati possono esercitare su quegli spazi.In un lungo articolo sulla rivista The Dial, Surabhi Ranganathan, ricercatrice inglese e docente di diritto internazionale alla University of Cambridge, ha posto alcune questioni centrali riguardo alle evoluzioni più recenti del dibattito sul diritto del mare e quelle prevedibili nel prossimo futuro. E ha citato diversi esempi di come le categorie e le classificazioni su cui si basa la distinzione tra parti del mare giuridicamente assimilabili alla terraferma e parti che non lo sono siano diventate nel corso del tempo più incerte e problematiche a causa di molteplici fattori.Le innovazioni tecnologiche hanno permesso di rendere terra parte di ciò che prima era mare: è successo per esempio con gli ampi progetti di bonifica nello stretto di Singapore. Gli effetti dei cambiamenti climatici potrebbero anche rapidamente trasformare in mare ciò che prima era terra. E spazi oceanici di scoperta relativamente recente, come le “isole di plastica” e le sorgenti idrotermali, non sono né completamente mare né completamente terra. Questi fenomeni mettono in discussione non soltanto i modi in cui responsabilità e diritti sui diversi spazi del mare sono stati interpretati nei secoli, ma lasciano emergere parti sempre più ampie di questioni indefinite e complicano la nostra stessa immaginazione su cosa sia terra e cosa sia mare.– Leggi anche: La Terra è rotondaL’innalzamento del livello del mare avrà un impatto significativo sui territori più fragili ed esposti, incluse le molte zone portuali del mondo ricavate da attività di bonifica di territori a contatto con gli oceani. Ma in generale è uno dei fenomeni che mettono più a rischio l’esistenza di grandi centri urbani e la sopravvivenza di milioni di persone, tra cui molte che si sono faticosamente stabilite in quelle aree dopo aver già perso altrove la casa e i mezzi di sussistenza.Ci sono poi stati insulari che rischiano di scomparire del tutto, come Tuvalu, le isole Marshall, le Kiribati e le Salomone nell’oceano Pacifico, o le Maldive e le Seychelles nell’oceano Indiano. E la possibilità di una completa estinzione di questi territori solleva questioni giuridiche irrisolte. Se, come scrisse l’esperto australiano di diritto internazionale James Richard Crawford, la presenza di «una comunità territoriale governata» è uno dei criteri da soddisfare affinché uno stato possa esistere, «che fare delle isole che non avranno più comunità territoriali perché il loro territorio sarà stato reclamato dal mare?», si chiede Ranganathan, indicando anche un problema di definizioni. «Quelle popolazioni diventeranno apolidi, per aver perso non la cittadinanza o la nazionalità, ma piuttosto il terreno su cui si trovavano un tempo?».L’atollo di Tarawa, nelle isole Kiribati, il 30 marzo 2004 (AP Photo/Richard Vogel)In anni recenti alcuni stati insulari comprensibilmente preoccupati della propria sovranità e indipendenza a fronte degli effetti del cambiamento climatico hanno esplorato la possibilità di dislocare i propri territori. Nel 2014, dopo il parziale insuccesso di un programma di adattamento sostenuto dalle Nazioni Unite e dalla Banca Mondiale, la Repubblica di Kiribati acquistò 20 chilometri quadrati di territorio perlopiù disabitato nelle isole Fiji pagando 8,77 milioni di dollari alla Chiesa anglicana, giunta in diverse regioni del Pacifico nell’Ottocento attraverso l’espansione dell’Impero britannico e l’attività dei missionari.«Speriamo di non trasferire tutti su quel pezzo di terra, ma se diventasse assolutamente necessario, sì, potremmo farlo», disse l’allora presidente di Kiribati Anote Tong riferendosi ai circa 110 mila abitanti delle isole del paese che potrebbero un giorno abitare nel territorio delle Fiji. Acquisti di questo tipo riguardano tuttavia la proprietà dei territori ma non la sovranità, che deve essere invece discussa con lo stato cedente e su cui di solito è molto più difficile trovare un accordo, come dimostra tra gli altri un caso storico tra l’Australia e la piccola repubblica di Nauru, analizzato dalla giurista australiana ed esperta di cambiamenti climatici Jane McAdam.A lungo colonia dell’Impero tedesco, Nauru divenne alla fine dell’Ottocento uno dei territori governati tramite un mandato della Lega delle Nazioni, l’organizzazione da cui poi nacque l’ONU, e la sua gestione fu affidata all’Australia, alla Nuova Zelanda e al Regno Unito. Dopo aver subito diversi danni ambientali a causa dell’estrazione di fosfato, una sostanza impiegata nella produzione di fertilizzanti e molto presente nei giacimenti del paese, Nauru propose un reinsediamento su una nuova isola. Nel 1963 l’Australia dichiarò la disponibilità a fornire a questo scopo Curtis Island, un’isola di 400 mila metri quadrati nello stato del Queensland, distante circa 3 mila chilometri da Nauru. Ma rifiutò categoricamente di trasferire a Nauru la sovranità dell’isola.Un altro problema posto dalla possibilità di reinsediamento degli stati insulari a rischio di estinzione territoriale, considerando questa estinzione un fenomeno graduale e già in corso, riguarda i confini da usare come riferimento per tracciare altrove i limiti di un eventuale nuovo territorio. Un’ipotesi valutata in anni recenti nel diritto internazionale e sostenuta da diversi paesi e territori dell’Oceania è di “congelare” le linee di riferimento, cioè fissare in modo definitivo nel tempo dei punti sulla base dei quali misurare l’estensione degli stati de-territorializzati.Questo approccio avrebbe il vantaggio di garantire che progressive riduzioni o estensioni dei territori, dipendenti dai confini mutevoli tra terra e mare, non abbiano alcun effetto sui diritti alle risorse reclamati dagli stati che stanno affondando, scrive Ranganathan. Ma ovviamente un eventuale trasferimento di massa risolverebbe solo una parte del problema, dal momento che le persone costrette a lasciare le loro case per l’innalzamento del livello del mare avrebbero comunque bisogno di nuove case e di prospettive per la loro sussistenza e per la sopravvivenza delle loro comunità politiche.– Leggi anche: Adattarsi male al cambiamento climaticoPer come si è sviluppato nel Novecento il diritto del mare ha posto una serie di problemi anche riguardo alla piattaforma continentale, cioè la parte sommersa dei continenti che si estende fino al punto in cui la pendenza del fondale marino aumenta nettamente (in corrispondenza della cosiddetta scarpata continentale). Su questo spazio, considerato da meno di un secolo il naturale prolungamento del territorio degli stati costieri, ciascuno degli stati può esercitare il diritto di sfruttamento esclusivo delle risorse minerali e viventi. Solo che alcune coste hanno una piattaforma continentale molto ampia e altre ne hanno una stretta, e quindi per convenzione si considera come zona di sfruttamento esclusivo un’area di mare che si estende per 200 miglia nautiche (circa 370 chilometri) dalla costa, indipendentemente dalla struttura fisica del fondale e dalla profondità.A portare i paesi costieri verso questa convenzione furono soprattutto due fattori, scrive Ranganathan. Il primo fu la pressione delle compagnie petrolifere e le loro migliorate capacità di compiere estrazioni in acque più profonde, cosa che incoraggiò gli stati a estendere la giurisdizione su tratti più ampi della piattaforma continentale così da poter garantire alle società l’utilizzo esclusivo dei siti di trivellazione. E l’altro fattore fu la pressione degli stati con piattaforme poco ampie, come molti paesi latinoamericani, interessati a tenere in considerazione un criterio di distanza dalla costa anziché uno di profondità del fondale.La Convenzione delle Nazioni Unite sul diritto del mare introdotta nel 1982, che riflette questo orientamento dei paesi, stabilisce che sia possibile per gli stati costieri affermare il controllo sui fondali marini anche oltre il confine convenzionale di 200 miglia nautiche. Ma per poterlo fare è necessario dimostrare a un’istituzione specifica delle Nazioni Unite – la Commissione per i limiti della piattaforma continentale – che la propria piattaforma si estenda oltre quel limite. Se le prove geologiche vengono accettate, la parte ulteriormente qualificata come piattaforma viene posta sotto la giurisdizione dello stato che ha presentato la richiesta e sottratta alle acque internazionali, cioè quelle su cui nessun paese ha giurisdizione né proprietà e a cui tutti hanno libero accesso.Un caso molto noto di disputa sulla piattaforma continentale riguarda parti dell’oceano Artico rivendicate da Canada, Danimarca, Norvegia, Stati Uniti e Russia: tutti paesi che possiedono solo una parte dell’Artide, mentre la maggior parte degli oltre quattro milioni di chilometri quadrati su cui si estende la regione non è sotto alcuna giurisdizione nazionale. I motivi delle rivendicazioni sono sia economici che politici, legati ai giacimenti di petrolio e gas naturale nell’Artico non ancora scoperti, e all’importanza strategica della possibilità di aprire rotte commerciali che potrebbero diventare più percorribili in seguito allo scioglimento dei ghiacci provocato dal riscaldamento globale.Dopo aver formulato una richiesta alle Nazioni Unite già nel 2002, senza ottenere alcun risultato, nel 2007 la Russia posizionò una bandiera russa sul fondale del Mar Glaciale Artico, come gesto simbolico per reclamare la sovranità su quel tratto. «Questo non è il Quindicesimo secolo. Non puoi andare in giro per il mondo piantando bandiere, e dire: “Rivendichiamo questo territorio”», disse l’allora ministro degli Esteri canadese Peter MacKay contestando l’azione della Russia.Una bandiera russa sul fondale di un tratto del Mar Glaciale Artico, il 2 agosto 2007 (AP Photo/Association of Russian Polar Explorers)Sebbene le aspettative dei paesi siano che la Convenzione e la Commissione possano risolvere dispute come quelle sulla piattaforma continentale, scrive Ranganathan, bisognerebbe tenere presente che molte rivendicazioni in conflitto tra loro sono fondate proprio sul diritto del mare come regolamentato da questi strumenti, in una sorta di circolo vizioso. A questo si aggiunge che la Commissione non può pronunciarsi su rivendicazioni in conflitto tra loro: se più di un paese avanza richieste di possesso e sovranità sulle stesse zone, si devono mettere d’accordo tra loro quei paesi, con la supervisione di tutti i firmatari della Convenzione.Molti problemi sono cioè effetti a lungo termine di orientamenti espressi a monte di quegli accordi, in parte funzionali allo sfruttamento delle risorse naturali e, nello specifico, all’estrazione di combustibili fossili: che è a sua volta in relazione con il riscaldamento globale e lo scioglimento dei ghiacci dell’Artico, origine delle dispute recenti.– Leggi anche: Come stanno cambiando le rotte articheUn fenomeno utile a chiarire quanto la definizione delle responsabilità nel diritto del mare possa essere tanto problematica quanto urgente sono le isole galleggianti di rifiuti di plastica che si raccolgono sulla superficie degli oceani Pacifico, Atlantico e Indiano, provocando gravi danni ambientali e contaminazioni lungo la catena alimentare. Secondo le stime di uno studio del 2018 la quantità di plastica accumulata nelle acque subtropicali tra la California e le Hawaii ha un peso approssimativo di 79 mila tonnellate e un’estensione di 1,6 milioni di chilometri quadrati (quanto tutto l’Iran, oltre 5 volte l’Italia).Nonostante l’esistenza di diversi accordi che regolano la cooperazione internazionale in materia di protezione dell’ambiente marino, come la Convenzione internazionale per la prevenzione dell’inquinamento causato da navi (Marpol 73/78) e la Convenzione di Londra del 1972, è difficile sia attribuire responsabilità specifiche per il problema delle isole di plastica, sia individuare quali paesi dovrebbero risolverlo nell’interesse collettivo. E non è chiaro nemmeno quanta responsabilità gli stati saranno disposti ad assumersi nel nuovo atteso trattato internazionale per ridurre i rifiuti di plastica che dovrebbe essere completato entro il 2024.Eventuali operazioni di rimozione e bonifica delle aree in cui è raccolta la plastica galleggiante, ricorda Ranganathan, presentano inoltre due grandi problemi pratici. Uno riguarda i costi, così ingenti da aver dissuaso dal sostenerli anche i paesi con una più forte e influente presenza di associazioni ambientaliste. E l’altro riguarda le tecnologie specificamente studiate per questo scopo, che secondo uno studio del 2020 metterebbero a rischio la vita di una quantità di animali compresa tra 0,8 e 40 miliardi per ogni ora di utilizzo, condizionando negativamente il rapporto tra costi e benefici.Un cumulo di rifiuti galleggianti sul lago Potpeć vicino a Priboj, in Serbia, il 22 gennaio 2021 (AP Photo/Darko Vojinovic)Per attirare l’attenzione sulla dimensione del problema della plastica in mare e sulle responsabilità collettive, nel 2017 il gruppo editoriale inglese LADbible e l’associazione statunitense non profit Plastic Oceans International avviarono una campagna piuttosto creativa per chiedere alle Nazioni Unite di riconoscere l’accumulo di plastica presente nel Pacifico come un paese autonomo e indipendente, chiamato Trash Isles (“Isole Spazzatura”). Ne progettarono la bandiera, la valuta, il passaporto e i francobolli, e invitarono le persone a richiederne la cittadinanza: l’appello fu accolto da oltre 225 mila aspiranti cittadini dell’isola, tra cui il famoso divulgatore scientifico inglese David Attenborough e l’ex vicepresidente statunitense Al Gore.In un articolo dedicato all’iniziativa, in cui ne descrivevano le implicazioni paradossali, i responsabili suggerirono che l’isola avrebbe potuto teoricamente soddisfare i criteri di territorialità, sovranità e altri necessari per essere considerata un paese. E diventando un paese delle Nazioni Unite avrebbe potuto chiedere agli altri paesi membri, sulla base del principio 7 della Dichiarazione di Rio sull’ambiente e lo sviluppo del 1992, di intervenire sull’isola «cooperando in uno spirito di partnership globale per conservare, tutelare e ripristinare la salute e l’integrità dell’ecosistema terrestre».– Leggi anche: È difficile sapere dove finisce tutta la plasticaEsistono infine, secondo Ranganathan, altri esempi concreti di attività umane o naturali che descrivono i limiti del diritto del mare nel definire responsabilità e diritti in acque internazionali. Uno di questi sono le reti di cavi sottomarini che, dopo varie evoluzioni ma attraverso vecchie rotte telegrafiche e telefoniche, collegano i continenti fin dalla seconda metà dell’Ottocento: «le arterie nascoste della globalizzazione», come le definisce Ranganathan. Si calcola che poche centinaia di cavi sottomarini, che appartengono perlopiù a grandi aziende private e coprono complessivamente una lunghezza di oltre 1,4 milioni di chilometri, siano attualmente responsabili di quasi tutto il traffico di dati transoceanico.La produzione e la posa di questi cavi ebbe un pesante impatto ambientale fin da subito, definito dallo storico australiano John A. Tully un «disastro ecologico vittoriano». Per ottenere l’isolamento dall’acqua necessario al funzionamento dell’infrastruttura, all’inizio, i fili dei cavi erano avvolti in un tipo di gomma naturale – la guttaperca – ricavata da alberi delle foreste pluviali del Sudest asiatico. Questa necessità, secondo Tully, portò alla distruzione complessiva di circa 88 milioni di alberi fino all’inizio del Novecento, quando la guttaperca cominciò a essere progressivamente sostituita da altri materiali, che ancora oggi comportano comunque costi ambientali estremamente elevati.Una serie di cavi telefonici sottomarini vengono posati lungo un tratto del fiume Charles a Boston, di fronte alla baia del Massachusetts, il 21 aprile 1952 (AP Photo)Oltre alle responsabilità dei costi ambientali esiste anche una questione relativa ai rischi di danni accidentali alla rete, provocati a loro volta dagli altri utilizzi intensivi degli oceani: spedizioni, pesca, estrazione di petrolio, gas e minerali in acque profonde, per esempio. Come esiste anche il rischio di danni provocati intenzionalmente, per atti di terrorismo o in contesti di guerra, o causati da eventi meteorologici estremi legati agli effetti del cambiamento climatico. Secondo Ranganathan e altri esperti il diritto del mare non offre sufficienti protezioni contro tutti questi rischi: perché l’infrastruttura si trova in quella complicata e indistinta zona del diritto a metà tra la proprietà privata e l’interesse pubblico, e perché le leggi sottolineano la libertà di posare cavi ma forniscono indicazioni molti limitate sui diritti e le responsabilità che ne derivano.– Leggi anche: Dobbiamo preoccuparci di più di cavi e tubi sottomarini?Un’altra questione rispetto alla quale gli strumenti forniti dal diritto del mare risultano limitati e inadatti riguarda le sorgenti idrotermali: fratture nelle profondità oceaniche da cui fuoriesce acqua riscaldata e in cui si trovano molti minerali preziosi, scoperte negli anni Settanta in corrispondenza di aree vulcaniche attive. Le sorgenti ospitano ecosistemi molto rari e forniscono sostanze essenziali per microrganismi che per sopravvivere in mancanza di luce solare non utilizzano la fotosintesi ma la chemiosintesi (un processo di conversione di sostanze inorganiche, derivate da particolari reazioni chimiche, in sostanze organiche ed energia).Queste parti del pianeta, che non ricadono sotto alcuna giurisdizione nazionale, rappresentano un punto di interesse per il possibile sfruttamento delle risorse: dalle fratture sgorgano minerali sempre più richiesti dall’industria mondiale, tra cui manganese, rame, ferro, nichel, cobalto, oro e argento, che precipitano e si depositano sul fondale formando lastre e tumuli. Ma rappresentano anche un’opportunità per la ricerca scientifica e una preziosa fonte di informazioni sulle condizioni in cui la vita potrebbe aver avuto origine. Proprio per questo, alcune aree in corrispondenza delle sorgenti idrotermali potrebbero ottenere protezione dall’UNESCO attraverso l’assegnazione del titolo di Patrimonio mondiale dell’umanità.Un veicolo della National Oceanic and Atmospheric Administration, l’agenzia statunitense che si occupa degli studi meteorologici e oceanici, esplora una formazione idrotermale in acque profonde vicino alle isole Marianne, nell’oceano Pacifico, il 28 aprile 2016 (NOAA/AP)Questo fenomeno naturale, scoperto troppo tardi perché la Convenzione del 1982 potesse tenerne conto e citarlo direttamente, secondo Ranganathan espone in modo molto chiaro una debolezza intrinseca nel trattato: quella di essere basato su «nette classificazioni binarie tra terra e acqua, vita e materia, mobilità e immobilità», e su disposizioni che suddividono l’oceano e il suo contenuto in regimi economici discreti.I minerali dei fondali marini indicati come patrimonio dell’umanità, per esempio, sono posti sotto la giurisdizione dell’Autorità internazionale dei fondali marini (ISA), un ente indipendente istituito dalla Convenzione, peraltro non interessato a proibire l’estrazione mineraria ma solo a limitarne l’impatto ambientale. E per le forme di vita vige invece il principio di libertà del mare, e cioè le disposizioni generali in materia di pesca e, prossimamente, quelle contenute in un accordo sulla conservazione e l’utilizzo sostenibile della diversità biologica marina delle zone al di fuori della giurisdizione nazionale.È tuttavia improbabile, conclude Ranganathan, che le sorgenti idrotermali possano essere inquadrate correttamente nelle normative. In parte le classificazioni assecondano fin dall’origine, regolandolo, un orientamento incline all’estrazione di risorse. Ma le sorgenti idrotermali sfuggono per loro natura a qualsiasi classificazione. Sono luoghi in cui «solidi e liquidi si mescolano e si fondono in modo dinamico», in cui materia e vita sono entità intrecciate, e «mobilità e immobilità sono distinzioni prive di significato», in attesa di conoscenze più approfondite sui processi che avvengono all’interno delle sorgenti.– Leggi anche: Dragheremo gli oceani LEGGI TUTTO

  • in

    Perché alcuni cibi ci disgustano?

    Caricamento playerNelle settimane scorse è circolato molto sui social un test online (in inglese) che cerca di misurare e classificare tramite un’autovalutazione il disgusto per alcuni cibi sulla base dei diversi fattori specifici che lo attivano. Nel test, intitolato Food Disgust Test e sviluppato da una piattaforma (IDRlabs) che pubblica quiz tratti da articoli scientifici, viene chiesto di esprimere approvazione o disapprovazione riguardo a 32 affermazioni del tipo: “Trovo disgustoso mangiare formaggio a pasta dura dalla cui superficie sia stata rimossa la muffa” e “Trovo disgustoso mangiare pesce crudo come il sushi”, ma anche “non bevo dallo stesso bicchiere da cui ha bevuto qualcun altro”.Come specificato dagli autori, il test di sensibilità al disgusto alimentare ha soltanto un valore didattico e non diagnostico (obiettivo per cui è consigliabile rivolgersi eventualmente a specialisti della salute mentale). Ha generato comunque un certo interesse ed è stato ripreso da alcuni siti di informazione per l’opportunità che offre di riflettere su una delle emozioni primarie, il disgusto, e sui condizionamenti sociali, culturali e ambientali che subisce. Questi condizionamenti contribuiscono a determinare la variabilità individuale e collettiva del disgusto alimentare e ne fanno qualcosa di molto più complesso e diverso da un meccanismo evolutivo di difesa dall’ingestione di sostanze tossiche e nocive.Il test circolato su internet si rifà a una classificazione dei fattori di disgusto basata su otto gruppi distinti, proposta nel 2018 da una ricercatrice e un ricercatore del Politecnico federale di Zurigo (ETH), Christina Hartmann e Michael Siegrist. Entrambi si occupano di comportamento dei consumatori, la disciplina che attraverso diverse branche delle scienze sociali (psicologia, sociologia, economia comportamentale, antropologia sociale e altre) studia il modo in cui le emozioni e le preferenze dell’individuo e del gruppo influenzano i comportamenti negli acquisti.Negli studi di Hartmann e Siegrist il disgusto per un certo tipo di cibi o un altro non è inteso come qualcosa che è soltanto o presente o assente, ma come una ripugnanza che può variare di intensità a seconda dei casi. Una delle scale di sensibilità al disgusto alimentare da loro descritte è il grado di sensibilità alla carne animale, che determina la tendenza a provare disgusto per la carne cruda o per le parti degli animali mangiate meno comunemente (le frattaglie, per esempio). Una persona può gradire molto il sapore e la consistenza di una certa pietanza a base di un certo taglio di carne, ma avere un intenso disgusto per pietanze a base di altre parti e tessuti dello stesso animale.Dei diversi fattori di disgusto alimentare, scrivono Siegrist e Hartmann, si ritiene che la sensibilità alla carne sia tra quelli con una più forte base culturale. Per ragioni molto radicate, che possono a loro volta essere influenzate da argomenti relativi ad aspetti religiosi e morali, un certo numero di persone in una determinata società può trovare disgustoso e inaccettabile mangiare carne di animali che invece sono parte della cucina di altri paesi in altre culture.In altri studi sul disgusto alimentare, simili fattori basati su argomenti di ordine culturale e morale sono risultati influenti anche nel caso del disgusto per i prodotti ottenuti tramite nuove biotecnologie, come gli OGM, o per quelli di origine animale considerati inappropriati, come i prodotti a base di insetti. I ricercatori suggeriscono che per molte persone influenzate da questi fattori il disgusto sia tale da renderli sostanzialmente insensibili a eventuali argomenti basati su una valutazione dei rischi e dei benefici dell’introduzione di quegli alimenti.– Leggi anche: Le farine di insetti, spiegateIl genere di disgusto alimentare di cui si sono più occupati Hartmann e Siegrist è però quello alla base di variazioni individuali e di gruppo meno omogenee e prevedibili rispetto a quello mediato da fattori culturali più estesi e condivisi. È in particolare un disgusto attivato da segni che possono essere interpretati in modo diverso da persona a persona. La sensibilità alle muffe indicata da Siegrist e Hartmann come altro possibile fattore di disgusto, per esempio, è un esempio abbastanza chiaro di come un disgusto correlato alla possibile presenza di organismi patogeni possa emergere anche in presenza di muffe che non comportano rischi significativi per la salute.Il disgusto determinato dalla sensibilità alle muffe è un meccanismo di difesa normalmente attivo di fronte ad alimenti potenzialmente dannosi, e cioè quelli su cui si sviluppano muffe che potrebbero renderli non più buoni da mangiare. I formaggi freschi, per esempio, richiedono di essere mangiati entro poche settimane, prima che la muffa favorisca la proliferazione di batteri nocivi. In questo caso il disgusto alimentare è strettamente correlato al disgusto in quanto emozione primaria, in grado cioè di attivare un comportamento necessario alla sopravvivenza: non ingerire il cibo andato a male.– Leggi anche: Partiamo dalle BasiLo stesso disgusto può però manifestarsi anche quando la muffa non comporta concreti rischi per la salute, come nel caso di quella che a volte si forma sulla superficie di formaggi a pasta dura o semidura, come il formaggio svizzero o il cheddar. In questo caso è possibile mangiare il formaggio dopo aver rimosso la parte ammuffita, facendo attenzione a tagliarla via e non a raschiarla (azione che potrebbe aumentare il rischio di contaminare la parte non ammuffita). E ci sono poi anche alcuni tipi di muffe commestibili notoriamente utilizzate per produrre alcuni formaggi, come il Camembert, il Gorgonzola, lo Stilton o altri meno diffusi, che a seconda delle abitudini e dei gusti possono risultare deliziosi ad alcune persone ma sgradevoli ad altre.La ragione evolutiva del disgusto per questo tipo di alimenti è che il deterioramento del cibo, sia quello di origine animale che quello di origine vegetale, è spesso segnalato da cambiamenti di colore, consistenza, odore e sapore. E alimenti che presentano cambiamenti di questo tipo possono quindi indurre una reazione di disgusto, anche quando i cambiamenti non indicano necessariamente la presenza di agenti patogeni, come nel caso di un frutto la cui polpa diventa scura per effetto dell’ossidazione pur rimanendo del tutto commestibile.Un altro fattore di disgusto alimentare descritto da Siegrist e Hartmann non riguarda nemmeno dei cibi specifici bensì le condizioni igieniche relative alla loro preparazione o alla loro assunzione. Anche in questo caso il disgusto deriva da una predisposizione evolutiva a evitare o ridurre rischi di contaminazione del cibo. Ma la soglia di accettabilità delle condizioni igieniche può variare molto, sia tra una cultura e l’altra, sia da persona a persona, e quindi in presenza di pratiche e abitudini alimentari condivise (ci sono persone che non mangiano stuzzichini se sono serviti su un piatto comune, per esempio).Nella letteratura scientifica il disgusto è considerato un’emozione primaria che protegge l’organismo scoraggiando l’ingestione di cibi il cui sapore o aspetto è spesso associato alla presenza di agenti patogeni. Si è quindi evoluto in un meccanismo più complesso, che aiuta a regolare il comportamento in varie situazioni sociali e interpersonali, tenendo conto dei relativi costi e benefici nell’evitare determinati stimoli. E per questa ragione è possibile considerarla «un’emozione dei confini», come ha spiegato la dottoressa e psicoterapeuta Serena Barbieri del centro clinico Spazio FormaMentis di Milano, nel podcast del Post Le Basi, a cura di Isabel Gangitano.È un’emozione che ha originariamente a che fare con la ricerca e la disponibilità di risorse nutrienti necessarie alla sopravvivenza. Non essere abbastanza “disgustati” mentre ci si muove all’interno di un ambiente potrebbe portare a ingerire sostanze nocive. Ma esserlo troppo – non mangiare un frutto un po’ ammaccato – potrebbe limitare le opportunità di nutrimento.Come ricordato dalla neuroscienziata canadese Rachel Herz, esperta nella psicologia degli odori e autrice del libro Perché mangiamo quel che mangiamo, il disgusto è l’unica emozione di base che deve essere «appresa», calibrando la propria reazione agli stimoli sulla base di regole e risposte condivise dai genitori, dagli altri membri del gruppo e dalla cultura in generale. E questa eredità culturale subisce l’influenza dell’ambiente.– Leggi anche: Perché ci piacciono i saponi che sanno di vaniglia e cioccolatoMolti degli alimenti che possono dare disgusto sono quelli ottenuti tramite la fermentazione, il processo in cui gli enzimi di alcuni microrganismi – batteri e funghi, in particolare lieviti e muffe – scompongono lo zucchero presente in un cibo in altre sostanze. È uno dei metodi di conservazione più antichi e relativamente economici al mondo, perché non prevede l’utilizzo di sale o di spezie ma soltanto l’assenza di ossigeno e il passare del tempo.Una delle ragioni per cui alcuni alimenti significano molto per determinate comunità è che contengono qualcosa di essenziale della flora o della fauna di una certa regione, ha scritto Herz. E lo stesso vale per i microrganismi che rendono possibile la fermentazione dei cibi, che variano notevolmente da una parte all’altra del mondo. I batteri utilizzati nella produzione del Kimchi, un piatto coreano a base di cavolo e ravanelli fermentati, non sono gli stessi utilizzati per produrre il formaggio Roquefort.Il disgusto è stato condizionato nel tempo anche dalla disponibilità di nuovi metodi, tecniche e strumenti di conservazione del cibo, dalla pastorizzazione ai frigoriferi, che hanno reso certi tipi di fermentazione meno necessari e diminuito la familiarità delle persone con certi sapori.In uno studio di antropologia, biologia e psicologia pubblicato nel 2021 sulla rivista Proceedings of the National Academy of Sciences, i ricercatori analizzarono i comportamenti di disgusto tra gli Shuar, un popolo indigeno che abita nella regione amazzonica dell’Ecuador e del Perù. E scoprirono che i membri dei gruppi e delle famiglie meno isolate e più integrate nella moderna economia di mercato – quelli che vivevano non di agricoltura, pesca e caccia, ma con un lavoro salariato o vendendo prodotti agricoli – avevano più alti livelli di sensibilità al disgusto, più probabilità di evitare cibo avariato e un minor numero di infezioni batteriche, virali e parassitarie.– Leggi anche: Il gusto del marcio LEGGI TUTTO

  • in

    Di Nikola Tesla si parla moltissimo ancora oggi

    Caricamento playerDopo aver lavorato con Nikola Tesla per un breve periodo a Parigi, tra il 1882 e il 1884, l’inventore inglese Charles Batchelor scrisse in una lettera di referenze indirizzata al suo amico statunitense Thomas Edison: «Conosco due grandi uomini. Uno è lei, Edison, e l’altro è questo giovane». Edison aveva all’epoca 37 anni, ed era già uno degli inventori e imprenditori più noti al mondo, quello che aveva commercializzato e reso la lampada a incandescenza un oggetto di uso comune. Tesla era un ingegnere di origini serbe di dieci anni più giovane, e si era già fatto notare a Parigi in una delle aziende di Edison, la Continental Edison, in cui aveva lavorato con Batchelor.Morto il 7 gennaio 1943, 80 anni fa, Tesla è uno dei personaggi storici più presenti e citati dei nostri tempi. Lo è prima di tutto perché appartiene a un gruppo di inventori le cui intuizioni e innovazioni cambiarono la storia delle scienze applicate tra l’Ottocento e il Novecento, e sono alla base del funzionamento di strumenti che utilizziamo ogni giorno. E lo è perché il suo nome è, tra le altre cose, quello della società statunitense dell’imprenditore Elon Musk nota per aver cambiato in tempi molto più recenti la storia del mercato delle automobili. Ma non solo per tutto questo Tesla è ancora attuale.Dopo la sua morte, ma in modo particolare negli ultimi decenni, Tesla è diventato nella cultura popolare il prototipo del “genio visionario” dell’ingegneria, protagonista di libri e film (anche di successo, come The Prestige) in cui incarna l’ideale dell’inventore audace, anticonformista e incompreso. Ed è diventato un riferimento per molte persone – certamente per Musk – in tempi in cui la definizione stessa di inventore ha assunto contorni via via più sfumati e difficili da cogliere, per un insieme complesso di ragioni storiche, economiche e sociali.Ad aggiungere connotazioni letterarie e a tratti leggendarie alla sua storia contribuiscono sia le vicende della sua vita, non tutta nota e non fatta solo di successi, sia la raccontata rivalità con altri inventori e imprenditori del suo tempo conosciuti quanto o più di lui. La storia complicata e spesso infruttuosa dell’applicazione ingegneristica di alcune sue idee ha inoltre fatto di lui un modello di “genio” diverso da altri, più specifico e definito: quello meno abile o meno incline alla commercializzazione delle proprie intuizioni, diversamente da Edison. E questa caratteristica, insieme a una certa stravaganza e all’isolamento nell’ultima parte della sua vita, ha peraltro favorito il successo recente di Tesla anche tra molti sostenitori di approcci pseudoscientifici e fanatici delle sue idee più bislacche e irrealizzabili.Una sala del museo dedicato a Nikola Tesla a Belgrado, in Serbia (AP Photo/Darko Vojinovic)Tesla nacque il 10 luglio 1856 a Smiljan, un villaggio che oggi è in Croazia e all’epoca era parte dell’Impero austriaco. Suo padre era un ministro di culto ortodosso serbo e sua madre discendeva da una stirpe di inventori. Anche lui era destinato al sacerdozio, per volontà di suo padre, ma a un certo punto contrasse il colera: un evento a cui avrebbe in seguito attribuito molta importanza, come scrisse in un’autobiografia del 1919.Durante uno dei momenti più critici, dove sembrava che mi fosse rimasto pochissimo da vivere, mio padre entrò nella stanza. Ho ancora davanti agli occhi il suo volto pallido mentre tentava di tirarmi su il morale e di tranquillizzarmi. «Forse», dissi, «potrei migliorare se tu mi permettessi di studiare ingegneria». «Allora tu studierai nel miglior istituto tecnico del mondo», solennemente replicò, e sapevo cosa volesse dire.Tesla guarì – «tornai alla vita come una specie di Lazzaro, con grande meraviglia di tutti» – e suo padre mantenne la promessa. Gli permise di studiare ingegneria elettrica al Politecnico di Graz, in Austria. E successivamente Tesla si iscrisse all’Università di Praga, dove per qualche tempo seguì corsi di fisica e matematica avanzata ma senza mai finire gli studi.Descritto come una persona molto curiosa e dalla memoria prodigiosa, Tesla si trasferì a Budapest nel 1881 e trovò lavoro in una società di telegrafi, una tecnologia che però considerava obsoleta e distante dai suoi interessi. Si trasferì quindi a Parigi, nel 1882, dove cominciò a lavorare come ingegnere in una filiale della Edison Continental insieme a Batchelor, l’inventore inglese che un anno prima aveva curato a Parigi l’installazione di una stazione di illuminazione elettrica alla prima Esposizione internazionale dell’elettricità.Grazie all’intercessione di Batchelor, che andò a dirigere la divisione manifatturiera Edison Machine Works a New York, anche Tesla si trasferì negli Stati Uniti nel 1884. All’epoca Edison stava cercando collaboratori che lo aiutassero a migliorare e rendere capillare la distribuzione dell’energia elettrica su larga scala, in tutte le città. Chiese quindi a Tesla e agli altri ingegneri che lavoravano nelle sue aziende di rendere il sistema di distribuzione dell’elettricità più efficiente e sicuro.– Leggi anche: 10 storie di inventori uccisi dalle proprie invenzioniA questo punto, molte biografie di Tesla raccontano che Edison promise un premio spropositato, di 50 mila dollari – equivalente a oltre un milione e mezzo di dollari oggi – all’ingegnere in grado di ottimizzare il generatore di corrente esistente all’epoca. Tesla ci riuscì, dopo mesi di lavoro e dedizione, ed Edison si limitò a un cospicuo aumento di stipendio, senza mantenere la promessa. «Tesla, lei non afferra il senso dell’umorismo americano», gli disse.Quello tra Tesla ed Edison è ancora oggi uno degli scontri più noti e raccontati della storia della scienza: non soltanto per ragioni di personalità differenti e contrapposte, ma per una questione tecnica oggetto della cosiddetta guerra delle correnti. Lo standard dell’epoca nella produzione di energia elettrica – quello che aveva fatto la fortuna di Edison ed era utilizzato nei primi impianti per alimentare piccole reti per l’illuminazione – era il generatore di corrente continua.Semplificando molto, il generatore funzionava grazie a una batteria che era in grado di emettere elettroni in un’unica direzione. Era un sistema semplice da regolare ma aveva una serie di svantaggi, primo tra i quali i costi di trasmissione molto elevati a causa della grande dispersione della corrente lungo i cavi. Di fatto, il raggio utile per la trasmissione era molto ridotto e rendeva necessario costruire una centrale elettrica ogni chilometro o poco più.L’ambizione di Tesla, a conoscenza degli studi e degli esperimenti di altri inventori e scienziati a lui contemporanei, era invece quella di costruire un generatore a corrente alternata: il sistema che ancora oggi rende possibile trasportare la corrente elettrica su lunghe distanze. Sistemando diversamente i fili e il magnete all’interno del generatore era possibile ottenere un sistema che produceva gli stessi risultati – portare l’elettricità nelle case – ma in un modo molto più efficiente. Non era cioè necessario costruire impianti a distanza molta ravvicinata: per illuminare un’intera città ne sarebbe bastato uno situato a 30 chilometri di distanza.– Leggi anche: Perché il caricabatterie del computer portatile si scalda?Tesla lasciò quindi la Edison Continental e fondò una sua società, la Tesla Electric Light & Manufacturing, nel 1886. Cominciò a lavorare alle sue invenzioni e ai suoi primi brevetti, cercando nel frattempo di ottenere finanziamenti che gli permettessero di sviluppare il motore a corrente alternata. Ma per un breve tempo, venuta meno la fiducia dei suoi primi finanziatori, rinunciò ai suoi progetti e lavorò come operaio a New York.Nikola Tesla in una foto del 1900 (Herbert Barraud/Hulton Archive/Getty Images)Le prospettive di successo del generatore a corrente alternata erano peraltro già emerse in precedenza in altre parti del mondo, e in particolare in alcuni esperimenti presentati a Torino nel 1884 durante un’importante mostra internazionale.L’ingegnere e scienziato italiano Galileo Ferraris, coinvolto nell’organizzazione della mostra, aveva studiato i problemi nell’applicazione dell’elettricità fin dalla fine degli anni Settanta. E nel 1885 aveva messo a punto – ma senza brevettarlo – un motore a campo magnetico rotante, un sistema a corrente alternata simile a quello che in seguito Tesla riuscì a brevettare per un uso pratico a livello industriale. Preziosissime e fondamentali per lui furono in particolare la consulenza e la collaborazione dell’imprenditore e inventore statunitense George Westinghouse, convinto dalle dimostrazioni di Tesla ad acquistare molti brevetti già esistenti sulla corrente alternata.Nel frattempo Edison difese a lungo il suo sistema a corrente continua, anche in considerazione degli ingenti investimenti da lui compiuti. E per screditare il sistema di Tesla incentrò una campagna mediatica, a tratti molto aggressiva, sulla sicurezza della corrente continua e sui pericoli dell’alta tensione dei generatori a corrente alternata. Quello stesso sistema fu peraltro utilizzato per mettere a punto nuovi strumenti per l’esecuzione delle condanne a morte, tra cui la sedia elettrica, con il parere favorevole dello stesso Edison, che aveva un interesse nell’associare nell’opinione pubblica la corrente alternata a uno strumento letale per definizione.La campagna di Edison non servì a molto: i sistemi di illuminazione a corrente alternata sviluppati dalla Westinghouse Electric si diffusero per le strade degli Stati Uniti già dal 1887. E tramite appositi trasformatori quel sistema non creò significativi problemi di sicurezza. L’invenzione del motore a corrente alternata e i relativi brevetti, acquistati da Westinghouse, rivale di Edison, portarono a Tesla non soltanto gli ambiti riconoscimenti nella comunità degli inventori ma anche ingenti guadagni, prima di ottenere nel 1891 la cittadinanza statunitense.Proprio in quegli anni Tesla diventò noto per le dimostrazioni pubbliche spettacolari delle altre invenzioni a cui stava lavorando e per cui cercava di attirare l’interesse dei finanziatori. E si interessò a molti fenomeni che lo portarono a sviluppare idee e progetti e condurre esperimenti considerati oggi contributi fondamentali per altre scoperte scientifiche, tra cui la comunicazione a distanza tramite onde elettromagnetiche, alla base dell’invenzione della radio. Altri studi da lui condotti inoltre sui raggi X, la cui scoperta nel 1895 è attribuita al fisico tedesco Wilhelm Röntgen, permisero a Tesla di comprendere in particolare la pericolosità dell’esposizione prolungata ai raggi.Questi interessi ed esperimenti portarono Tesla ad approfondire, tra le altre cose, l’idea innovativa di trasmettere energia elettrica senza fili, creando un campo magnetico tra circuiti fisicamente separati. Lo stesso principio è alla base della bobina di Tesla (o “trasformatore risonante”), un dispositivo da lui inventato che permette di produrre elettricità a corrente alternata tra circuiti elettrici accoppiati in risonanza. Funziona in sistemi posti a corte distanze ma Tesla era convinto potesse servire a sviluppare energia anche a lungo raggio (gli sviluppi più attuali di questa tecnologia presentano molti limiti noti già all’epoca).– Leggi anche: L’elettricità wirelessLa rivalità tra Tesla ed Edison continuò a esercitare fascino ed essere oggetto di curiosità e interesse per lungo tempo. Intervistato dal New York Times il giorno dopo la morte di Edison, avvenuta il 18 ottobre 1931, Tesla disse di lui:Non aveva hobby, non aveva nessun interesse per alcun tipo di divertimento, e viveva nel totale disprezzo delle più elementari norme igieniche. Non c’è dubbio che se non avesse sposato in seguito una donna di eccezionale intelligenza, che ebbe come unico scopo della sua vita quello di preservarlo, sarebbe morto molti anni fa per le conseguenze della totale negligenza. Tanto grande e incontrollabile era la sua passione per il lavoro.La scarsa attenzione all’igiene di Edison non doveva peraltro suonare troppo sorprendente da parte di Tesla: uno che, come scrisse Margaret Cheney, autrice della biografia Tesla. Un uomo fuori dal tempo, usava 18 tovaglioli puliti a ogni pasto, aveva una «paura morbosa dei germi» ed era «perseguitato da una moltitudine di altre strane ossessioni».Nel 1899 aveva lasciato New York per trasferirsi a Colorado Springs, un posto isolato in cui poter condurre liberamente i suoi esperimenti in spazi più ampi. In quel laboratorio in Colorado era riuscito a portare avanti alcuni degli studi per cui è citato nella storia della scienza, ma soprattutto i progetti più ambiziosi, irrealizzabili e strampalati. Furono questi a procurargli infine, dopo i successi e i riconoscimenti della prima parte della sua vita, una reputazione da scienziato pazzo, peraltro favorita dalle sue ossessioni.Nikola Tesla durante un’intervista per il suo 79° compleanno, a New York, il 10 luglio 1935 (AP Photo)A un certo punto, la sua convinzione di aver registrato segnali radio extraterrestri era stata una delle ragioni della sua progressiva perdita di credibilità nella comunità scientifica. E le strutture utilizzate per costruire vicino a Manhattan la Wardenclyffe Tower, un costosissimo e fallimentare progetto di trasferimento di energia senza fili cofinanziato dal banchiere John Pierpont Morgan, erano infine state smantellate e vendute per ripagare i debiti di Tesla con il fisco.Una delle fissazioni più note di Tesla era quella per il numero tre, di cui peraltro aveva scritto nella sua autobiografia del 1919.Ho contato tutti i gradini che ho percorso e ho calcolato il volume contenuto in tutti i piatti da minestra e nelle tazzine da caffè, oltre a quello delle porzioni di cibo: il pasto altrimenti non sarebbe potuto essere piacevole. Oltretutto tutti questi atti ripetuti e operazioni che eseguivo dovevano essere sempre divisibili per tre, e se questo non accadeva mi sentivo spinto a ricalcolare tutto di nuovo, anche se questo mi richiedeva molte ore.Tesla trascorse gli ultimi anni della sua vita sempre più indebitato e in solitudine, alloggiando in alberghi malmessi. Nelle sue stanze lasciava entrare i piccioni, un’altra delle sue ossessioni: dava loro da mangiare e sosteneva di riuscire a comunicare con alcuni di loro. Morì a 86 anni nel New Yorker Hotel, l’albergo di Manhattan in cui viveva stabilmente dal 1934: nella stanza 3327, al 33° piano, entrambi numeri divisibili per tre. LEGGI TUTTO