More stories

  • in

    La statistica falsa sull’80% della biodiversità protetta dagli indigeni

    Caricamento playerChi si interessa di ambiente potrebbe aver sentito dire che l’80 per cento della biodiversità del pianeta si trova nelle terre abitate dalle popolazioni indigene, che secondo le stime più diffuse comprendono oltre 370 milioni di persone in circa 70 paesi. Negli ultimi vent’anni questa statistica è circolata sia su pubblicazioni autorevoli che tra i gruppi ambientalisti e sui media, ma in base a uno studio pubblicato a inizio settembre sulla rivista Nature è sbagliata. Per quanto sia sicuro che le popolazioni indigene abbiano un ruolo essenziale nella tutela degli ecosistemi naturali, non ci sono prove scientifiche che sostengono quella statistica, che peraltro è di per sé problematica: la biodiversità infatti non è qualcosa che si possa quantificare con precisione.
    Lo studio è stato realizzato da tredici scienziati provenienti principalmente dall’Università autonoma di Barcellona e dall’Università australiana Charles Darwin, tre dei quali si identificano come persone indigene. Il gruppo ha usato le piattaforme Google Scholar e Web of Science per individuare i testi in cui comparivano le parole “indigeni”, “80 per cento” e “biodiversità”, oppure loro variazioni, come “ottanta per cento” o “diversità biologica”: ha così trovato 384 risultati che hanno formulazioni leggermente diverse dello stesso concetto, tra cui 186 articoli scientifici rivisti da altri esperti con la cosiddetta peer review e pubblicati anche su riviste molto prestigiose, come The Lancet e la stessa Nature.
    Il primo riferimento riscontrato dai ricercatori risale al 2002, quando la Commissione dell’ONU per lo sviluppo sostenibile diceva che le popolazioni indigene «si prendevano cura dell’80 per cento della biodiversità del mondo nelle terre e nei territori ancestrali». Da allora la statistica è stata usata in moltissime occasioni per sottolineare il ruolo delle popolazioni indigene nella conservazione dell’ambiente e come potrebbe essere preso a modello, per esempio in un rapporto del 2009 della FAO, l’organizzazione delle Nazioni Unite per l’alimentazione e l’agricoltura. È circolata così tanto e su fonti così autorevoli che nel 2020 la piattaforma online di fact checking Gigafact l’ha “dichiarata” vera; nel 2022 l’ha citata anche il noto regista James Cameron per pubblicizzare Avatar – La via dell’acqua, che come il primo film del 2009 parla di una civiltà di umanoidi blu in perfetta simbiosi con la natura.
    Il leader indigeno Raoni Metuktire in posa per una foto a Belem, nello stato brasiliano di Pará, il 5 agosto del 2023 (REUTERS/ Ueslei Marcelino)
    Stephen Garnett e Álvaro Fernández-Llamazares, due degli autori, hanno spiegato in un articolo pubblicato su The Conversation che la statistica sembra derivare da interpretazioni errate di studi precedenti, oppure ancora da sintesi affrettate. In base alle analisi dei ricercatori l’affermazione cominciò a diffondersi in particolare dopo la pubblicazione di un rapporto della Banca Mondiale nel 2008. Il fatto è che la fonte citata dalla Banca Mondiale è una pubblicazione del 2005 di un’organizzazione non profit di Washington DC (World Resources Institute), in cui però si parlava di sette popolazioni indigene delle Filippine che «gestivano oltre l’80 per cento della biodiversità originale» di una foresta.
    La fonte del rapporto della FAO invece non è chiara, ma sempre secondo lo studio potrebbe arrivare dall’edizione del 2001 dell’Enciclopedia della Biodiversità, dove comunque si diceva una cosa diversa: cioè che «quasi l’80 per cento delle regioni naturali terrestri è abitato da una o più popolazioni indigene», e non che «circa l’80 per cento della biodiversità restante sul pianeta si trova nei territori delle popolazioni indigene», come detto dalla FAO. In ogni caso quando la statistica comparve per la prima volta la superficie delle terre e delle acque di pertinenza delle popolazioni indigene non era ancora stata mappata, e per questo non sarebbe stato possibile determinare nemmeno quale percentuale di biodiversità contenesse.
    Un grafico dei testi che citano la statistica in base ai dati raccolti nello studio (dal sito di Nature)
    Per gli scienziati dire che l’80 per cento della biodiversità si trova nei territori delle popolazioni indigene non ha comunque basi scientifiche perché si parte da due presupposti sbagliati, ovvero che la biodiversità si possa suddividere in singole unità misurabili e che queste unità si possano mappare con precisione. Nessuna delle due cose però si può definire in maniera accurata.
    Intanto la Convenzione sulla diversità biologica – cioè il trattato per lo sviluppo di strategie per la tutela dell’ambiente firmato da quasi 200 paesi nel 1992 – definisce la biodiversità come le diversità nell’ambito delle specie, tra le specie e tra gli ecosistemi, quindi è difficile da descrivere con criteri univoci. In più anche i tentativi di definire la biodiversità in base alla quantità di specie presenti e di loro individui sono per necessità delle approssimazioni.
    Come ha spiegato al Guardian Erle Ellis, scienziato ambientale all’Università del Maryland, i modelli statistici impiegati per descrivere un fenomeno in biologia sono utili ma non affidabili, soprattutto su ampia scala. Gli autori dello studio di Nature ricordano inoltre che le informazioni sulla quantità e sulla distribuzione geografica delle specie sono necessariamente incomplete, visto che moltissime non sono ancora state studiate e descritte: quelle relative ai territori abitati dalle popolazioni indigene, remoti se non inesplorati, lo sono a maggior ragione.

    – Leggi anche: Non è facile capirsi su chi siano gli “indigeni”

    Lo studio ha richiesto cinque anni di lavoro ed è stato svolto anche attraverso discussioni negli eventi dedicati al tema e ricerche sul campo. I leader di alcune popolazioni indigene sentiti dai ricercatori hanno confermato di non avere prove a sostegno di questa statistica, mentre altri ne hanno preso le distanze. Solo due dei testi esaminati la mettevano in dubbio, dicono i ricercatori: uno di questi era una pubblicazione del Consorzio ICCA, un’organizzazione internazionale che promuove il riconoscimento dei territori delle popolazioni indigene e delle comunità locali.
    Secondo Garnett e Fernández-Llamazares ci sono «ampie prove per dire che le popolazioni indigene e i loro territori sono essenziali per la biodiversità del mondo», ma «la reale portata del loro contributo non può essere quantificata in un solo numero». A detta dei ricercatori l’affermazione sull’80 per cento rischia non solo di vanificare la solidità degli studi scientifici, ma anche di danneggiare l’obiettivo per cui viene citata, ovvero comprendere e sostenere le conoscenze dei popoli indigeni sul tema della conservazione della biodiversità e tutelare i loro diritti.
    Per valutare l’impatto delle popolazioni indigene nella tutela della biodiversità in un certo ecosistema o in una certa regione, serve anche e soprattutto prendere in considerazione le relazioni culturali, storiche e sociali stabilite tra i popoli indigeni e l’ambiente circostante, dicono i ricercatori: e questo può avvenire solo riconoscendo i loro territori e le loro comunità, coinvolgendoli nei processi decisionali e finanziando prima di tutto le loro iniziative.
    Sempre a detta di Garnett e Fernández-Llamazares citare una statistica sbagliata, al contrario, può implicare il rischio di snobbare gli appelli delle popolazioni indigene in tema di ambiente e lasciar sottendere che la conoscenza sui loro territori sia completa ed esaustiva, quando non lo è. Inoltre, come è successo a un evento internazionale a cui hanno partecipato i ricercatori, le espone a critiche sulla qualità della loro gestione da parte di chi collega il fatto che tutelerebbero una percentuale elevatissima di biodiversità al declino di molte specie.

    – Leggi anche: L’importanza dell’erba alta LEGGI TUTTO

  • in

    In Austria centinaia di rondini sono morte per il maltempo e il freddo

    Caricamento playerIn Austria il maltempo e l’abbassamento delle temperature legati alla tempesta Boris hanno fatto danni anche tra gli uccelli migratori che si trovavano ancora nel paese, in particolare le rondini: sia a Vienna che in altre località sono state trovate centinaia di uccelli morti. Il freddo improvviso e i venti provenienti da sud li hanno bloccati a nord delle Alpi, poi le piogge intense e prolungate li hanno indeboliti, perché non hanno consentito loro di mangiare. Le diverse specie di rondini infatti mangiano gli insetti che catturano in volo e durante i temporali più forti non riescono a volare e non possono trovarne.

    L’organizzazione Tierschutz Austria, che si occupa di protezione degli animali, sta cercando di soccorrere quante più rondini possibili e attraverso i propri canali sui social network ha invitato chiunque abbia recuperato rondini cadute a terra a portarle alla propria sede per ospitarle in condizioni che ne permettano la sopravvivenza. La specie più interessata è il balestruccio (Delichon urbicum), che sverna in Africa a sud del deserto del Sahara; le rondini comuni (Hirundo rustica) infatti avevano già cominciato la migrazione, ha detto Stephan Scheidl di Tierschutz Austria a ORF News, il sito di notizie della radiotelevisione pubblica.
    Nelle condizioni di maltempo molte rondini si radunano sotto i tetti o i cornicioni dei palazzi nel tentativo di scaldarsi stando vicine, per questo gli uccelli morti sono stati spesso trovati vicini. Alcuni non sono riusciti a ripararsi a causa dei dissuasori per piccioni usati nelle città.

    In passato era già successo che delle condizioni meteorologiche simili a quelle di questi giorni impedissero alle rondini di migrare. Nel 1974 per cercare di salvare la vita a centinaia di rondini la NABU, un’organizzazione tedesca analoga alla LIPU, ne organizzò il trasporto in treno e su un aereo di linea Lufthansa, ma solo pochi uccelli sopravvissero.
    La tempesta Boris ha causato alluvioni in vari paesi dell’Europa centrale – Romania, Polonia, Repubblica Ceca e Austria – e la morte di almeno 15 persone. Per quanto riguarda le rondini non esiste al momento una stima precisa di quante siano morte. LEGGI TUTTO

  • in

    Weekly Beasts

    Un paio degli animali fotografati questa settimana si trovavano al Toronto International Film Festival: un alano di nome Bing alla proiezione del film di cui è protagonista, The Friend, sdraiato sul red carpet, e un lama al guinzaglio alla prima di Saturday Night. Poi ci sono due mucche che fissano una cicogna, un cucciolo di ippopotamo pigmeo, due capibara e altrettanti cervi dalla coda bianca. Per finire con capre alpine, uccelli in volo e altri in acqua. LEGGI TUTTO

  • in

    C’è anche l’effetto nocebo

    Caricamento playerTra gli spazi delle parole che state leggendo in questo momento sono stati inseriti particolari simboli non osservabili direttamente, ma che per come sono organizzati stimolano una specifica area del cervello causando progressivamente un forte senso di nausea. L’effetto inizia a essere percepito dopo una trentina di spazi, quindi dovreste iniziare a sentire un po’ di nausea, oppure avete letto con attenzione il titolo e il sommario di questo articolo e non ci siete cascati. Tra le parole non ci sono strani simboli invisibili e tanto meno ne esistono in grado di causare la nausea, ma a volte la suggestione di un possibile effetto negativo è più che sufficiente per indurre una reazione e avere esperienza di quello che viene definito “effetto nocebo”.
    Come suggerisce il nome, questo effetto è l’esatto contrario del più conosciuto effetto placebo, che porta invece a pensare di avere benefici in seguito all’utilizzo di una particolare sostanza, anche se questa in realtà non fa nulla. È un fenomeno noto e studiato da tempo, diventato per esempio molto importante per valutare l’efficacia di un nuovo farmaco nella sua fase sperimentale, mentre l’effetto nocebo ha ricevuto meno attenzioni anche a causa dei problemi etici che pone la creazione di condizioni in cui si possa manifestare.
    Luigi XVI è famoso soprattutto per la fine che fece sulla ghigliottina qualche anno dopo la Rivoluzione francese a fine Settecento, ma quando era ancora re fu involontariamente protagonista dei primi esperimenti che portarono alla scoperta dell’effetto placebo e nocebo. Si era infatti fatto incuriosire dal “mesmerismo”, la pratica ideata dal medico di origini tedesche Franz Mesmer che sosteneva di poter alleviare i sintomi di varie malattie utilizzando dei magneti, in modo da condizionare il passaggio dei fluidi nell’organismo.
    Il mesmerismo oggi ci appare come ciarlataneria, ma con le ancora scarse conoscenze della fisiologia umana nel Settecento non suonava più implausibile di altre tecniche, come per esempio i salassi con le sanguisughe. Luigi XVI non era comunque convinto e, visto che la pratica spopolava a Parigi, istituì una commissione per mettere alla prova il mesmerismo. A capo della commissione fu messo Benjamin Franklin, scienziato e politico statunitense, che all’epoca era ambasciatore degli Stati Uniti in Francia.
    Insieme al resto della commissione, Franklin organizzò una serie di esperimenti per provare a distinguere gli effetti sull’immaginazione di quelle particolari pratiche dagli eventuali effetti fisici. In uno degli esperimenti ai partecipanti veniva detto di essere sottoposti a trattamenti magnetici, anche se in realtà non lo erano. Il trattamento previsto da Mesmer non veniva quindi effettuato, eppure alcuni partecipanti mostravano lo stesso alcuni degli effetti indesiderati che venivano solitamente segnalati durante i trattamenti con i magneti.
    Il mesmerismo pratico a Parigi, in una stampa d’epoca settecentesca (Wikimedia)
    Nel documento finale, la commissione aveva quindi segnalato al re che i risultati solitamente attribuiti al mesmerismo erano in realtà semplicemente dovuti all’immaginazione dei pazienti, che si suggestionavano al punto da percepire alcuni degli effetti collaterali del trattamento. Gli esperimenti avevano quindi permesso di scoprire l’effetto nocebo, anche se all’epoca il termine non era ancora utilizzato. Il lavoro di Franklin e colleghi aveva poi mostrato come sia gli effetti negativi sia quelli positivi, cioè l’effetto placebo, potessero emergere in contemporanea in base alle aspettative dei pazienti. In altre parole, i pazienti si aspettavano di dover affrontare qualche effetto avverso nel corso del trattamento per arrivare agli effetti positivi, comunque frutto della loro immaginazione.
    Gli studi sull’effetto placebo si fecero via via più rigorosi nel corso dell’Ottocento, ma fu necessario attendere gli anni Trenta prima che emergessero elementi più chiari sul nocebo. Il medico statunitense Harold Diehl aveva notato che alcune persone segnalavano di avere degli effetti collaterali anche dopo l’assunzione di una sostanza che credevano servisse a qualcosa, anche se in realtà non faceva nulla. Mentre studiava il raffreddore comune, notò che alcune persone segnalavano di avere effetti aversi anche dopo l’assunzione di pillole a base di zucchero o di un finto vaccino.
    Negli anni dopo la Seconda guerra mondiale agli studi di Diehl si aggiunsero ricerche più articolate, nate spesso dall’osservazione dei pazienti che partecipavano ai test per verificare l’efficacia di farmaci e trattamenti. I volontari venivano di solito divisi in gruppi che ricevevano il vero farmaco o una sostanza che non faceva nulla, in modo da verificare gli eventuali benefici del farmaco rispetto a nessuna terapia. Oltre alla quota di chi segnalava di sentirsi meglio dopo l’assunzione del finto farmaco (effetto placebo), c’era quasi sempre qualcuno che diceva di avere patito gli effetti collaterali (effetto nocebo), dei quali magari aveva sentito parlare mentre veniva informato prima di accedere alla sperimentazione.
    Nel 1955 il medico statunitense Henry Beecher dedicò parte dei propri studi a quelli che definì i “placebo tossici”, elencando gli effetti indesiderati segnalati più di frequente dalle persone che avevano assunto un placebo. La lista comprendeva mal di testa, nausea e secchezza delle fauci e indusse altri gruppi di ricerca a occuparsi della questione.
    All’inizio degli anni Sessanta il ricercatore statunitense Walter Kennedy utilizzò per la prima volta la parola “nocebo”, dal verbo latino “noceo” (“nuocere”) in contrapposizione alla già utilizzata parola placebo, in questo caso dal verbo latino “placeo” (“dare piacere, sollievo”). Kennedy scrisse che nocebo deve essere inteso come la risposta soggettiva di un individuo, come qualità propria del paziente e non della sostanza che ha assunto. La definizione avrebbe ricevuto diverse modifiche e interpretazioni nel corso del tempo e ancora oggi è dibattuta, vista la difficoltà nel valutare cause e meccanismi dell’insorgere di effetti negativi non indotti direttamente da qualcosa.
    Le attuali conoscenze sui rapporti causa/effetto e sulle correlazioni nell’assunzione di farmaci, per esempio, suggeriscono che un placebo non contiene di per sé nessuna sostanza che possa causare un peggioramento dei sintomi di chi la assume o l’insorgenza di ulteriori malesseri. Di conseguenza, si tende a interpretare quell’insorgenza come il frutto di una reazione soggettiva dovuta alle aspettative da parte di chi ha assunto il placebo.
    Comprendere confini e caratteristiche dell’effetto nocebo non è comunque semplice. Alcune ricerche hanno segnalato che non ci sono elementi per ritenere che alcune persone siano soggette più di altre al fenomeno, così come non sono emersi elementi anticipatori tali da poter prevedere chi sia più soggetto all’effetto nocebo. Si è però notato che fornire molte informazioni ai partecipanti alle sperimentazioni sugli effetti avversi, per esempio nel caso dei test su un nuovo farmaco, può contribuire a fare emergere una maggiore incidenza del fenomeno. Ridurre l’effetto nocebo fornendo meno informazioni sarebbe però impensabile ed eticamente discutibile, considerato che chi si sottopone a una sperimentazione deve sottoscrivere un consenso informato.
    La recente pandemia da coronavirus ha comunque offerto un’opportunità per effettuare test clinici su grande scala, tali da rendere poi possibili alcuni studi e analisi statistiche sui loro risultati. È emerso per esempio che il 72 per cento degli effetti avversi segnalati in seguito alla somministrazione di una prima dose fasulla del vaccino contro il coronavirus era riconducibile all’effetto nocebo.
    A differenza di un virus, l’effetto nocebo sembra abbia comunque qualche capacità di trasmettersi da una persona all’altra semplicemente per via mentale. Nel 1998 in una scuola superiore del Tennessee, un’insegnante segnalò di sentire uno strano odore in classe e dopo un po’ di tempo iniziò ad accusare mal di testa, nausea e difficoltà a respirare. Alcuni degli studenti nella classe iniziarono ad avere gli stessi sintomi, così come altre persone che frequentavano la scuola.
    Circa duecento persone furono portate in ospedale per accertamenti, ma dagli esami non emerse nulla di strano, né fu trovata alcuna sostanza nociva nella scuola tale da causare quei sintomi. L’insegnante si era convinta che ci fosse qualcosa di strano nell’aria e aveva trasmesso ad altri studenti quella convinzione. Questi ultimi, a loro volta, avevano “contagiato” altri compagni semplicemente sentendo di avere i medesimi sintomi. Era un caso di malattia psicogena di massa, condizione che secondo certi ricercatori può essere ricondotta ai meccanismi che si verificano con l’effetto nocebo.
    I casi di malattia psicogena di massa (quella che un tempo veniva anche definita “isteria di massa”) riguardano spesso particolari rituali e per questo alcuni antropologi utilizzano i concetti di placebo e nocebo per spiegare alcuni comportamenti. I riti che vengono per esempio eseguiti per “curare” o portare qualche tipo di benefici vengono indicati come “rituali placebo”, contrapposti ai “rituali nocebo” dove invece si effettuano rituali per procurare qualche danno per esempio nel caso di particolari rituali di “magia nera”. Razionalmente, la difesa migliore in questi casi è semplicemente non crederci, ma non è sempre semplice. LEGGI TUTTO

  • in

    Da quando lo abbiamo scoperto per caso usiamo il Teflon ovunque

    Caricamento playerNella notte di venerdì 6 settembre una capsula spaziale è tornata sulla Terra vuota, dopo che la NASA non si era fidata a utilizzarla per portare indietro dall’orbita due astronauti, ora costretti a rimanere sulla Stazione Spaziale Internazionale fino al prossimo anno. La navicella, che si chiama Starliner ed è stata realizzata da Boeing, aveva mostrato di avere problemi ad alcuni propulsori necessari per manovrarla, forse a causa di un malfunzionamento delle loro valvole rivestite di Teflon, il materiale conosciuto principalmente per essere usato anche nei rivestimenti antiaderenti delle padelle.
    Che sia impiegato in orbita o in cucina, o ancora per sviluppare gli arsenali atomici, il Teflon accompagna le nostre esistenze nel bene e nel male da quasi 90 anni. Il suo uso intensivo, seguito a una scoperta del tutto casuale, ha avuto un ruolo in importanti progressi tecnologici, ma ha anche generato un importante problema ambientale e fatto sollevare dubbi sulla sua sicurezza per la nostra salute.
    Il politetrafluoroetilene, la lunga catena di molecole (polimero) che dopo la sua scoperta sarebbe stata chiamata con il più semplice nome commerciale Teflon (ci sono anche altri marchi, meno noti), probabilmente non esisterebbe se non fossero stati inventati i frigoriferi. Alla fine degli anni Venti, negli Stati Uniti la nascente refrigerazione domestica aveva un problema non da poco: le frequenti esplosioni. Per fare funzionare questi elettrodomestici venivano utilizzati gas refrigeranti che potevano infatti facilmente esplodere, oppure che in caso di perdite potevano intossicare le abitazioni in cui erano installati.
    La scarsa affidabilità dei gas refrigeranti utilizzati all’epoca rischiava di compromettere la crescita del settore e di conseguenza i produttori si misero alla ricerca di alternative migliori. Occorreva un gas refrigerante che funzionasse bene alle temperature degli ambienti domestici e a una pressione non troppo alta; il gas non doveva essere tossico e nemmeno altamente infiammabile. Un ricercatore incaricato dalla società Frigidaire valutò vari elementi della tavola periodica e concluse che il candidato ideale come punto di partenza potesse essere il fluoro, che forma un legame chimico molto forte con il carbonio. Questa caratteristica permetteva di sviluppare una sostanza che fosse stabile e poco reattiva, di conseguenza anche con bassa tossicità, come era stato dimostrato in precedenza in alcuni esperimenti.
    Fu da quella intuizione che nacque una famiglia di composti chimici cui ci si riferisce generalmente col nome commerciale “Freon”. Era il primo passo nello sviluppo di altri composti, i clorofluorocarburi, che regnarono indisturbati all’interno dei sistemi refrigeranti dei frigoriferi e non solo per circa mezzo secolo, fino agli anni Ottanta quando fu scoperto il loro ruolo nel causare una diminuzione dello strato di ozono, il famoso “buco nell’ozono”. Grazie a una convenzione internazionale, il loro impiego fu abbandonato e sostituito con altri composti, rendendo possibile il ripristino di buona parte dell’ozono.
    Negli anni Trenta nessuno aveva idea che quei gas potessero causare qualche danno, si sapeva soltanto che il loro impiego era ideale per costruire frigoriferi più sicuri e affidabili. Per Frigidaire, che deteneva la proprietà del Freon, c’erano grandi opportunità commerciali, ma non per la concorrenza ancora ferma ai refrigeranti precedenti. Alcuni produttori si rivolsero quindi a DuPont, grande e potente marchio dell’industria chimica statunitense, chiedendo se fosse possibile trovare un nuovo refrigerante altrettanto competitivo. I tecnici della società si misero al lavoro e orientarono le loro ricerche sui composti del fluoro, proprio come aveva fatto Frigidaire.
    Una pubblicità degli anni Venti del Novecento di Frigidaire
    Come racconta un articolo dello Smithsonian Magazine, i primi tentativi furono fallimentari, ma portarono all’imprevista scoperta di qualcosa di nuovo:
    Il 6 aprile del 1938 un gruppo di chimici di DuPont si radunò intorno all’oggetto del loro ultimo esperimento: un semplice cilindro di metallo. Avrebbe dovuto contenere del tetrafluoroetilene, un gas inodore e incolore. Ma quando i chimici aprirono la valvola, non uscì alcun tipo di gas. Qualcosa era andato storto. Rimasero per un po’ perplessi. Il cilindro pesava comunque di più di quanto pesasse da vuoto, ma sembrava proprio che non ci fosse nulla al suo interno. Alla fine, qualcuno suggerì di tagliare il cilindro per aprirlo e vedere che cosa fosse successo. Trovarono che il suo interno era ricoperto da una polvere bianca scivolosa.
    I chimici di DuPont erano alla ricerca di un gas refrigerante, quindi non diedero molto peso all’accidentale produzione di quella polvere e proseguirono con i loro esperimenti. Qualche anno dopo, per motivi che in parte sfuggono ancora a causa dei documenti tenuti segreti dagli Stati Uniti, quella strana sostanza che oggi chiamiamo Teflon ebbe un ruolo importante nello sviluppo della prima bomba atomica nell’ambito del Progetto Manhattan.
    Per le attività di ricerca e sviluppo del programma atomico statunitense erano necessarie importanti quantità di plutonio e uranio, ma la loro produzione non era semplice. Per ottenere uranio arricchito il processo richiedeva l’impiego di chilometri di tubature in cui far fluire un gas – l’esafluoruro di uranio – altamente corrosivo che degradava rapidamente le valvole e le guarnizioni degli impianti. Alcuni dipendenti di DuPont che lavoravano a un altro progetto spiegarono probabilmente ai responsabili dell’impianto di avere scoperto in passato una sostanza che poteva a fare al caso loro vista la sua composizione chimica e quella dell’esafluoruro di uranio: il Teflon.
    Il rivestimento fu sperimentato e si rivelò effettivamente ideale per proteggere le tubature dell’impianto, rendendo possibili i progressi nella produzione di uranio per il Progetto Manhattan. Il sistema sarebbe stato impiegato anche dopo la fine della Seconda guerra mondiale per le successive iniziative legate alle tecnologie nucleari negli Stati Uniti.
    L’impianto a Oak Ridge, Tennessee (Stati Uniti), dove si produceva l’uranio per il Progetto Manhattan (Wikimedia)
    Quelle prime esperienze avevano permesso a DuPont di comprendere meglio le caratteristiche del Teflon e la sua resistenza a molti composti e alle alte temperature. Fu però necessario attendere i primi anni Cinquanta perché venissero proposti i primi utilizzi del Teflon in cucina per realizzare prodotti antiaderenti. Una decina di anni dopo, iniziarono a essere messe in commercio le prime padelle rivestite di Teflon sia negli Stati Uniti sia in Europa, con la promessa di ridurre il rischio di far attaccare il cibo alle superfici di cottura e di semplificarne la pulizia. Quando si sviluppò una maggiore sensibilità sul mangiare “sano” e con pochi grassi, padelle e pentole antiaderenti furono promosse come l’occasione per cucinare utilizzando meno condimenti visto che il cibo non si attaccava al rivestimento di Teflon.
    Ma il Teflon non rimase relegato alle cucine, anzi. Oltre ai numerosi impieghi in ambito industriale, compresi quelli nell’industria aerospaziale, il materiale fu sfruttato per sviluppare un nuovo tipo di tessuto sintetico, al tempo stesso impermeabile e traspirante: il Gore-Tex, dal nome di Wilbert e Robert Gore che lo avevano inventato alla fine degli anni Sessanta. Oggi il Gore-Tex è presente in una miriade di prodotti, dalle scarpe agli impermeabili passando per le attrezzature da montagna, a conferma della versatilità e dei molti usi possibili del Teflon.
    La pubblicità di una sega rivestita di Teflon, nel 1968
    E fu proprio il successo del Teflon a spingere l’industria chimica a cercare prodotti con proprietà simili portando alla nascita di una nuova classe di composti, le sostanze perfluoroalchiliche e polifluoroalchiliche note in generale come PFAS. Come il politetrafluoroetilene, anche queste sono formate da catene di atomi di carbonio con un forte legame con quelli di fluoro. I PFAS sono molto stabili termicamente e chimicamente, di conseguenza si disgregano con difficoltà e possono rimanere a lungo nell’ambiente o negli organismi nei quali si accumulano. Vengono spesso definiti “forever chemicals” proprio per questo motivo e il loro impatto, anche sulla salute umana, è stato molto discusso negli ultimi anni man mano che si raccoglievano maggiori dati sulla loro permanenza nell’ambiente.
    Le maggiori conoscenze hanno portato a iniziative legali in varie parti del mondo, per esempio da parte delle comunità che vivono nelle vicinanze degli impianti che producono o utilizzano i PFAS (in Italia una delle aree maggiormente interessate è tra le province di Padova e Verona, in Veneto). Nell’Unione Europea e negli Stati Uniti le istituzioni lavorano per mettere al bando alcune tipologie di PFAS, ma i provvedimenti riguardano spesso specifiche sostanze sugli oltre 6mila composti noti appartenenti a questa classe. Ciò significa che in alcuni casi ci sono possibilità di aggirare i divieti, ricorrendo a sostanze simili non ancora vietate o con forti limitazioni per il loro impiego.
    Dentro al grande insieme dei PFAS ci sono comunque sostanze molto diverse tra loro, ciascuna con le proprie caratteristiche anche per quanto riguarda l’eventuale pericolosità. I produttori sostengono per esempio che trattandosi di un polimero molto lungo, quello del Teflon non dovrebbe essere fonte di particolari preoccupazioni, visto che difficilmente l’organismo umano potrebbe assorbirlo. L’orientamento delle istituzioni è inoltre di limitare i PFAS a catena corta, che si ritiene potrebbero avere più facilmente conseguenze sull’organismo.
    Nei processi produttivi, compresi quelli per realizzare il Teflon, si utilizzano comunque PFAS formati da polimeri più corti, che possono comunque finire nell’ambiente. Quelli più lunghi possono deteriorarsi in catene di molecole più corte per esempio se sono esposti agli elementi atmosferici, come avviene in una discarica. In generale, comunque, il fatto che i PFAS abbiano un impatto ambientale è ormai acclarato, mentre si sta ancora cercando di capire la sua portata per la nostra salute e quella degli ecosistemi.
    Sulla sicurezza del Teflon erano stati sollevati comunque dubbi anche in passato, visto che questa sostanza entra in contatto con le preparazioni che poi mangiamo. È noto che il politetrafluoroetilene inizia a deteriorarsi a temperature superiori ai 260 °C e che la sua decomposizione inizia a circa 350 °C. Le temperature che raggiungono pentole e padelle per cucinare gli alimenti sono ampiamente al di sotto dei 260 °C e per questo si ritiene che ci sia un rischio minimo di entrare in contatto con sostanze pericolose (come il PFOA), che si sviluppano quando il Teflon inizia a decomporsi.
    Il Teflon e i suoi derivati sono talmente diffusi negli oggetti che ci circondano che a oggi sembra quasi impossibile immaginare un mondo senza la loro presenza. Le vendite di Teflon sono nell’ordine dei 3 miliardi di dollari l’anno e si prevede che la domanda continuerà ad aumentare, arrivando a 4 miliardi di dollari entro i prossimi primi anni Trenta, a poco meno di un secolo dalla sua accidentale scoperta. LEGGI TUTTO

  • in

    Il grande tsunami che non ha visto nessuno

    Caricamento playerA settembre del 2023 le stazioni di rilevamento dei terremoti in buona parte del mondo registrarono una strana attività sismica diversa da quelle solitamente rilevate, e che durò per circa nove giorni. Il fenomeno era così singolare e insolito da essere classificato come un “oggetto sismico non identificato” (USO), un po’ come si fa con gli avvistamenti aerei di oggetti difficili da definire, i famosi UFO. Dopo circa un anno, quel mistero è infine risolto e lo studio del fenomeno ha permesso di scoprire nuove cose sulla propagazione delle onde sismiche nel nostro pianeta, sugli tsunami, sugli effetti del cambiamento climatico e sulla perdita di enormi masse di roccia e ghiaccio.
    L’onda sismica era stata rilevata dai sismometri a partire dal 16 settembre 2023 e aveva una forma particolare, più semplice e uniforme di quelle che solitamente si registrano in seguito a un terremoto. Era una sorta di rumore di fondo ed era stata registrata in diverse parti del mondo: i sensori delle stazioni di rilevamento sono molto sensibili e la Terra dopo un terremoto “risuona”, dunque si possono rilevare terremoti anche a grande distanza da dove sono avvenuti. Nei giorni in cui l’onda continuava a essere rilevata e poi ancora nelle settimane seguenti, iniziarono a emergere alcuni indizi su quale potesse essere la causa dell’USO. Il principale indiziato era un fiordo dove si era verificata una grande frana che aveva portato a un’onda anomala e a devastazioni a diversi chilometri di distanza.
    Tutto aveva avuto infatti inizio in una delle aree più remote del pianeta lungo la costa orientale della Groenlandia, più precisamente dove inizia il fiordo Dickson. È un’insenatura lunga circa 40 chilometri con una forma particolare a zig zag, che termina con una curva a gomito qualche chilometro prima di immettersi nel fiordo Kempes, più a oriente. Niente di strano o singolare per una costa frastagliata e intricatissima, con centinaia di fiordi, come quella della Groenlandia orientale.

    Sulla costa, qualche chilometro prima della curva a gomito, c’era un rilievo di circa 1.200 metri affacciato su parte del ghiacciaio sottostante che raggiunge poi l’insenatura. A causa dell’aumento della temperatura, il ghiacciaio non era più in grado di sostenere il rilievo, che a settembre dello scorso anno era quindi collassato producendo un’enorme slavina con un volume stimato intorno ai 25 milioni di metri cubi di detriti (circa dieci volte la Grande Piramide di Giza in Egitto).
    Questa grande massa di ghiaccio e rocce si tuffò nel fiordo spingendosi fino a 2 chilometri di distanza e producendo uno tsunami che raggiunse un’altezza massima stimata di 200 metri. A causa della particolare forma a zig-zag del fiordo, l’onda non raggiunse l’esterno dell’insenatura e continuò a infrangersi al suo interno per giorni, producendo uno sciabordio (più precisamente una “sessa”) che fu poi rilevato dai sismometri incuriosendo infine alcuni esperti di terremoti in giro per il mondo.

    Come ha spiegato il gruppo di ricerca che ha messo insieme tutti gli indizi in uno studio pubblicato su Science, con la collaborazione di 68 sismologi in 15 paesi diversi, dopo pochi minuti dalla prima grande onda lo tsunami si ridusse a circa 7 metri e nei giorni seguenti sarebbe diventato di pochi centimetri, ma sufficienti per produrre onde sismiche rilevabili a causa della grande massa d’acqua coinvolta. Per pura coincidenza nelle settimane prima del collasso del rilievo un gruppo di ricerca aveva collocato alcuni sensori nel fiordo per misurarne la profondità, inconsapevole sia del rischio che stava correndo in quel tratto dell’insenatura sia di creare le condizioni per raccogliere dati che sarebbero stati utili per analizzare lo tsunami che si sarebbe verificato poco tempo dopo.
    Per lo studio su Science, il gruppo di ricerca internazionale ha infatti realizzato un proprio modello al computer per simulare l’onda anomala e ha poi confrontato i dati della simulazione con quelli reali, trovando molte corrispondenze per confermare le teorie iniziali sulle cause dell’evento sismico. L’andamento stimato dell’onda, compresa la sua riduzione nel corso del tempo, corrispondeva alle informazioni che potevano essere dedotte dalle rilevazioni sismiche.
    La ricerca ha permesso di approfondire le conoscenze sulla durata e sulle caratteristiche che può assumere uno tsunami in certe condizioni di propagazione, come quelle all’interno di un’insenatura. Lo studio di questi fenomeni riguarda spesso grandi eventi sismici, come quello che interessò il Giappone nel 2011, e che tendono a esaurirsi in alcune ore in mare aperto. L’analisi di fenomeni su scala più ridotta, ma comunque rilevante per la loro portata, può offrire nuovi elementi per comprendere meglio in generale sia gli tsunami sia le cause di alcuni eventi insoliti.

    La frana è stata inoltre la più grande a essere mai stata registrata nella Groenlandia orientale, hanno detto i responsabili della ricerca. Le onde hanno distrutto un’area un tempo abitata da una comunità Inuit, che si era stabilita nella zona circa due secoli fa. Il fatto che l’area fosse rimasta pressoché intatta fino allo scorso settembre indica che nel fiordo non si verificavano eventi di grande portata da almeno duecento anni.
    Su Ella, un’isola che si trova a circa 70 chilometri da dove si è verificata la frana, lo tsunami ha comunque causato la distruzione di parte di una stazione di ricerca. L’isola viene utilizzata da scienziati e dall’esercito della Danimarca, che ha sovranità sulla Groenlandia, ma era disabitata al momento dell’ondata.
    In un articolo di presentazione della loro ricerca pubblicato sul sito The Conversation, gli autori hanno ricordato che l’evento iniziale si è verificato in pochi minuti, ma che le sue cause sono più antiche: «Sono stati decenni di riscaldamento globale ad avere fatto assottigliare il ghiacciaio di diverse decine di metri, facendo sì che il rilievo soprastante non fosse più stabile. Al di là della particolarità di questa meraviglia scientifica, questo evento mette in evidenza una verità più profonda e inquietante: il cambiamento climatico sta riplasmando il nostro pianeta e il nostro modo di fare scienza in modi che solo ora iniziamo a comprendere».
    Il gruppo di ricerca ha anche segnalato come fino a qualche anno fa sarebbe apparsa assurda l’ipotesi che una sessa potesse durare per nove giorni, «così come un secolo fa il concetto che il riscaldamento globale potesse destabilizzare dei versanti nell’Artico, portando a enormi frane e tsunami. Eventi di questo tipo vengono ormai registrati annualmente proprio a causa dell’aumento della temperatura media globale, delle estati artiche con temperature spesso al di sopra della media e a una maggiore presenza del ghiaccio stagionale rispetto a un tempo. LEGGI TUTTO

  • in

    La prima storica “passeggiata spaziale” privata

    Per la prima volta nella storia due astronauti non professionisti hanno effettuato una “passeggiata spaziale” (attività extraveicolare o EVA) gestita da una società privata.L’iniziativa è stata organizzata nell’ambito della missione Polaris Dawn iniziata martedì 10 settembre, con il lancio da Cape Canaveral in Florida della capsula spaziale Crew Dragon di SpaceX. A bordo della navicella ci sono quattro persone compreso il miliardario Jared Isaacman, che ha finanziato buona parte del viaggio.
    Attualmente Crew Dragon si trova in un’orbita ellittica che porta la capsula ad avere una distanza minima dalla Terra di circa 190 chilometri e ad allontanarsi dal nostro pianeta fino a una distanza di 700 chilometri. Nelle prime fasi della missione, Crew Dragon si era spinta fino a 1.400 chilometri, il punto più distante nello Spazio mai raggiunto da un equipaggio in più di 50 anni, cioè dalla fine del programma spaziale Apollo della NASA per raggiungere la Luna (che si trova a quasi 400mila chilometri dalla Terra).
    L’EVA è stata effettuata da Isaacman e da Sarah Gillis, un’ingegnera di SpaceX, mentre all’interno della capsula sono rimasti i loro due compagni di viaggio: Scott Poteet, un ex pilota di aerei militari, e Anna Menon, un’altra ingegnera di SpaceX. Per la loro escursione all’esterno della capsula, Isaacman e Gillis hanno indossato tute sperimentali progettate da SpaceX per resistere all’ambiente spaziale. Sono state sviluppate partendo dalle tute solitamente utilizzate dagli astronauti che grazie a Crew Dragon possono raggiungere la Stazione Spaziale Internazionale, nell’ambito degli accordi commerciali tra SpaceX e la NASA.
    Le tute non hanno sistemi autonomi di erogazione dell’ossigeno e di mantenimento della pressione, per compensare il vuoto pressoché totale dell’ambiente spaziale. Sono collegate alla capsula attraverso tubi e cavi che permettono il trasferimento dell’ossigeno e dell’azoto, nonché dell’energia necessaria per far funzionare le altre strumentazioni. Dopo circa 40 minuti di preparazione, Isaacman e Gillis sono usciti a turno da un portellone sulla sommità di Crew Dragon e sono rimasti all’esterno della capsula per 15-20 minuti ciascuno. Oltre a essere un’importante prima volta per una missione privata, l’EVA ha lo scopo di verificare la tenuta e l’affidabilità delle tute di SpaceX in vista delle prossime missioni.
    Di solito le EVA richiedono tempi lunghi di preparazione proprio perché gli astronauti devono abituarsi a condizioni di pressione diverse da quelle tipicamente presenti all’interno dei veicoli spaziali (nella tuta la pressione è inferiore per evitare che questa sia troppo rigida, al punto da ostacolare i movimenti). Sulla ISS chi deve compiere l’attività extraveicolare, per esempio, passa attraverso una camera d’equilibrio (airlock) in modo che ci sia un ambiente intermedio tra la Stazione e lo Spazio. L’astronauta si chiude alle spalle il portellone della ISS e apre un secondo portellone verso l’esterno, in modo che la Stazione continui a essere isolata dall’ambiente spaziale (altrimenti perderebbe ossigeno e pressurizzazione con esiti catastrofici per gli altri occupanti).
    Jared Isaacman poco dopo la sua uscita dalla capsula Crew Dragon (SpaceX)
    Su Crew Dragon non c’è un airlock, quindi tutti i quattro membri di Polaris Dawn hanno indossato le tute per rimanere isolati dall’esterno. Al termine del test e dopo la chiusura del portellone impiegato per l’EVA, la pressione all’interno di Crew Dragon è stata ripristinata insieme alla giusta concentrazione di ossigeno per permettere ai suoi occupanti di togliere le tute e proseguire la missione. Fin dall’inizio della missione le condizioni di pressione e la percentuale di azoto erano state progressivamente ridotte, per quanto in modo lieve, per favorire l’acclimatamento in vista dell’EVA, riducendo il rischio di problemi di compensazione per l’equipaggio.
    Le attività extraveicolari sono relativamente sicure e gli astronauti delle principali agenzie spaziali ne hanno effettuate centinaia in quasi 70 anni di storia dell’esplorazione dello Spazio. I rischi naturalmente non mancano e riguardano soprattutto la tenuta delle tute e la possibilità di chi le indossa di muoversi senza troppi impedimenti, soprattutto in una situazione di emergenza.
    L’attività di oggi ha un importante valore storico perché segna l’inizio di una nuova fase delle esplorazioni spaziali da parte dei privati, finora limitate. L’esito del test non era scontato considerato che le tute di SpaceX non erano mai state sperimentate prima nell’ambiente spaziale, né Crew Dragon in una condizione in cui il suo interno viene esposto all’ambiente spaziale per diversi minuti.
    La vista dal casco di Jared Isaacman durante l’EVA (SpaceX)
    Per Isaacman non è la prima volta nello Spazio. Nel settembre del 2021 aveva già raggiunto l’orbita con la missione Inspiration4, sempre gestita da SpaceX e in compagnia di altre tre persone, nessuna delle quali faceva l’astronauta di professione per conto dei governi e di istituzioni pubbliche, come è quasi sempre avvenuto dagli albori delle esplorazioni spaziali oltre 60 anni fa. Come era accaduto con Inspiration4, anche per Polaris Dawn né Isaacman né SpaceX hanno fatto sapere i costi dell’iniziativa, comunque nell’ordine di decine di milioni di dollari, senza contare i costi per lo sviluppo di alcune nuove tecnologie da parte di SpaceX.
    Fino a oggi solamente alcuni astronauti della NASA, dell’Agenzia spaziale europea (ESA) e di quelle del Canada, della Russia e della Cina avevano effettuato un’EVA, per esempio per la costruzione e la manutenzione delle stazioni orbitali costruite nel tempo intorno alla Terra, superando grandi difficoltà tecniche e gestendo i molti rischi che derivano dal trovarsi nel vuoto pressoché totale dello Spazio. Le tute per farlo sono in sostanza delle piccole astronavi da indossare, ce ne sono poche e sono estremamente costose, ma SpaceX come altre aziende private vuole cambiare le cose.
    Polaris Dawn ha una durata di cinque giorni con una quarantina di esperimenti da effettuare a bordo, molti dei quali orientati a valutare gli effetti della permanenza nello Spazio sull’organismo – come si fa da anni sulla ISS – e a sperimentare nuove tecnologie che potrebbero essere impiegate in futuro nelle missioni di lunga durata verso la Luna e forse un giorno Marte. Al termine della missione, Crew Dragon si tufferà al largo della costa della Florida, dove una squadra di recupero si occuperà di riportare sulla terraferma la capsula e i suoi quattro occupanti. Isaacman e SpaceX hanno in programma almeno altre due missioni, ma non hanno ancora fornito informazioni sulle modalità e sui tempi, che in parte dipenderanno dai risultati ottenuti con questa missione. LEGGI TUTTO

  • in

    Ci servirebbe una macchina che annusa

    Gli odori hanno un ruolo centrale nella nostra percezione del mondo, eppure buona parte del funzionamento dell’olfatto rimane un mistero. Sappiamo che microscopiche strutture (i recettori) nel naso rilevano le sostanze in sospensione nell’aria che respiriamo e inviano un segnale al cervello, che elabora quell’informazione dandoci la consapevolezza di avere appena percepito un odore, ma non comprendiamo ancora perfettamente come. Osmo, una società statunitense con grandi finanziatori come Google, dice di avere fatto importanti progressi per risolvere il mistero insegnando alle macchine a riconoscere gli odori, naturalmente usando sistemi di intelligenza artificiale.Il capo di Osmo è Alex Wiltschko, un neurobiologo originario del Texas che ha fatto fortuna in California lavorando diversi anni a Google, prima che da una delle divisioni di ricerca della società nascesse la sua start-up. Fin da ragazzino Wiltschko era ossessionato dai profumi, al punto da averne una piccola collezione ed essere incuriosito dal modo in cui ciascuno di noi li percepisce, con una certa componente di soggettività. Fu quella curiosità a spingerlo a studiare neurobiologia e a conseguire un dottorato, che però non riuscì a mettere a frutto in ambito accademico, dove non sembrava esserci molto interesse per la biologia dell’olfatto.
    Wiltschko lasciò l’università, lavorò in varie società e infine trovò impiego a Google Research, dedicata alla ricerca di prodotti innovativi, dove divenne il responsabile di un gruppo di lavoro che si occupava di “olfatto digitale”. La sua idea, che avrebbe poi continuato a sviluppare con Osmo, era di creare un sistema per mappare gli odori, sviluppando sensori e sistemi informatici per la loro identificazione e in prospettiva per lo sviluppo di nuove molecole. Le applicazioni potrebbero essere molteplici, dalla produzione di profumi alla ricerca di deterrenti più efficaci contro gli insetti, passando per sensori in grado di diagnosticare malattie in base all’odore prodotto dai pazienti.
    Per lungo tempo l’olfatto ha ricevuto meno attenzioni rispetto ad altri sensi come la vista e l’udito, forse anche a causa della sua enorme e talvolta sfuggente complessità. I nostri occhi vedono una certa porzione della luce, definibile e misurabile, così come le nostre orecchie percepiscono i suoni con una frequenza compresa in un certo intervallo, anche in questo caso misurabile e analizzabile. Per l’olfatto è tutto più complicato: le sostanze che stimolano la nostra percezione sono potenzialmente miliardi e ciò che rende possibile identificarle, i recettori, sono strutture minuscole con una grande varietà di forme e funzioni. Si stima che siano almeno 400, contro i due tipi di recettori che rendono possibile la visione.
    Secondo Wiltschko, l’unico modo per padroneggiare una tale complessità è costruire una mappa, come del resto abbiamo fatto per definire la varietà di colori che possono vedere i nostri occhi o i suoni che possiamo percepire con le orecchie. Le mappe sono una delle invenzioni più efficaci per ridurre la complessità, o per lo meno per costruirne più livelli via via più articolati e dettagliati. La semplificazione che offre una cartina di un quartiere cittadino è ideale per essere gestita con le nostre conoscenze e capacità mentali, ma più una mappa diventa articolata più è difficile navigarla e per questo Osmo lavora con sistemi di intelligenza artificiale in grado di produrre la mappa stessa e di orientarsi al suo interno.
    (James Glossop/WPA Pool/Getty Images)
    I cartografi degli odori sono partiti da alcuni cataloghi di profumi realizzati negli anni, che descrivono sia la struttura delle molecole che producono determinati odori sia le loro caratteristiche quando vengono inalati: fruttato, legnoso, affumicato e così via. I cataloghi più grandi comprendono migliaia di molecole, ma non è sempre semplice trovare relazioni tra loro in modo da poterli organizzare in una mappa, che per esempio comprenda un’isola di odori che evocano la sensazione del fresco e un’altra dello stantio. Due composti chimici estremamente simili tra loro possono produrre due odori completamente diversi, mentre due molecole con strutture molto diverse tra loro possono produrre odori simili.
    Osmo ha quindi fatto allenare un sistema di intelligenza artificiale in modo che da quei cataloghi organizzasse gli odori in una mappa con circa 5mila punti, collegati tra loro su più livelli e da utilizzare per provare a prevedere le caratteristiche di altri odori non compresi nei cataloghi stessi partendo unicamente dalle caratteristiche della loro molecola. Una volta realizzato, il modello è stato messo alla prova confrontando le sue previsioni con le valutazioni di un gruppo di volontari.
    A 15 persone sono state proposte alcune centinaia di aromi, con la richiesta di odorarli e di descriverli scegliendo da un elenco di cinquanta parole come “tropicale” e “affumicato”. La percezione degli odori è soggettiva, ma nel complesso nelle valutazioni c’era la prevalenza di determinate parole. Il gruppo di ricerca ha poi confrontato le descrizioni fornite dai volontari con quelle prodotte dal sistema di intelligenza artificiale, che si basavano esclusivamente sull’interpretazione della struttura delle molecole di quegli aromi. Lo studio scientifico in cui è raccontato l’esperimento ha segnalato che l’AI riesce a fare un lavoro di identificazione e mappatura migliore di quello che riesce a fare una persona addestrata per catalogare gli odori.
    Il modello sviluppato da Osmo ha ricevuto grandi attenzioni, ma la società è distante da un uso commerciale. Nella percezione degli odori sono coinvolti molti altri fattori legati al funzionamento dei recettori e degli enzimi che intervengono sui composti che inaliamo con l’aria. La grande varietà di recettori implica che ci possano essere interazioni tra loro di tipo diverso a seconda delle sostanze, con esiti che variano da persona a persona. È il motivo per cui alcuni percepiscono come più intensi alcuni profumi, al punto da trovarli fastidiosi rispetto ad altri. Districarsi in queste sfumature è difficile, ma Wiltschko ritiene che la capacità di una AI di navigare e organizzare la complessità possa essere la risposta. Un tipo di risposta molto conveniente.
    Le valutazioni variano molto, ma si stima che il mercato dei profumi abbia un valore annuo intorno ai 30 miliardi di dollari. È un settore particolarmente remunerativo soprattutto per i produttori di cosmetici e profumi, con alti ricarichi resi possibili soprattutto dalle collaborazioni delle società che li sviluppano con i grandi marchi di moda. Trovare le giuste combinazioni di aromi sta però diventando sempre più difficile perché si faticano a trovare nuove molecole.
    (Justin Sullivan/Getty Images)
    Le società che se ne occupano investono ingenti quantità di denaro per sintetizzarne di nuove, ma poche si rivelano poi adatte per essere impiegate in un profumo. Alcune non sono persistenti a sufficienza dopo l’applicazione sulla pelle, altre sono poco stabili o si disgregano troppo facilmente quando sono miscelate con altri composti. Una nuova molecola di sintesi deve essere inoltre testata per verificarne la sicurezza, con regole che variano a seconda dei paesi. Può quindi accadere che un composto che sembrava molto promettente debba essere accantonato dopo anni di sviluppo, rendendo fallimentare l’investimento iniziale.
    In futuro i sistemi sviluppati da Osmo, e da altre società che seguono approcci simili, potrebbero essere impiegati per sviluppare velocemente nuove molecole usando le loro articolate mappe degli odori. L’idea è che si possa chiedere al sistema un aroma di cedro maturato al Sole nell’aria salmastra del Mediterraneo d’estate, ottenendo come risposta la formula chimica delle sostanze per realizzarla. In ultima istanza, potrebbe essere il sistema stesso a provvedere alla sua sintesi, uno scenario che per i più scettici è da fantascienza allo stato attuale delle conoscenze e delle tecnologie.
    I modelli basati sulle AI potrebbero rivelarsi utili anche per sviluppare nuovi sistemi per l’analisi e la rivelazione degli odori. Macchinari di questo tipo esistono già da tempo, ma di solito sono altamente specializzati nel riconoscere determinate sostanze. I cosiddetti “nasi elettronici” sono impiegati per esempio per rilevare gli inquinanti presenti nell’aria come il diossido di azoto o il monossido di carbonio, o per valutare l’impatto olfattivo di impianti industriali nelle prossimità dei centri abitati. Non esistono però nasi elettronici versatili e con capacità paragonabili a quelle del nostro olfatto, e soprattutto non forniscono descrizioni delle sensazioni che evocano le sostanze odorose.
    Oltre ai recettori che abbiamo nel naso, la nostra esperienza con gli aromi è fortemente legata all’attività cerebrale. Il nostro cervello è estremamente abile nell’interpretare i segnali che riceve quando odoriamo qualcosa e alcune persone hanno capacità più spiccate di altre. L’”ipersomia” è una condizione che determina questa capacità e può portare a esiti sorprendenti, come la capacità di distinguere l’odore di una malattia degenerativa, prima che questa diventi evidente in chi ne è affetto. Imitando questa capacità si potrebbero quindi realizzare nasi elettronici per aiutare i medici nella diagnosi precoce di alcune malattie, intervenendo con le terapie prima ancora della comparsa di alcuni sintomi.
    Un naso elettronico basato sull’intelligenza artificiale come quello cui sta lavorando Osmo potrebbe rivelarsi utile anche per un altro tipo di prevenzione. Ogni anno in tutto il mondo ci sono circa 250 milioni di casi di malaria trasmessa dalle zanzare, con oltre 600mila morti annue per la malattia. Intervenire sulle popolazioni di zanzare e sui metodi per prevenire il loro morso è essenziale per ridurre i contagi e di conseguenza i decessi, ma fare prevenzione è costoso e richiede grandi sforzi organizzativi, non sempre praticabili nelle aree più povere del mondo. Un migliore repellente contro le zanzare potrebbe fare la differenza.
    Reti per ridurre il rischio di contagi da malaria dovuti alle zanzare in una capanna in Cambogia nel 2010 (Paula Bronstein/Getty Images)
    Per questo la Bill & Melinda Gates Foundation, che finanzia da anni progetti per contrastare la diffusione della malaria, ha investito 3,5 milioni di dollari in Osmo scommettendo sulle capacità dei suoi sistemi per sviluppare in futuro repellenti di nuova generazione contro le zanzare. Questi insetti trovano le loro prede, per lo più gli esseri umani, grazie a recettori estremamente sensibili all’anidride carbonica e ad altre sostanze volatili che produciamo con la traspirazione.
    I repellenti le mascherano in modo da risultare meno appetibili alle zanzare, ma contengono sostanze da utilizzare con cautela e c’è il sospetto che generazione dopo generazione le zanzare abbiano iniziato ad adattarsi e a non trovarle più repellenti come un tempo. Conoscendo il funzionamento dei recettori delle zanzare, i sistemi di Osmo e quelli sviluppati da altre società potrebbero essere impiegati per sviluppare sostanze per eluderli e che al tempo stesso richiedano meno precauzioni per il loro utilizzo rispetto ai repellenti attuali.
    Wiltschko aveva iniziato a lavorare con i sistemi di intelligenza artificiale ben prima che iniziasse l’euforia degli ultimi anni, spinta soprattutto dai successi di ChatGPT di OpenAI. Il maggiore interesse verso queste tecnologie ha comunque favorito gli investimenti anche nel settore in cui è attiva Osmo, che dovrà quindi confrontarsi con altre aziende e start-up interessate a risolvere il mistero dell’olfatto, o almeno a provarci. LEGGI TUTTO