More stories

  • in

    C’è anche l’effetto nocebo

    Caricamento playerTra gli spazi delle parole che state leggendo in questo momento sono stati inseriti particolari simboli non osservabili direttamente, ma che per come sono organizzati stimolano una specifica area del cervello causando progressivamente un forte senso di nausea. L’effetto inizia a essere percepito dopo una trentina di spazi, quindi dovreste iniziare a sentire un po’ di nausea, oppure avete letto con attenzione il titolo e il sommario di questo articolo e non ci siete cascati. Tra le parole non ci sono strani simboli invisibili e tanto meno ne esistono in grado di causare la nausea, ma a volte la suggestione di un possibile effetto negativo è più che sufficiente per indurre una reazione e avere esperienza di quello che viene definito “effetto nocebo”.
    Come suggerisce il nome, questo effetto è l’esatto contrario del più conosciuto effetto placebo, che porta invece a pensare di avere benefici in seguito all’utilizzo di una particolare sostanza, anche se questa in realtà non fa nulla. È un fenomeno noto e studiato da tempo, diventato per esempio molto importante per valutare l’efficacia di un nuovo farmaco nella sua fase sperimentale, mentre l’effetto nocebo ha ricevuto meno attenzioni anche a causa dei problemi etici che pone la creazione di condizioni in cui si possa manifestare.
    Luigi XVI è famoso soprattutto per la fine che fece sulla ghigliottina qualche anno dopo la Rivoluzione francese a fine Settecento, ma quando era ancora re fu involontariamente protagonista dei primi esperimenti che portarono alla scoperta dell’effetto placebo e nocebo. Si era infatti fatto incuriosire dal “mesmerismo”, la pratica ideata dal medico di origini tedesche Franz Mesmer che sosteneva di poter alleviare i sintomi di varie malattie utilizzando dei magneti, in modo da condizionare il passaggio dei fluidi nell’organismo.
    Il mesmerismo oggi ci appare come ciarlataneria, ma con le ancora scarse conoscenze della fisiologia umana nel Settecento non suonava più implausibile di altre tecniche, come per esempio i salassi con le sanguisughe. Luigi XVI non era comunque convinto e, visto che la pratica spopolava a Parigi, istituì una commissione per mettere alla prova il mesmerismo. A capo della commissione fu messo Benjamin Franklin, scienziato e politico statunitense, che all’epoca era ambasciatore degli Stati Uniti in Francia.
    Insieme al resto della commissione, Franklin organizzò una serie di esperimenti per provare a distinguere gli effetti sull’immaginazione di quelle particolari pratiche dagli eventuali effetti fisici. In uno degli esperimenti ai partecipanti veniva detto di essere sottoposti a trattamenti magnetici, anche se in realtà non lo erano. Il trattamento previsto da Mesmer non veniva quindi effettuato, eppure alcuni partecipanti mostravano lo stesso alcuni degli effetti indesiderati che venivano solitamente segnalati durante i trattamenti con i magneti.
    Il mesmerismo pratico a Parigi, in una stampa d’epoca settecentesca (Wikimedia)
    Nel documento finale, la commissione aveva quindi segnalato al re che i risultati solitamente attribuiti al mesmerismo erano in realtà semplicemente dovuti all’immaginazione dei pazienti, che si suggestionavano al punto da percepire alcuni degli effetti collaterali del trattamento. Gli esperimenti avevano quindi permesso di scoprire l’effetto nocebo, anche se all’epoca il termine non era ancora utilizzato. Il lavoro di Franklin e colleghi aveva poi mostrato come sia gli effetti negativi sia quelli positivi, cioè l’effetto placebo, potessero emergere in contemporanea in base alle aspettative dei pazienti. In altre parole, i pazienti si aspettavano di dover affrontare qualche effetto avverso nel corso del trattamento per arrivare agli effetti positivi, comunque frutto della loro immaginazione.
    Gli studi sull’effetto placebo si fecero via via più rigorosi nel corso dell’Ottocento, ma fu necessario attendere gli anni Trenta prima che emergessero elementi più chiari sul nocebo. Il medico statunitense Harold Diehl aveva notato che alcune persone segnalavano di avere degli effetti collaterali anche dopo l’assunzione di una sostanza che credevano servisse a qualcosa, anche se in realtà non faceva nulla. Mentre studiava il raffreddore comune, notò che alcune persone segnalavano di avere effetti aversi anche dopo l’assunzione di pillole a base di zucchero o di un finto vaccino.
    Negli anni dopo la Seconda guerra mondiale agli studi di Diehl si aggiunsero ricerche più articolate, nate spesso dall’osservazione dei pazienti che partecipavano ai test per verificare l’efficacia di farmaci e trattamenti. I volontari venivano di solito divisi in gruppi che ricevevano il vero farmaco o una sostanza che non faceva nulla, in modo da verificare gli eventuali benefici del farmaco rispetto a nessuna terapia. Oltre alla quota di chi segnalava di sentirsi meglio dopo l’assunzione del finto farmaco (effetto placebo), c’era quasi sempre qualcuno che diceva di avere patito gli effetti collaterali (effetto nocebo), dei quali magari aveva sentito parlare mentre veniva informato prima di accedere alla sperimentazione.
    Nel 1955 il medico statunitense Henry Beecher dedicò parte dei propri studi a quelli che definì i “placebo tossici”, elencando gli effetti indesiderati segnalati più di frequente dalle persone che avevano assunto un placebo. La lista comprendeva mal di testa, nausea e secchezza delle fauci e indusse altri gruppi di ricerca a occuparsi della questione.
    All’inizio degli anni Sessanta il ricercatore statunitense Walter Kennedy utilizzò per la prima volta la parola “nocebo”, dal verbo latino “noceo” (“nuocere”) in contrapposizione alla già utilizzata parola placebo, in questo caso dal verbo latino “placeo” (“dare piacere, sollievo”). Kennedy scrisse che nocebo deve essere inteso come la risposta soggettiva di un individuo, come qualità propria del paziente e non della sostanza che ha assunto. La definizione avrebbe ricevuto diverse modifiche e interpretazioni nel corso del tempo e ancora oggi è dibattuta, vista la difficoltà nel valutare cause e meccanismi dell’insorgere di effetti negativi non indotti direttamente da qualcosa.
    Le attuali conoscenze sui rapporti causa/effetto e sulle correlazioni nell’assunzione di farmaci, per esempio, suggeriscono che un placebo non contiene di per sé nessuna sostanza che possa causare un peggioramento dei sintomi di chi la assume o l’insorgenza di ulteriori malesseri. Di conseguenza, si tende a interpretare quell’insorgenza come il frutto di una reazione soggettiva dovuta alle aspettative da parte di chi ha assunto il placebo.
    Comprendere confini e caratteristiche dell’effetto nocebo non è comunque semplice. Alcune ricerche hanno segnalato che non ci sono elementi per ritenere che alcune persone siano soggette più di altre al fenomeno, così come non sono emersi elementi anticipatori tali da poter prevedere chi sia più soggetto all’effetto nocebo. Si è però notato che fornire molte informazioni ai partecipanti alle sperimentazioni sugli effetti avversi, per esempio nel caso dei test su un nuovo farmaco, può contribuire a fare emergere una maggiore incidenza del fenomeno. Ridurre l’effetto nocebo fornendo meno informazioni sarebbe però impensabile ed eticamente discutibile, considerato che chi si sottopone a una sperimentazione deve sottoscrivere un consenso informato.
    La recente pandemia da coronavirus ha comunque offerto un’opportunità per effettuare test clinici su grande scala, tali da rendere poi possibili alcuni studi e analisi statistiche sui loro risultati. È emerso per esempio che il 72 per cento degli effetti avversi segnalati in seguito alla somministrazione di una prima dose fasulla del vaccino contro il coronavirus era riconducibile all’effetto nocebo.
    A differenza di un virus, l’effetto nocebo sembra abbia comunque qualche capacità di trasmettersi da una persona all’altra semplicemente per via mentale. Nel 1998 in una scuola superiore del Tennessee, un’insegnante segnalò di sentire uno strano odore in classe e dopo un po’ di tempo iniziò ad accusare mal di testa, nausea e difficoltà a respirare. Alcuni degli studenti nella classe iniziarono ad avere gli stessi sintomi, così come altre persone che frequentavano la scuola.
    Circa duecento persone furono portate in ospedale per accertamenti, ma dagli esami non emerse nulla di strano, né fu trovata alcuna sostanza nociva nella scuola tale da causare quei sintomi. L’insegnante si era convinta che ci fosse qualcosa di strano nell’aria e aveva trasmesso ad altri studenti quella convinzione. Questi ultimi, a loro volta, avevano “contagiato” altri compagni semplicemente sentendo di avere i medesimi sintomi. Era un caso di malattia psicogena di massa, condizione che secondo certi ricercatori può essere ricondotta ai meccanismi che si verificano con l’effetto nocebo.
    I casi di malattia psicogena di massa (quella che un tempo veniva anche definita “isteria di massa”) riguardano spesso particolari rituali e per questo alcuni antropologi utilizzano i concetti di placebo e nocebo per spiegare alcuni comportamenti. I riti che vengono per esempio eseguiti per “curare” o portare qualche tipo di benefici vengono indicati come “rituali placebo”, contrapposti ai “rituali nocebo” dove invece si effettuano rituali per procurare qualche danno per esempio nel caso di particolari rituali di “magia nera”. Razionalmente, la difesa migliore in questi casi è semplicemente non crederci, ma non è sempre semplice. LEGGI TUTTO

  • in

    Da quando lo abbiamo scoperto per caso usiamo il Teflon ovunque

    Caricamento playerNella notte di venerdì 6 settembre una capsula spaziale è tornata sulla Terra vuota, dopo che la NASA non si era fidata a utilizzarla per portare indietro dall’orbita due astronauti, ora costretti a rimanere sulla Stazione Spaziale Internazionale fino al prossimo anno. La navicella, che si chiama Starliner ed è stata realizzata da Boeing, aveva mostrato di avere problemi ad alcuni propulsori necessari per manovrarla, forse a causa di un malfunzionamento delle loro valvole rivestite di Teflon, il materiale conosciuto principalmente per essere usato anche nei rivestimenti antiaderenti delle padelle.
    Che sia impiegato in orbita o in cucina, o ancora per sviluppare gli arsenali atomici, il Teflon accompagna le nostre esistenze nel bene e nel male da quasi 90 anni. Il suo uso intensivo, seguito a una scoperta del tutto casuale, ha avuto un ruolo in importanti progressi tecnologici, ma ha anche generato un importante problema ambientale e fatto sollevare dubbi sulla sua sicurezza per la nostra salute.
    Il politetrafluoroetilene, la lunga catena di molecole (polimero) che dopo la sua scoperta sarebbe stata chiamata con il più semplice nome commerciale Teflon (ci sono anche altri marchi, meno noti), probabilmente non esisterebbe se non fossero stati inventati i frigoriferi. Alla fine degli anni Venti, negli Stati Uniti la nascente refrigerazione domestica aveva un problema non da poco: le frequenti esplosioni. Per fare funzionare questi elettrodomestici venivano utilizzati gas refrigeranti che potevano infatti facilmente esplodere, oppure che in caso di perdite potevano intossicare le abitazioni in cui erano installati.
    La scarsa affidabilità dei gas refrigeranti utilizzati all’epoca rischiava di compromettere la crescita del settore e di conseguenza i produttori si misero alla ricerca di alternative migliori. Occorreva un gas refrigerante che funzionasse bene alle temperature degli ambienti domestici e a una pressione non troppo alta; il gas non doveva essere tossico e nemmeno altamente infiammabile. Un ricercatore incaricato dalla società Frigidaire valutò vari elementi della tavola periodica e concluse che il candidato ideale come punto di partenza potesse essere il fluoro, che forma un legame chimico molto forte con il carbonio. Questa caratteristica permetteva di sviluppare una sostanza che fosse stabile e poco reattiva, di conseguenza anche con bassa tossicità, come era stato dimostrato in precedenza in alcuni esperimenti.
    Fu da quella intuizione che nacque una famiglia di composti chimici cui ci si riferisce generalmente col nome commerciale “Freon”. Era il primo passo nello sviluppo di altri composti, i clorofluorocarburi, che regnarono indisturbati all’interno dei sistemi refrigeranti dei frigoriferi e non solo per circa mezzo secolo, fino agli anni Ottanta quando fu scoperto il loro ruolo nel causare una diminuzione dello strato di ozono, il famoso “buco nell’ozono”. Grazie a una convenzione internazionale, il loro impiego fu abbandonato e sostituito con altri composti, rendendo possibile il ripristino di buona parte dell’ozono.
    Negli anni Trenta nessuno aveva idea che quei gas potessero causare qualche danno, si sapeva soltanto che il loro impiego era ideale per costruire frigoriferi più sicuri e affidabili. Per Frigidaire, che deteneva la proprietà del Freon, c’erano grandi opportunità commerciali, ma non per la concorrenza ancora ferma ai refrigeranti precedenti. Alcuni produttori si rivolsero quindi a DuPont, grande e potente marchio dell’industria chimica statunitense, chiedendo se fosse possibile trovare un nuovo refrigerante altrettanto competitivo. I tecnici della società si misero al lavoro e orientarono le loro ricerche sui composti del fluoro, proprio come aveva fatto Frigidaire.
    Una pubblicità degli anni Venti del Novecento di Frigidaire
    Come racconta un articolo dello Smithsonian Magazine, i primi tentativi furono fallimentari, ma portarono all’imprevista scoperta di qualcosa di nuovo:
    Il 6 aprile del 1938 un gruppo di chimici di DuPont si radunò intorno all’oggetto del loro ultimo esperimento: un semplice cilindro di metallo. Avrebbe dovuto contenere del tetrafluoroetilene, un gas inodore e incolore. Ma quando i chimici aprirono la valvola, non uscì alcun tipo di gas. Qualcosa era andato storto. Rimasero per un po’ perplessi. Il cilindro pesava comunque di più di quanto pesasse da vuoto, ma sembrava proprio che non ci fosse nulla al suo interno. Alla fine, qualcuno suggerì di tagliare il cilindro per aprirlo e vedere che cosa fosse successo. Trovarono che il suo interno era ricoperto da una polvere bianca scivolosa.
    I chimici di DuPont erano alla ricerca di un gas refrigerante, quindi non diedero molto peso all’accidentale produzione di quella polvere e proseguirono con i loro esperimenti. Qualche anno dopo, per motivi che in parte sfuggono ancora a causa dei documenti tenuti segreti dagli Stati Uniti, quella strana sostanza che oggi chiamiamo Teflon ebbe un ruolo importante nello sviluppo della prima bomba atomica nell’ambito del Progetto Manhattan.
    Per le attività di ricerca e sviluppo del programma atomico statunitense erano necessarie importanti quantità di plutonio e uranio, ma la loro produzione non era semplice. Per ottenere uranio arricchito il processo richiedeva l’impiego di chilometri di tubature in cui far fluire un gas – l’esafluoruro di uranio – altamente corrosivo che degradava rapidamente le valvole e le guarnizioni degli impianti. Alcuni dipendenti di DuPont che lavoravano a un altro progetto spiegarono probabilmente ai responsabili dell’impianto di avere scoperto in passato una sostanza che poteva a fare al caso loro vista la sua composizione chimica e quella dell’esafluoruro di uranio: il Teflon.
    Il rivestimento fu sperimentato e si rivelò effettivamente ideale per proteggere le tubature dell’impianto, rendendo possibili i progressi nella produzione di uranio per il Progetto Manhattan. Il sistema sarebbe stato impiegato anche dopo la fine della Seconda guerra mondiale per le successive iniziative legate alle tecnologie nucleari negli Stati Uniti.
    L’impianto a Oak Ridge, Tennessee (Stati Uniti), dove si produceva l’uranio per il Progetto Manhattan (Wikimedia)
    Quelle prime esperienze avevano permesso a DuPont di comprendere meglio le caratteristiche del Teflon e la sua resistenza a molti composti e alle alte temperature. Fu però necessario attendere i primi anni Cinquanta perché venissero proposti i primi utilizzi del Teflon in cucina per realizzare prodotti antiaderenti. Una decina di anni dopo, iniziarono a essere messe in commercio le prime padelle rivestite di Teflon sia negli Stati Uniti sia in Europa, con la promessa di ridurre il rischio di far attaccare il cibo alle superfici di cottura e di semplificarne la pulizia. Quando si sviluppò una maggiore sensibilità sul mangiare “sano” e con pochi grassi, padelle e pentole antiaderenti furono promosse come l’occasione per cucinare utilizzando meno condimenti visto che il cibo non si attaccava al rivestimento di Teflon.
    Ma il Teflon non rimase relegato alle cucine, anzi. Oltre ai numerosi impieghi in ambito industriale, compresi quelli nell’industria aerospaziale, il materiale fu sfruttato per sviluppare un nuovo tipo di tessuto sintetico, al tempo stesso impermeabile e traspirante: il Gore-Tex, dal nome di Wilbert e Robert Gore che lo avevano inventato alla fine degli anni Sessanta. Oggi il Gore-Tex è presente in una miriade di prodotti, dalle scarpe agli impermeabili passando per le attrezzature da montagna, a conferma della versatilità e dei molti usi possibili del Teflon.
    La pubblicità di una sega rivestita di Teflon, nel 1968
    E fu proprio il successo del Teflon a spingere l’industria chimica a cercare prodotti con proprietà simili portando alla nascita di una nuova classe di composti, le sostanze perfluoroalchiliche e polifluoroalchiliche note in generale come PFAS. Come il politetrafluoroetilene, anche queste sono formate da catene di atomi di carbonio con un forte legame con quelli di fluoro. I PFAS sono molto stabili termicamente e chimicamente, di conseguenza si disgregano con difficoltà e possono rimanere a lungo nell’ambiente o negli organismi nei quali si accumulano. Vengono spesso definiti “forever chemicals” proprio per questo motivo e il loro impatto, anche sulla salute umana, è stato molto discusso negli ultimi anni man mano che si raccoglievano maggiori dati sulla loro permanenza nell’ambiente.
    Le maggiori conoscenze hanno portato a iniziative legali in varie parti del mondo, per esempio da parte delle comunità che vivono nelle vicinanze degli impianti che producono o utilizzano i PFAS (in Italia una delle aree maggiormente interessate è tra le province di Padova e Verona, in Veneto). Nell’Unione Europea e negli Stati Uniti le istituzioni lavorano per mettere al bando alcune tipologie di PFAS, ma i provvedimenti riguardano spesso specifiche sostanze sugli oltre 6mila composti noti appartenenti a questa classe. Ciò significa che in alcuni casi ci sono possibilità di aggirare i divieti, ricorrendo a sostanze simili non ancora vietate o con forti limitazioni per il loro impiego.
    Dentro al grande insieme dei PFAS ci sono comunque sostanze molto diverse tra loro, ciascuna con le proprie caratteristiche anche per quanto riguarda l’eventuale pericolosità. I produttori sostengono per esempio che trattandosi di un polimero molto lungo, quello del Teflon non dovrebbe essere fonte di particolari preoccupazioni, visto che difficilmente l’organismo umano potrebbe assorbirlo. L’orientamento delle istituzioni è inoltre di limitare i PFAS a catena corta, che si ritiene potrebbero avere più facilmente conseguenze sull’organismo.
    Nei processi produttivi, compresi quelli per realizzare il Teflon, si utilizzano comunque PFAS formati da polimeri più corti, che possono comunque finire nell’ambiente. Quelli più lunghi possono deteriorarsi in catene di molecole più corte per esempio se sono esposti agli elementi atmosferici, come avviene in una discarica. In generale, comunque, il fatto che i PFAS abbiano un impatto ambientale è ormai acclarato, mentre si sta ancora cercando di capire la sua portata per la nostra salute e quella degli ecosistemi.
    Sulla sicurezza del Teflon erano stati sollevati comunque dubbi anche in passato, visto che questa sostanza entra in contatto con le preparazioni che poi mangiamo. È noto che il politetrafluoroetilene inizia a deteriorarsi a temperature superiori ai 260 °C e che la sua decomposizione inizia a circa 350 °C. Le temperature che raggiungono pentole e padelle per cucinare gli alimenti sono ampiamente al di sotto dei 260 °C e per questo si ritiene che ci sia un rischio minimo di entrare in contatto con sostanze pericolose (come il PFOA), che si sviluppano quando il Teflon inizia a decomporsi.
    Il Teflon e i suoi derivati sono talmente diffusi negli oggetti che ci circondano che a oggi sembra quasi impossibile immaginare un mondo senza la loro presenza. Le vendite di Teflon sono nell’ordine dei 3 miliardi di dollari l’anno e si prevede che la domanda continuerà ad aumentare, arrivando a 4 miliardi di dollari entro i prossimi primi anni Trenta, a poco meno di un secolo dalla sua accidentale scoperta. LEGGI TUTTO

  • in

    Il grande tsunami che non ha visto nessuno

    Caricamento playerA settembre del 2023 le stazioni di rilevamento dei terremoti in buona parte del mondo registrarono una strana attività sismica diversa da quelle solitamente rilevate, e che durò per circa nove giorni. Il fenomeno era così singolare e insolito da essere classificato come un “oggetto sismico non identificato” (USO), un po’ come si fa con gli avvistamenti aerei di oggetti difficili da definire, i famosi UFO. Dopo circa un anno, quel mistero è infine risolto e lo studio del fenomeno ha permesso di scoprire nuove cose sulla propagazione delle onde sismiche nel nostro pianeta, sugli tsunami, sugli effetti del cambiamento climatico e sulla perdita di enormi masse di roccia e ghiaccio.
    L’onda sismica era stata rilevata dai sismometri a partire dal 16 settembre 2023 e aveva una forma particolare, più semplice e uniforme di quelle che solitamente si registrano in seguito a un terremoto. Era una sorta di rumore di fondo ed era stata registrata in diverse parti del mondo: i sensori delle stazioni di rilevamento sono molto sensibili e la Terra dopo un terremoto “risuona”, dunque si possono rilevare terremoti anche a grande distanza da dove sono avvenuti. Nei giorni in cui l’onda continuava a essere rilevata e poi ancora nelle settimane seguenti, iniziarono a emergere alcuni indizi su quale potesse essere la causa dell’USO. Il principale indiziato era un fiordo dove si era verificata una grande frana che aveva portato a un’onda anomala e a devastazioni a diversi chilometri di distanza.
    Tutto aveva avuto infatti inizio in una delle aree più remote del pianeta lungo la costa orientale della Groenlandia, più precisamente dove inizia il fiordo Dickson. È un’insenatura lunga circa 40 chilometri con una forma particolare a zig zag, che termina con una curva a gomito qualche chilometro prima di immettersi nel fiordo Kempes, più a oriente. Niente di strano o singolare per una costa frastagliata e intricatissima, con centinaia di fiordi, come quella della Groenlandia orientale.

    Sulla costa, qualche chilometro prima della curva a gomito, c’era un rilievo di circa 1.200 metri affacciato su parte del ghiacciaio sottostante che raggiunge poi l’insenatura. A causa dell’aumento della temperatura, il ghiacciaio non era più in grado di sostenere il rilievo, che a settembre dello scorso anno era quindi collassato producendo un’enorme slavina con un volume stimato intorno ai 25 milioni di metri cubi di detriti (circa dieci volte la Grande Piramide di Giza in Egitto).
    Questa grande massa di ghiaccio e rocce si tuffò nel fiordo spingendosi fino a 2 chilometri di distanza e producendo uno tsunami che raggiunse un’altezza massima stimata di 200 metri. A causa della particolare forma a zig-zag del fiordo, l’onda non raggiunse l’esterno dell’insenatura e continuò a infrangersi al suo interno per giorni, producendo uno sciabordio (più precisamente una “sessa”) che fu poi rilevato dai sismometri incuriosendo infine alcuni esperti di terremoti in giro per il mondo.

    Come ha spiegato il gruppo di ricerca che ha messo insieme tutti gli indizi in uno studio pubblicato su Science, con la collaborazione di 68 sismologi in 15 paesi diversi, dopo pochi minuti dalla prima grande onda lo tsunami si ridusse a circa 7 metri e nei giorni seguenti sarebbe diventato di pochi centimetri, ma sufficienti per produrre onde sismiche rilevabili a causa della grande massa d’acqua coinvolta. Per pura coincidenza nelle settimane prima del collasso del rilievo un gruppo di ricerca aveva collocato alcuni sensori nel fiordo per misurarne la profondità, inconsapevole sia del rischio che stava correndo in quel tratto dell’insenatura sia di creare le condizioni per raccogliere dati che sarebbero stati utili per analizzare lo tsunami che si sarebbe verificato poco tempo dopo.
    Per lo studio su Science, il gruppo di ricerca internazionale ha infatti realizzato un proprio modello al computer per simulare l’onda anomala e ha poi confrontato i dati della simulazione con quelli reali, trovando molte corrispondenze per confermare le teorie iniziali sulle cause dell’evento sismico. L’andamento stimato dell’onda, compresa la sua riduzione nel corso del tempo, corrispondeva alle informazioni che potevano essere dedotte dalle rilevazioni sismiche.
    La ricerca ha permesso di approfondire le conoscenze sulla durata e sulle caratteristiche che può assumere uno tsunami in certe condizioni di propagazione, come quelle all’interno di un’insenatura. Lo studio di questi fenomeni riguarda spesso grandi eventi sismici, come quello che interessò il Giappone nel 2011, e che tendono a esaurirsi in alcune ore in mare aperto. L’analisi di fenomeni su scala più ridotta, ma comunque rilevante per la loro portata, può offrire nuovi elementi per comprendere meglio in generale sia gli tsunami sia le cause di alcuni eventi insoliti.

    La frana è stata inoltre la più grande a essere mai stata registrata nella Groenlandia orientale, hanno detto i responsabili della ricerca. Le onde hanno distrutto un’area un tempo abitata da una comunità Inuit, che si era stabilita nella zona circa due secoli fa. Il fatto che l’area fosse rimasta pressoché intatta fino allo scorso settembre indica che nel fiordo non si verificavano eventi di grande portata da almeno duecento anni.
    Su Ella, un’isola che si trova a circa 70 chilometri da dove si è verificata la frana, lo tsunami ha comunque causato la distruzione di parte di una stazione di ricerca. L’isola viene utilizzata da scienziati e dall’esercito della Danimarca, che ha sovranità sulla Groenlandia, ma era disabitata al momento dell’ondata.
    In un articolo di presentazione della loro ricerca pubblicato sul sito The Conversation, gli autori hanno ricordato che l’evento iniziale si è verificato in pochi minuti, ma che le sue cause sono più antiche: «Sono stati decenni di riscaldamento globale ad avere fatto assottigliare il ghiacciaio di diverse decine di metri, facendo sì che il rilievo soprastante non fosse più stabile. Al di là della particolarità di questa meraviglia scientifica, questo evento mette in evidenza una verità più profonda e inquietante: il cambiamento climatico sta riplasmando il nostro pianeta e il nostro modo di fare scienza in modi che solo ora iniziamo a comprendere».
    Il gruppo di ricerca ha anche segnalato come fino a qualche anno fa sarebbe apparsa assurda l’ipotesi che una sessa potesse durare per nove giorni, «così come un secolo fa il concetto che il riscaldamento globale potesse destabilizzare dei versanti nell’Artico, portando a enormi frane e tsunami. Eventi di questo tipo vengono ormai registrati annualmente proprio a causa dell’aumento della temperatura media globale, delle estati artiche con temperature spesso al di sopra della media e a una maggiore presenza del ghiaccio stagionale rispetto a un tempo. LEGGI TUTTO

  • in

    La prima storica “passeggiata spaziale” privata

    Per la prima volta nella storia due astronauti non professionisti hanno effettuato una “passeggiata spaziale” (attività extraveicolare o EVA) gestita da una società privata.L’iniziativa è stata organizzata nell’ambito della missione Polaris Dawn iniziata martedì 10 settembre, con il lancio da Cape Canaveral in Florida della capsula spaziale Crew Dragon di SpaceX. A bordo della navicella ci sono quattro persone compreso il miliardario Jared Isaacman, che ha finanziato buona parte del viaggio.
    Attualmente Crew Dragon si trova in un’orbita ellittica che porta la capsula ad avere una distanza minima dalla Terra di circa 190 chilometri e ad allontanarsi dal nostro pianeta fino a una distanza di 700 chilometri. Nelle prime fasi della missione, Crew Dragon si era spinta fino a 1.400 chilometri, il punto più distante nello Spazio mai raggiunto da un equipaggio in più di 50 anni, cioè dalla fine del programma spaziale Apollo della NASA per raggiungere la Luna (che si trova a quasi 400mila chilometri dalla Terra).
    L’EVA è stata effettuata da Isaacman e da Sarah Gillis, un’ingegnera di SpaceX, mentre all’interno della capsula sono rimasti i loro due compagni di viaggio: Scott Poteet, un ex pilota di aerei militari, e Anna Menon, un’altra ingegnera di SpaceX. Per la loro escursione all’esterno della capsula, Isaacman e Gillis hanno indossato tute sperimentali progettate da SpaceX per resistere all’ambiente spaziale. Sono state sviluppate partendo dalle tute solitamente utilizzate dagli astronauti che grazie a Crew Dragon possono raggiungere la Stazione Spaziale Internazionale, nell’ambito degli accordi commerciali tra SpaceX e la NASA.
    Le tute non hanno sistemi autonomi di erogazione dell’ossigeno e di mantenimento della pressione, per compensare il vuoto pressoché totale dell’ambiente spaziale. Sono collegate alla capsula attraverso tubi e cavi che permettono il trasferimento dell’ossigeno e dell’azoto, nonché dell’energia necessaria per far funzionare le altre strumentazioni. Dopo circa 40 minuti di preparazione, Isaacman e Gillis sono usciti a turno da un portellone sulla sommità di Crew Dragon e sono rimasti all’esterno della capsula per 15-20 minuti ciascuno. Oltre a essere un’importante prima volta per una missione privata, l’EVA ha lo scopo di verificare la tenuta e l’affidabilità delle tute di SpaceX in vista delle prossime missioni.
    Di solito le EVA richiedono tempi lunghi di preparazione proprio perché gli astronauti devono abituarsi a condizioni di pressione diverse da quelle tipicamente presenti all’interno dei veicoli spaziali (nella tuta la pressione è inferiore per evitare che questa sia troppo rigida, al punto da ostacolare i movimenti). Sulla ISS chi deve compiere l’attività extraveicolare, per esempio, passa attraverso una camera d’equilibrio (airlock) in modo che ci sia un ambiente intermedio tra la Stazione e lo Spazio. L’astronauta si chiude alle spalle il portellone della ISS e apre un secondo portellone verso l’esterno, in modo che la Stazione continui a essere isolata dall’ambiente spaziale (altrimenti perderebbe ossigeno e pressurizzazione con esiti catastrofici per gli altri occupanti).
    Jared Isaacman poco dopo la sua uscita dalla capsula Crew Dragon (SpaceX)
    Su Crew Dragon non c’è un airlock, quindi tutti i quattro membri di Polaris Dawn hanno indossato le tute per rimanere isolati dall’esterno. Al termine del test e dopo la chiusura del portellone impiegato per l’EVA, la pressione all’interno di Crew Dragon è stata ripristinata insieme alla giusta concentrazione di ossigeno per permettere ai suoi occupanti di togliere le tute e proseguire la missione. Fin dall’inizio della missione le condizioni di pressione e la percentuale di azoto erano state progressivamente ridotte, per quanto in modo lieve, per favorire l’acclimatamento in vista dell’EVA, riducendo il rischio di problemi di compensazione per l’equipaggio.
    Le attività extraveicolari sono relativamente sicure e gli astronauti delle principali agenzie spaziali ne hanno effettuate centinaia in quasi 70 anni di storia dell’esplorazione dello Spazio. I rischi naturalmente non mancano e riguardano soprattutto la tenuta delle tute e la possibilità di chi le indossa di muoversi senza troppi impedimenti, soprattutto in una situazione di emergenza.
    L’attività di oggi ha un importante valore storico perché segna l’inizio di una nuova fase delle esplorazioni spaziali da parte dei privati, finora limitate. L’esito del test non era scontato considerato che le tute di SpaceX non erano mai state sperimentate prima nell’ambiente spaziale, né Crew Dragon in una condizione in cui il suo interno viene esposto all’ambiente spaziale per diversi minuti.
    La vista dal casco di Jared Isaacman durante l’EVA (SpaceX)
    Per Isaacman non è la prima volta nello Spazio. Nel settembre del 2021 aveva già raggiunto l’orbita con la missione Inspiration4, sempre gestita da SpaceX e in compagnia di altre tre persone, nessuna delle quali faceva l’astronauta di professione per conto dei governi e di istituzioni pubbliche, come è quasi sempre avvenuto dagli albori delle esplorazioni spaziali oltre 60 anni fa. Come era accaduto con Inspiration4, anche per Polaris Dawn né Isaacman né SpaceX hanno fatto sapere i costi dell’iniziativa, comunque nell’ordine di decine di milioni di dollari, senza contare i costi per lo sviluppo di alcune nuove tecnologie da parte di SpaceX.
    Fino a oggi solamente alcuni astronauti della NASA, dell’Agenzia spaziale europea (ESA) e di quelle del Canada, della Russia e della Cina avevano effettuato un’EVA, per esempio per la costruzione e la manutenzione delle stazioni orbitali costruite nel tempo intorno alla Terra, superando grandi difficoltà tecniche e gestendo i molti rischi che derivano dal trovarsi nel vuoto pressoché totale dello Spazio. Le tute per farlo sono in sostanza delle piccole astronavi da indossare, ce ne sono poche e sono estremamente costose, ma SpaceX come altre aziende private vuole cambiare le cose.
    Polaris Dawn ha una durata di cinque giorni con una quarantina di esperimenti da effettuare a bordo, molti dei quali orientati a valutare gli effetti della permanenza nello Spazio sull’organismo – come si fa da anni sulla ISS – e a sperimentare nuove tecnologie che potrebbero essere impiegate in futuro nelle missioni di lunga durata verso la Luna e forse un giorno Marte. Al termine della missione, Crew Dragon si tufferà al largo della costa della Florida, dove una squadra di recupero si occuperà di riportare sulla terraferma la capsula e i suoi quattro occupanti. Isaacman e SpaceX hanno in programma almeno altre due missioni, ma non hanno ancora fornito informazioni sulle modalità e sui tempi, che in parte dipenderanno dai risultati ottenuti con questa missione. LEGGI TUTTO

  • in

    Ci servirebbe una macchina che annusa

    Gli odori hanno un ruolo centrale nella nostra percezione del mondo, eppure buona parte del funzionamento dell’olfatto rimane un mistero. Sappiamo che microscopiche strutture (i recettori) nel naso rilevano le sostanze in sospensione nell’aria che respiriamo e inviano un segnale al cervello, che elabora quell’informazione dandoci la consapevolezza di avere appena percepito un odore, ma non comprendiamo ancora perfettamente come. Osmo, una società statunitense con grandi finanziatori come Google, dice di avere fatto importanti progressi per risolvere il mistero insegnando alle macchine a riconoscere gli odori, naturalmente usando sistemi di intelligenza artificiale.Il capo di Osmo è Alex Wiltschko, un neurobiologo originario del Texas che ha fatto fortuna in California lavorando diversi anni a Google, prima che da una delle divisioni di ricerca della società nascesse la sua start-up. Fin da ragazzino Wiltschko era ossessionato dai profumi, al punto da averne una piccola collezione ed essere incuriosito dal modo in cui ciascuno di noi li percepisce, con una certa componente di soggettività. Fu quella curiosità a spingerlo a studiare neurobiologia e a conseguire un dottorato, che però non riuscì a mettere a frutto in ambito accademico, dove non sembrava esserci molto interesse per la biologia dell’olfatto.
    Wiltschko lasciò l’università, lavorò in varie società e infine trovò impiego a Google Research, dedicata alla ricerca di prodotti innovativi, dove divenne il responsabile di un gruppo di lavoro che si occupava di “olfatto digitale”. La sua idea, che avrebbe poi continuato a sviluppare con Osmo, era di creare un sistema per mappare gli odori, sviluppando sensori e sistemi informatici per la loro identificazione e in prospettiva per lo sviluppo di nuove molecole. Le applicazioni potrebbero essere molteplici, dalla produzione di profumi alla ricerca di deterrenti più efficaci contro gli insetti, passando per sensori in grado di diagnosticare malattie in base all’odore prodotto dai pazienti.
    Per lungo tempo l’olfatto ha ricevuto meno attenzioni rispetto ad altri sensi come la vista e l’udito, forse anche a causa della sua enorme e talvolta sfuggente complessità. I nostri occhi vedono una certa porzione della luce, definibile e misurabile, così come le nostre orecchie percepiscono i suoni con una frequenza compresa in un certo intervallo, anche in questo caso misurabile e analizzabile. Per l’olfatto è tutto più complicato: le sostanze che stimolano la nostra percezione sono potenzialmente miliardi e ciò che rende possibile identificarle, i recettori, sono strutture minuscole con una grande varietà di forme e funzioni. Si stima che siano almeno 400, contro i due tipi di recettori che rendono possibile la visione.
    Secondo Wiltschko, l’unico modo per padroneggiare una tale complessità è costruire una mappa, come del resto abbiamo fatto per definire la varietà di colori che possono vedere i nostri occhi o i suoni che possiamo percepire con le orecchie. Le mappe sono una delle invenzioni più efficaci per ridurre la complessità, o per lo meno per costruirne più livelli via via più articolati e dettagliati. La semplificazione che offre una cartina di un quartiere cittadino è ideale per essere gestita con le nostre conoscenze e capacità mentali, ma più una mappa diventa articolata più è difficile navigarla e per questo Osmo lavora con sistemi di intelligenza artificiale in grado di produrre la mappa stessa e di orientarsi al suo interno.
    (James Glossop/WPA Pool/Getty Images)
    I cartografi degli odori sono partiti da alcuni cataloghi di profumi realizzati negli anni, che descrivono sia la struttura delle molecole che producono determinati odori sia le loro caratteristiche quando vengono inalati: fruttato, legnoso, affumicato e così via. I cataloghi più grandi comprendono migliaia di molecole, ma non è sempre semplice trovare relazioni tra loro in modo da poterli organizzare in una mappa, che per esempio comprenda un’isola di odori che evocano la sensazione del fresco e un’altra dello stantio. Due composti chimici estremamente simili tra loro possono produrre due odori completamente diversi, mentre due molecole con strutture molto diverse tra loro possono produrre odori simili.
    Osmo ha quindi fatto allenare un sistema di intelligenza artificiale in modo che da quei cataloghi organizzasse gli odori in una mappa con circa 5mila punti, collegati tra loro su più livelli e da utilizzare per provare a prevedere le caratteristiche di altri odori non compresi nei cataloghi stessi partendo unicamente dalle caratteristiche della loro molecola. Una volta realizzato, il modello è stato messo alla prova confrontando le sue previsioni con le valutazioni di un gruppo di volontari.
    A 15 persone sono state proposte alcune centinaia di aromi, con la richiesta di odorarli e di descriverli scegliendo da un elenco di cinquanta parole come “tropicale” e “affumicato”. La percezione degli odori è soggettiva, ma nel complesso nelle valutazioni c’era la prevalenza di determinate parole. Il gruppo di ricerca ha poi confrontato le descrizioni fornite dai volontari con quelle prodotte dal sistema di intelligenza artificiale, che si basavano esclusivamente sull’interpretazione della struttura delle molecole di quegli aromi. Lo studio scientifico in cui è raccontato l’esperimento ha segnalato che l’AI riesce a fare un lavoro di identificazione e mappatura migliore di quello che riesce a fare una persona addestrata per catalogare gli odori.
    Il modello sviluppato da Osmo ha ricevuto grandi attenzioni, ma la società è distante da un uso commerciale. Nella percezione degli odori sono coinvolti molti altri fattori legati al funzionamento dei recettori e degli enzimi che intervengono sui composti che inaliamo con l’aria. La grande varietà di recettori implica che ci possano essere interazioni tra loro di tipo diverso a seconda delle sostanze, con esiti che variano da persona a persona. È il motivo per cui alcuni percepiscono come più intensi alcuni profumi, al punto da trovarli fastidiosi rispetto ad altri. Districarsi in queste sfumature è difficile, ma Wiltschko ritiene che la capacità di una AI di navigare e organizzare la complessità possa essere la risposta. Un tipo di risposta molto conveniente.
    Le valutazioni variano molto, ma si stima che il mercato dei profumi abbia un valore annuo intorno ai 30 miliardi di dollari. È un settore particolarmente remunerativo soprattutto per i produttori di cosmetici e profumi, con alti ricarichi resi possibili soprattutto dalle collaborazioni delle società che li sviluppano con i grandi marchi di moda. Trovare le giuste combinazioni di aromi sta però diventando sempre più difficile perché si faticano a trovare nuove molecole.
    (Justin Sullivan/Getty Images)
    Le società che se ne occupano investono ingenti quantità di denaro per sintetizzarne di nuove, ma poche si rivelano poi adatte per essere impiegate in un profumo. Alcune non sono persistenti a sufficienza dopo l’applicazione sulla pelle, altre sono poco stabili o si disgregano troppo facilmente quando sono miscelate con altri composti. Una nuova molecola di sintesi deve essere inoltre testata per verificarne la sicurezza, con regole che variano a seconda dei paesi. Può quindi accadere che un composto che sembrava molto promettente debba essere accantonato dopo anni di sviluppo, rendendo fallimentare l’investimento iniziale.
    In futuro i sistemi sviluppati da Osmo, e da altre società che seguono approcci simili, potrebbero essere impiegati per sviluppare velocemente nuove molecole usando le loro articolate mappe degli odori. L’idea è che si possa chiedere al sistema un aroma di cedro maturato al Sole nell’aria salmastra del Mediterraneo d’estate, ottenendo come risposta la formula chimica delle sostanze per realizzarla. In ultima istanza, potrebbe essere il sistema stesso a provvedere alla sua sintesi, uno scenario che per i più scettici è da fantascienza allo stato attuale delle conoscenze e delle tecnologie.
    I modelli basati sulle AI potrebbero rivelarsi utili anche per sviluppare nuovi sistemi per l’analisi e la rivelazione degli odori. Macchinari di questo tipo esistono già da tempo, ma di solito sono altamente specializzati nel riconoscere determinate sostanze. I cosiddetti “nasi elettronici” sono impiegati per esempio per rilevare gli inquinanti presenti nell’aria come il diossido di azoto o il monossido di carbonio, o per valutare l’impatto olfattivo di impianti industriali nelle prossimità dei centri abitati. Non esistono però nasi elettronici versatili e con capacità paragonabili a quelle del nostro olfatto, e soprattutto non forniscono descrizioni delle sensazioni che evocano le sostanze odorose.
    Oltre ai recettori che abbiamo nel naso, la nostra esperienza con gli aromi è fortemente legata all’attività cerebrale. Il nostro cervello è estremamente abile nell’interpretare i segnali che riceve quando odoriamo qualcosa e alcune persone hanno capacità più spiccate di altre. L’”ipersomia” è una condizione che determina questa capacità e può portare a esiti sorprendenti, come la capacità di distinguere l’odore di una malattia degenerativa, prima che questa diventi evidente in chi ne è affetto. Imitando questa capacità si potrebbero quindi realizzare nasi elettronici per aiutare i medici nella diagnosi precoce di alcune malattie, intervenendo con le terapie prima ancora della comparsa di alcuni sintomi.
    Un naso elettronico basato sull’intelligenza artificiale come quello cui sta lavorando Osmo potrebbe rivelarsi utile anche per un altro tipo di prevenzione. Ogni anno in tutto il mondo ci sono circa 250 milioni di casi di malaria trasmessa dalle zanzare, con oltre 600mila morti annue per la malattia. Intervenire sulle popolazioni di zanzare e sui metodi per prevenire il loro morso è essenziale per ridurre i contagi e di conseguenza i decessi, ma fare prevenzione è costoso e richiede grandi sforzi organizzativi, non sempre praticabili nelle aree più povere del mondo. Un migliore repellente contro le zanzare potrebbe fare la differenza.
    Reti per ridurre il rischio di contagi da malaria dovuti alle zanzare in una capanna in Cambogia nel 2010 (Paula Bronstein/Getty Images)
    Per questo la Bill & Melinda Gates Foundation, che finanzia da anni progetti per contrastare la diffusione della malaria, ha investito 3,5 milioni di dollari in Osmo scommettendo sulle capacità dei suoi sistemi per sviluppare in futuro repellenti di nuova generazione contro le zanzare. Questi insetti trovano le loro prede, per lo più gli esseri umani, grazie a recettori estremamente sensibili all’anidride carbonica e ad altre sostanze volatili che produciamo con la traspirazione.
    I repellenti le mascherano in modo da risultare meno appetibili alle zanzare, ma contengono sostanze da utilizzare con cautela e c’è il sospetto che generazione dopo generazione le zanzare abbiano iniziato ad adattarsi e a non trovarle più repellenti come un tempo. Conoscendo il funzionamento dei recettori delle zanzare, i sistemi di Osmo e quelli sviluppati da altre società potrebbero essere impiegati per sviluppare sostanze per eluderli e che al tempo stesso richiedano meno precauzioni per il loro utilizzo rispetto ai repellenti attuali.
    Wiltschko aveva iniziato a lavorare con i sistemi di intelligenza artificiale ben prima che iniziasse l’euforia degli ultimi anni, spinta soprattutto dai successi di ChatGPT di OpenAI. Il maggiore interesse verso queste tecnologie ha comunque favorito gli investimenti anche nel settore in cui è attiva Osmo, che dovrà quindi confrontarsi con altre aziende e start-up interessate a risolvere il mistero dell’olfatto, o almeno a provarci. LEGGI TUTTO

  • in

    È cominciata la missione Polaris Dawn di SpaceX, che dovrebbe rendere possibile la prima “passeggiata spaziale” per un equipaggio privato

    Martedì mattina una capsula di SpaceX che trasporta quattro privati cittadini è decollata dal Kennedy Space Center della NASA, in Florida: sono partiti per una missione di cinque giorni nota come Polaris Dawn, e se tutto andrà secondo i piani saranno i primi non astronauti a fare una “passeggiata spaziale” (EVA, come vengono chiamate informalmente le attività extraveicolari nello spazio): l’equipaggio è composto dall’imprenditore miliardiario quarantunenne Jared Isaacman, che ha finanziato personalmente gran parte della missione, da Scott “Kidd” Poteet, un tenente colonnello dell’aeronautica in pensione, e dalle ingegnere di SpaceX Sarah Gillis e Anna Menon.A oggi solamente alcuni astronauti della NASA, dell’Agenzia spaziale europea e di quelle del Canada, della Russia e della Cina hanno effettuato un’EVA, per esempio per la costruzione e la manutenzione delle stazioni spaziali costruite nel tempo intorno alla Terra. Oltre a questo Polaris Dawn dovrebbe essere la prima missione con un equipaggio ad allontanarsi così tanto dalla Terra dai tempi di Apollo 17, l’ultima missione del programma lunare statunitense che raggiunse la Luna nel 1972: arriverà a quasi 1.400 chilometri dalla Terra.

    Inizialmente Polaris Dawn doveva partire a fine agosto, ma il lancio è stato posticipato prima perché era stata rilevata una perdita di elio sulla rampa di lancio, e poi per via del maltempo al largo della costa della Florida, dove è previsto che la capsula atterrerà alla fine della spedizione. La “passeggiata spaziale” è prevista per il terzo giorno della missione. LEGGI TUTTO

  • in

    I gatti odiano davvero l’acqua?

    Caricamento playerTra i luoghi comuni associati ai gatti c’è la loro grande avversione per l’acqua. È del resto raro osservare un gatto tuffarsi volentieri in una pozzanghera, in un fiume o in una vasca da bagno nei contesti più domestici. Intorno alla presunta paura dell’acqua dei gatti ci sono racconti, cartoni animati e perfino proverbi, eppure in molti casi questi animali non mostrano affatto di avere timore di immergersi.
    Alcuni veterinari hanno spiegato di recente alla rivista Scientific American che pensare che tutti i gatti odino l’acqua è un errore e porta a generalizzazioni eccessive. Come per molte altre cose, è una questione soggettiva e di gusti: ci sono gatti che preferiscono stare alla larga dall’acqua e altri che sono più propensi a immergersi. Lo stesso vale per i cani, con alcuni individui che sono più intimoriti o infastiditi di altri.
    In natura i grandi felini come tigri e leoni mostrano di non avere particolari problemi con l’acqua, talvolta anzi non disdegnano un bagno per rinfrescarsi oppure per raggiungere prede altrimenti inavvicinabili. La savana o le foreste tropicali non sono naturalmente la stessa cosa degli appartamenti in cui vive la maggior parte dei gatti domestici, e questo può aiutare a spiegare come sia nato il luogo comune e magari a trovare qualche elemento di verità intorno allo stereotipo.
    (Getty Images)
    Rispetto a un cane, un gatto domestico tende a passare buona parte della propria esistenza al chiuso, dove ci sono meno occasioni di entrare in contatto con l’acqua al di fuori di quella nella ciotola per bere. I cani inoltre devono essere lavati, a differenza dei gatti che si puliscono quasi sempre da soli lisciandosi il pelo con la lingua, e anche questo fa sì che un gatto sia molto meno esposto all’acqua e quindi poco abituato a bagnarsi. Poi, appunto, ogni gatto è un mondo a sé e ce ne sono di più propensi a sperimentare di tanto in tanto un bagno.
    Nel corso del tempo sono state comunque formulate alcune ipotesi sulla scarsa frequentazione dell’acqua da parte dei gatti. La loro pelliccia è fitta e spessa e di conseguenza impiega molto tempo ad asciugarsi, soprattutto negli ambienti domestici dove non circola molto l’aria. La pelliccia dei felini è inoltre molto importante per percepire ciò che hanno intorno ed eventuali stimoli dall’esterno, ma se si bagna troppo diventa meno sensibile.
    Un gatto appesantito dalla pelliccia bagnata è meno agile e questo può avere degli svantaggi nel caso di dover fuggire da un predatore. Difficilmente c’è qualche pericolo in casa che renda necessaria una fuga, ma secondo alcuni studiosi del comportamento animale i gatti mantengono ancora qualche istinto legato a un antico passato in cui dovevano guardarsi da predatori più grandi di loro. Sempre legata al loro passato, c’è l’ipotesi che i gatti non siano molto interessati all’acqua – eccetto per bere – perché si sono evoluti principalmente in luoghi con climi aridi e pochi fiumi e laghi.
    Anche se non si immergono, molti gatti si divertono comunque a giocare con l’acqua, per esempio quella che scorre da un rubinetto o che gocciola in un recipiente. Questi animali sono spesso incuriositi dagli oggetti in movimento e che producono particolari rumori, indizi di potenziali prede da cacciare. Questi giochi con l’acqua riguardano quasi sempre le sole zampe, ma nel caso di qualche spruzzo su altre parti del corpo è raro che un gatto si scomponga.
    Un gatto Turco Van (Wikimedia)
    Oltre alla soggettività è stata comunque osservata una maggiore propensione a bagnarsi tra alcune razze feline, come il Maine Coon (letteralmente “procione del Maine”), il Bengala e il Turco Van. I gatti appartenenti a queste razze hanno una pelliccia che si asciuga velocemente grazie alla sua particolare struttura.
    I gatti della razza Turco Van sono famosi tra gli appassionati per avere una certa affezione per l’acqua, al punto da essere al centro di alcune leggende. Una di queste dice che quando finì il diluvio universale, due gatti fuggirono dall’Arca costruita da Noè e si lanciarono in acqua per raggiungere il prima possibile la terra ferma. La leggenda, che prova poi a spiegare la convivenza tra gatti ed esseri umani, nacque probabilmente proprio dall’osservazione del comportamento dei gatti che a differenza di quelli di altre razze entravano più spesso a contatto con l’acqua.
    Al di là delle leggende, per i gatti domestici l’acqua è comunque importante per mantenersi idratati, soprattutto se la loro dieta è principalmente a base di cibo secco come le crocchette. I gatti non sono domesticati da molto e per questioni evolutive conservano alcune abitudini, come quella di ottenere buona parte dell’acqua di cui hanno bisogno dalle loro prede. Ciò si riflette in una minore propensione a bere tra i gatti domestici, che talvolta deve essere compensata. Il consiglio è di posizionare più di una ciotola per bere a distanza da quella in cui il gatto mangia, in modo che non associ troppo le due attività.
    In alcuni casi l’avversione mostrata per l’acqua può anche derivare dal modo in cui è stato cresciuto il gatto, per esempio se si è utilizzata una bottiglietta spray per spruzzare dell’acqua sul suo muso nel tentativo di disincentivare comportamenti scorretti. La sanzione è quasi sempre ritardata rispetto al comportamento che si vorrebbe correggere, quindi non è utile per evitare che venga ripetuto in futuro. La pratica può inoltre essere traumatica per alcuni gatti e può suscitare una certa diffidenza nei confronti dei loro conviventi umani. LEGGI TUTTO

  • in

    Perché i pomodori sanno di poco

    Caricamento playerI pomodori sono tra gli ortaggi più consumati e apprezzati in Italia, eppure c’è la convinzione piuttosto diffusa che il loro sapore non sia più “quello di una volta” e che col tempo la loro qualità sia peggiorata: la polpa è più dura, la buccia è più spessa e il profumo è meno invitante. È un’opinione condivisa da molte persone e deriva in parte da un certo effetto nostalgia, che riguarda molti altri alimenti che si ritiene fossero più gustosi nei tempi passati, ma c’è probabilmente qualche elemento di verità.
    Negli ultimi anni alcuni studi scientifici hanno indicato come le varietà moderne più diffuse di pomodoro, selezionate per essere più adatte alla produzione industriale, siano un po’ meno saporite e con meno aroma rispetto a prima. La maggiore domanda, soprattutto a partire dal secondo dopoguerra, spinse i produttori di pomodori a privilegiare la coltivazione e la selezione di varietà che fossero più resistenti per proteggere meglio i singoli frutti (i pomodori sono bacche) nel momento della raccolta, del trasporto e della vendita al consumatore finale.
    Si può ottenere un pomodoro più resistente intervenendo su diversi fattori, attraverso la selezione e l’incrocio delle piante che danno frutti corrispondenti agli effetti desiderati. Le cellule dei pomodori più acquosi, per esempio, sono più gonfie e tese (hanno un maggior turgore) e questo favorisce la capacità del frutto di mantenere la forma e di assorbire meglio i colpi. La maggiore quantità di acqua in alcune varietà può determinare una diluizione delle sostanze che danno sapore e aroma ai pomodori, che risultano quindi meno gustosi.
    La buccia è un altro elemento importante per rendere più resistenti i pomodori e anche in questo caso nel tempo ci si è orientati e si sono selezionate varietà con una buccia più spessa. Questo spiega la grande offerta di pomodori di piccolo calibro, come le varie tipologie di ciliegino, soprattutto nei supermercati, dove le esigenze legate alla resistenza sono ancora maggiori. La buccia ha tendenzialmente un sapore più aspro e influisce sulla percezione della consistenza del pomodoro quando lo si mangia, contribuendo a far percepire un gusto diverso o più blando.
    (Getty Images)
    Sul sapore, l’aroma e la consistenza dei pomodori influiscono naturalmente anche le modalità di raccolta. Nella maggior parte dei casi consumiamo pomodori che vengono raccolti quando sono ancora acerbi, in modo che raggiungano il giusto stato di maturazione nei tempi necessari per lo smistamento, il trasporto e la loro messa in vendita. Come molti altri frutti, infatti, i pomodori sono climaterici, sono cioè in grado di maturare anche dopo essere stati separati dalla pianta. Il processo di maturazione avviene senza possibilità di scambi con quest’ultima e ciò può influire sulle sostanze che contribuiranno a dare sapore e aroma al frutto. Raccogliere i pomodori quando sono ormai pienamente maturi sarebbe però molto difficile per molte varietà, perché non resisterebbero fino alla loro messa in vendita o avrebbero comunque una breve durata sugli scaffali.
    I pomodori diventano più saporiti nell’ultima fase della maturazione, quando si sviluppano maggiori quantità di zuccheri e acidi, che percepiamo con il gusto, e di aromi volatili che invece percepiamo con l’olfatto (da cui deriva la gradevole sensazione di “pomodoro appena tagliato”). Se mantenuto tra i 13 e i 22 °C nelle sue ultime fasi di maturazione, un pomodoro sviluppa al meglio quelle sostanze e soprattutto si riesce a conservarlo meglio. L’ideale sarebbe quindi tenere i pomodori fuori dal frigorifero, ma non è sempre possibile farlo considerato che l’intervallo di temperatura non è molto compatibile con le temperature domestiche soprattutto d’estate, proprio quando per noi è la stagione dei pomodori.
    Le celle frigorifere dei grossisti, cioè di chi acquista grandi quantità di pomodori e poi li vende alla grande distribuzione o sui mercati, sono di solito impostate intorno ai 10 °C, mentre i frigoriferi di casa mantengono i 4 °C. A queste temperature la quantità di zuccheri e di acidi non varia in modo significativo rispetto ai pomodori tenuti a 20 °C, mentre ci sono differenze per quanto riguarda l’aroma sufficienti a farci percepire più blando un pomodoro (olfatto e gusto sono strettamente legati).
    Nel suo libro La scienza delle verdure il chimico e divulgatore Dario Bressanini si sofferma a lungo sui pomodori segnalando che sull’aroma del pomodoro intervengono centinaia di diverse molecole e che: «Quando rompiamo un pomodoro, tagliandolo o masticandolo, si producono altre molecole determinanti: dalle cellule danneggiate si liberano enzimi, il più importante dei quali è la lipossigenasi. Gli enzimi prodotti ossidano gli acidi grassi polinsaturi presenti – l’acido linoleico e l’acido linolenico – trasformandoli in varie molecole odorose». A 4 °C la produzione di quegli enzimi avviene più lentamente e può essere una delle cause di un pomodoro maturo che sa comunque di poco quando viene tolto dal frigorifero e consumato.
    Si è però scoperto che non tutto è perduto e che sull’aroma incidono comunque i giorni di frigorifero: fino a tre non cambia molto per l’aroma, ma è importante tenere il pomodoro a temperatura ambiente per circa 24 ore prima di consumarlo. Una maggiore quantità di giorni in frigorifero comporta la perdita di buona parte delle componenti aromatiche e a quel punto non funziona più nemmeno lo stratagemma di toglierlo dal frigo il giorno prima di consumarlo.
    (Ben Pruchnie/Getty Images)
    Nel caso dei prodotti acquistati al supermercato è più probabile che ci sia stato un periodo di refrigerazione, quindi le precauzioni per preservare l’aroma potrebbero non essere necessarie perché ormai si è persa buona parte dei composti. Riportare il pomodoro a temperatura ambiente prima di consumarlo potrebbe comunque renderlo più gustoso, anche perché tendiamo a percepire meno i sapori dei cibi molto freddi.
    Per quanto riguarda il sapore, ciò che percepiamo di più mentre mangiamo un pomodoro è il contrasto tra gli zuccheri e gli acidi, questi ultimi presenti soprattutto in quella sostanza gelatinosa che si trova al centro del frutto insieme ai semi e che spesso viene scartata. Come ricorda Bressanini: «Quel gel, che alcuni gettano via, ha la più alta concentrazione di acidi del pomodoro ed è quindi un errore eliminarlo: la vitamina C, che è un acido, è in gran parte concentrata in questa zona. Sono poi presenti anche vari amminoacidi liberi, in particolare l’acido glutaminico, che contribuiscono notevolmente al gusto del pomodoro».
    Le esigenze di produzione, trasporto e conservazione hanno fatto sì che venissero privilegiate la selezione e la coltivazione di varietà che non hanno grandi cavità al loro interno in cui si raccoglie la sostanza gelatinosa. Pomodori più compatti e meno cavi sono più resistenti, ma anche in questo caso si sacrifica un poco il sapore.
    Le lamentele sui pomodori meno gustosi rispetto a un tempo hanno quindi una base di verità, anche se probabilmente sono un poco esagerate come avviene spesso quando si mitizza il passato. In generale i pomodori odierni sono più resistenti e durano più a lungo, cosa che contribuisce a ridurre gli sprechi alimentari, senza contare che possono essere consumati praticamente in qualsiasi periodo dell’anno.
    Alcuni gruppi di ricerca hanno messo a confronto le varietà nelle loro versioni tradizionali con quelle più recenti, notando effettivamente la perdita o la modifica di alcuni geni coinvolti nel sapore e nell’aroma. Le differenze per alcune varietà sono minime, mentre per altre possono essere più marcate. La buona notizia è che l’identificazione dei geni che rendono gustosi i pomodori potrà consentire di avere in futuro pomodori non solo più resistenti, ma anche più saporiti, ricorrendo alle tecniche di evoluzione assistita (qui sono spiegate estesamente).
    Per chi non può permettersi un orto in cui coltivare le varietà più saporite e raccoglierle solo quando sono mature, consumandole immediatamente, il consiglio che viene generalmente dato è di non conservare i pomodori in frigorifero. Quelli acquistati già maturi andrebbero consumati il prima possibile, mentre quelli ancora acerbi possono essere tenuti a temperatura ambiente fino al grado di maturazione desiderato. Una volta maturi, se non possono essere consumati subito, è meglio riporli in frigorifero evitando però di tenerli al freddo per più di tre giorni. Consumarli a temperatura ambiente permette di percepirne meglio il sapore e l’aroma. Sperimentare con le numerose varietà di pomodoro disponibili potrebbe inoltre farvi scoprire un pomodoro per voi più saporito di altri. I gusti sono gusti, del resto. LEGGI TUTTO