More stories

  • in

    Clizia Incorvaia inizia yoga per superare un periodo difficile

    Gossip.it © 2000 – 2024. Contents, marketing and advertising managed by Mediafun Ltd. Vat: BG205038334.
    GossipNews, quotidiano di cronaca rosa, gossip, costume e società fondato da Paola Porta. Registrazione tribunale di Napoli n.5246 del 18 ottobre 2001. Registrazione al ROC n.14687 del 2 gennaio 2007. PWD srl, P.Iva: 06523591219. All rights reserved. LEGGI TUTTO

  • in

    Non possiamo vivere più a lungo di così?

    Il marcato aumento dell’aspettativa di vita nel corso del Novecento ha portato a ipotizzare un futuro in cui un numero crescente di persone vivrà più di 100 anni, specialmente tra i nati alla fine del secolo scorso e nei primi vent’anni di quello attuale. È un’ipotesi diffusa e discussa soprattutto in ambito accademico, dove si confrontano esperti di vari ambiti, da quelli sanitari a quelli della statistica e della demografia. Un recente studio si è da poco aggiunto al dibattito, segnalando un rallentamento dell’aumento dell’aspettativa di vita nei paesi più ricchi, che è stato interpretato come un indizio sui limiti di età raggiungibili dalla nostra specie.Lo studio è stato pubblicato sulla rivista scientifica Nature Aging e ha tenuto in considerazione le morti registrate in alcuni dei paesi del mondo noti per essere luoghi in cui si diventa mediamente molto vecchi, come il Giappone, la Corea del Sud, la Spagna, la Svezia e l’Italia. L’analisi ha tenuto in considerazione il periodo tra il 1990 e il 2019, in modo da evitare gli anni successivi alla pandemia da coronavirus, che avrebbero probabilmente distorto le stime.
    Dalla ricerca è emerso che il tasso di miglioramento nell’aspettativa di vita nel periodo 2010-2019 si è ridotto rispetto a quello osservato tra il 1990 e il 2000. Secondo il gruppo di ricerca i bambini nati a partire dal 2010 hanno una probabilità relativamente bassa di diventare centenari: dell’1,8 per cento per i maschi e del 5,1 per cento per le donne. La probabilità più alta è a Hong Kong dove per le donne si arriva al 12,8 per cento.
    Variazione media annuale dell’aspettativa di vita alla nascita (Nature Aging)
    S. Jay Olshansky, un epidemiologo dell’University of Illinois Chicago che ha lavorato alla nuova ricerca, ha detto al sito di Nature che: «Ci sono dei limiti oltre i quali non possiamo spingere la sopravvivenza umana». Olshansky è da tempo uno dei principali sostenitori della finitezza dell’aspettativa di vita per gli esseri umani. Nel 1990 pubblicò un primo studio condividendo questa ipotesi e da allora ha raccolto circa 30 anni di dati per trovare conferme alla propria teoria.
    Nel Novecento i miglioramenti legati alla salute pubblica e allo sviluppo di nuove cure e terapie hanno permesso di fare aumentare in modo significativo l’aspettativa di vita, per lo meno nei paesi più ricchi. In media si sono aggiunti tre anni di vita ogni decennio, facendo ipotizzare che quell’andamento potesse proseguire ancora portando a una popolazione di centenari tra i nati nel nuovo millennio. Per quanto affascinante, questa ipotesi è però difficile da confermare, visto che gli eventuali centenari saranno tali alla fine di questo secolo o nei primi decenni del prossimo.
    Olshansky e colleghi ritengono che non sia comunque questo il caso e che il rallentamento osservato nell’aumento dell’aspettativa di vita sia un indizio sui limiti fisiologici che impediscono al nostro organismo di invecchiare più di tanto. Gli studi sui processi di invecchiamento hanno segnalato l’esistenza di alcuni di questi limiti, ma da tempo si discutono e si indagano le possibilità di intervenire sui meccanismi che portano le cellule a morire e a non rinnovare i tessuti.
    Alcuni dei paesi analizzati nello studio hanno mostrato una riduzione più marcata dell’aspettativa di vita rispetto ad altri. Negli Stati Uniti, per esempio, la diminuzione è diventata evidente a partire dal 2010 ed è paragonabile agli andamenti riscontrati in particolari momenti della storia del Novecento, come i periodi di guerra. La riduzione sembra essere collegata a un maggior numero di morti precoci a causa di problemi di salute come diabete e malattie cardiache nella fascia di età compresa tra i 40 e i 60 anni. Gli Stati Uniti sono uno dei paesi dove si è riscontrato un maggiore aumento delle persone fortemente sovrappeso e obese negli ultimi decenni.
    La ricerca di Olshansky e colleghi ha portato nuovi elementi al lungo dibattito sull’invecchiamento e la possibilità per molti di superare i cento anni di vita nei prossimi decenni. Lo studio è stato accompagnato da un commento, pubblicato sempre su Nature Aging, che prova a mettere le conclusioni in un contesto più ampio interrogandosi sull’effettiva possibilità di fare ancora aumentare l’aspettativa di vita.
    Secondo il commento, la ricerca è troppo pessimistica sui potenziali progressi che potrebbero essere raggiunti nei prossimi anni in ambito medico, ricordando che solo un secolo fa in pochi ritenevano che si potesse perfino ridurre la mortalità infantile. I vaccini e pratiche di salute pubblica migliori fecero invece la differenza portando il tasso di mortalità infantile dal 20 per cento degli anni Cinquanta al 4 per cento dei giorni nostri. Maggiori politiche di prevenzione, nuove cure e terapie per rallentare l’invecchiamento potrebbero avere un sensibile impatto sull’aspettativa di vita difficile da prevedere oggi. LEGGI TUTTO

  • in

    Il Premio Nobel per la Medicina, in diretta

    Il Premio Nobel per la Medicina 2024 è stato assegnato a Victor Ambros e Gary Ruvkun «per la loro scoperta del microRNA e del suo ruolo nella maturazione dell’mRNA».Grazie alle loro ricerche su come si sviluppano tipi diversi di cellule, Ambros e Ruvkun hanno scoperto il microRNA, cioè piccole molecole di RNA che hanno un ruolo centrale nella regolazione dei geni. Queste molecole sono fondamentali per come si sviluppano e funzionano gli organismi multicellulari, compresi gli esseri umani. Per comprendere la portata della loro scoperta è però necessario un rapido ripasso delle cose che si studiano a scuola sul materiale genetico.
    Le informazioni per far sviluppare e funzionare il nostro organismo, come quello di moltissimi altri esseri viventi, sono contenute nei cromosomi, una specie di manuale di istruzioni per le cellule. I cromosomi sono contenuti nel nucleo di ogni cellula, quindi ciascuna di loro contiene la medesima serie di geni e di conseguenza di istruzioni. Eppure ogni cellula ha un ruolo specifico: utilizza alcune istruzioni e ne ignora altre. Riesce a farlo grazie alla regolazione genica, un processo in cui esprime un certo numero di geni (che contengono le istruzioni) e al contempo silenzia tutti gli altri.
    Capire come funzionasse la regolazione genica non fu semplice e richiese decenni di studi. L’informazione genetica viene trascritta dal DNA all’RNA messaggero (mRNA) e infine alle strutture della cellula che si occupano materialmente di usare quelle istruzioni per produrre le proteine. Grazie alla regolazione genica, le cellule dell’intestino, del cervello o dei muscoli producono solo le proteine necessarie per svolgere le loro funzioni, lasciando perdere tutte le altre. La regolazione genica è inoltre importante per consentire alle cellule di “tenersi aggiornate”, producendo per esempio alcuni tipi di proteine solo in condizioni di emergenza o quando cambia il contesto in cui sono attive.
    Rappresentazione schematica dei processi di trascrizione e di costruzione delle proteine (Nobel Prize)
    Negli anni Sessanta si capì che alcune specifiche proteine (“fattori di trascrizione”) hanno un ruolo nel controllo dell’informazione genetica, perché possono condizionare la produzione di specifici segmenti di mRNA. Le successive scoperte di migliaia di fattori di trascrizione fecero ipotizzare che fossero questi i principali responsabili della regolazione genica. Le cose sarebbero però cambiate tra la fine degli anni Ottanta e i primi Novanta, quando Ambros e Ruvkun fecero conoscenza con un particolare verme cilindrico (nematode).
    I due ricercatori avevano studiato alcune caratteristiche del nematode C. elegans, lungo appena un millimetro, ma dotato di cellule specializzate per molti compiti diversi: ideale da studiare per capire il funzionamento di organismi più complessi. Ambros e Ruvkun studiavano C. elegans per comprendere il ruolo di alcuni geni che controllano le fasi di attivazione di altri geni, in modo che le cellule nell’organismo si sviluppino al momento giusto per svolgere le loro funzioni. Si erano concentrati su lin-4, un gene che regola proprio i tempi di sviluppo delle larve di C. elegans, isolandolo e notando che invece di produrre un RNA messaggero (che porta le istruzioni alle strutture della cellula per costruire le proteine), questo portava alla produzione di minuscoli filamenti di RNA che non contenevano però istruzioni per la costruzione delle proteine.
    Il confronto con altri geni, permise a Ambros e Ruvkun di scoprire che quei minuscoli filamenti, poi chiamati microRNA, hanno un ruolo centrale nella regolazione genica. Hanno infatti la capacità di legarsi a specifiche sezioni dell’mRNA e di annullare parte delle sue istruzioni, in modo che non vengano seguite dalla cellula nella produzione di alcuni tipi di proteine. Erano i primi anni Novanta e Ambros e Ruvkun avevano scoperto un nuovo meccanismo nella regolazione genica grazie a un tipo di RNA non conosciuto fino ad allora: il microRNA.
    I risultati dei loro studi furono pubblicati in due articoli sulla rivista scientifica Cell nel 1993, ma furono necessari diversi anni prima che venisse accettata la loro ipotesi. Inizialmente si pensava infatti che quel meccanismo fosse tipico di C. elegans, ma non necessariamente di altri organismi. Nel 2000 il gruppo di ricerca di Ruvkun pubblicò un nuovo studio dove mostrava come lo stesso fenomeno si applicasse a un particolare gene, che ricorre in un’ampia varietà di specie animali. Negli anni seguenti furono scoperte migliaia di geni che regolano il microRNA, facendo arrivare alla conclusione che questo sia presente in tutti gli organismi pluricellulari. Si sarebbe poi scoperto che il microRNA ha diverse altre funzioni, sempre legate a coordinare e determinare l’attivazione di moltissimi geni.
    Il lavoro di Ambros e Ruvkun è stato fondamentale per comprendere un meccanismo che funziona da centinaia di milioni di anni, alla base dell’evoluzione di organismi sempre più complessi. I loro studi hanno anche permesso di scoprire che senza microRNA le cellule non si sviluppano normalmente e che in mancanza di un suo normale funzionamento si possono avere mutazioni, molte delle quali responsabili di alcune malattie compresi i tumori.
    Victor Ambros è nato nel 1953 ad Hanover nel New Hampshire, negli Stati Uniti, ed è docente di scienze naturali presso l’University of Massachusetts Medical School di Worcester.Gary Ruvkun è nato a Berkeley in California nel 1952 ed è docente di genetica presso l’Harvard Medical School. LEGGI TUTTO

  • in

    Che cos’è la progeria

    La morte di Sammy Basso avvenuta sabato ha suscitato nuovo interesse intorno alla progeria, la malattia genetica estremamente rara che causa un invecchiamento precoce riducendo le aspettative di vita di chi ne è affetto. Basso avrebbe compiuto 29 anni a dicembre ed è morto il 5 ottobre, dopo avere dedicato una parte importante della propria vita a far conoscere la sua malattia, e a divulgarne gli effetti e le ricerche per trattarla più efficacemente.La progeria, o più precisamente malattia di Hutchinson-Gilford (HGPS), interessa pochissime persone al mondo, al punto da essere difficile quantificare quanto di frequente si presenti nella popolazione. Si stima che ci sia un caso ogni 20 milioni di nascite e nel 2024 la Progeria Research Foundation, una delle principali organizzazioni che si occupano della malattia, ha rilevato 151 casi in 48 paesi. La malattia è nota da quasi un secolo e mezzo e da allora sono state segnalate centinaia di casi, anche se non sempre è possibile diagnosticarla con certezza e in tempo utile per avviare una terapia per alleviare i sintomi.
    L’invecchiamento precoce causato dalla progeria è dovuto alla mutazione di un gene (LMNA o Laminina A), che contiene al proprio interno le informazioni per mettere in condizione l’organismo di produrre la lamina A, una proteina che ha un ruolo molto importante per mantenere integro e stabile il nucleo delle cellule. La mutazione fa sì che venga prodotta una lamina A difettosa, chiamata progerina, che rende instabile il nucleo cellulare dove sono contenute le informazioni genetiche fondamentali per la moltiplicazione cellulare. Le cellule non riescono a dividersi o lo fanno in modo scorretto, con errori e mutazioni nel materiale genetico, portando a un processo di invecchiamento precoce che si riflette sulla salute.
    Non è ancora chiaro quali siano le cause della mutazione nel gene LMNA che porta alla progeria, ma si ritiene che sia un evento casuale che si verifica nelle prime fasi del concepimento. Per quanto il numero di casi sia molto limitato, a oggi non ci sono chiari indizi per ritenere che uno dei genitori sia portatore della mutazione genetica e che quindi questa sia ereditaria. La mutazione sembra infatti manifestarsi spontaneamente e non derivare direttamente dai genitori. È comunque un aspetto ancora dibattuto, anche perché in passato è stata segnalata per alcuni casi di progeria una ricorrenza tra fratelli.
    Un bambino con progeria solitamente non mostra alcun sintomo alla nascita, con i segni della sindrome che iniziano a diventare evidenti nel corso del primo anno di vita. I genitori o il personale medico se ne accorgono notando una scarsa crescita del bambino e una anomala perdita di capelli. Trattandosi di una malattia estremamente rara la diagnosi può richiedere diverso tempo e non sempre la malattia viene identificata da subito, proprio per la sua scarsa diffusione e le poche conoscenze intorno ad alcune sue caratteristiche.
    A oggi non esiste una terapia vera e propria contro la progeria e l’attività medica si concentra soprattutto nel ridurne gli effetti, che riguardano in primo luogo il sistema cardiovascolare. L’invecchiamento precoce comporta soprattutto una maggiore rigidità e un ispessimento dei vasi sanguigni, con la comparsa di malattie tipiche della terza età come l’aterosclerosi, ma in bambini e adolescenti. Il flusso di sangue verso gli organi vitali si riduce e questo favorisce ulteriormente i processi di invecchiamento e di deperimento.
    La maggior parte delle persone con progeria muore per complicazioni dovute all’aterosclerosi come l’insufficienza cardiaca, l’infarto e l’ictus cerebrale. Per questo a chi ha la malattia viene di solito prescritta l’assunzione di farmaci come l’aspirina a basso dosaggio per prevenire gli attacchi di cuore, oppure il ricorso ad anticoagulanti per ridurre il rischio che si formino coaguli di sangue o ancora statine, per abbassare i livelli di colesterolo.
    Stimare l’aspettativa di vita media per una persona affetta da progeria non è semplice, sia per lo scarso numero di casi diagnosticati ogni anno, sia per la grande variabilità degli esiti della condizione su ogni paziente. In generale l’aspettativa media è di circa 13 anni, ma ci possono essere diversi casi in cui una persona riesce a vivere più a lungo. Sammy Basso è morto a quasi 29 anni, diventando una delle persone più longeve tra i casi di progeria.
    La sindrome ha la caratteristica di non intaccare in modo significativo le capacità mentali, così come non causa altri disturbi tipicamente legati all’invecchiamento. Di rado la malattia causa artrite, problemi di vista o un aumentato rischio di cancro, anche se molto dipende dai singoli pazienti e dall’età che raggiungono.
    Benché sia una malattia estremamente rara, la progeria è studiata con attenzione perché potrebbe offrire nuovi elementi per comprendere i meccanismi dell’invecchiamento nella popolazione in generale. Le ricerche si sono concentrate soprattutto sul gene LMNA per provare a comprendere che cosa inneschi la mutazione che porta poi alla malattia. Sono stati avviati anche studi clinici sull’impiego di alcuni farmaci sviluppati per la cura di forme di tumore, che hanno mostrato qualche esito positivo nell’impiego con persone con progeria. Oltre a quella indotta dalla mutazione del gene, ci sono alcune malattie che si manifestano con disturbi simili alla HGPS, come la sindrome progeroide atipica e quella congenita, ancora oggetto di studio. LEGGI TUTTO

  • in

    La storia sorprendente di come fu scoperta la vera causa dell’ulcera allo stomaco

    Caricamento playerUna delle scoperte più importanti per la salute di tutto il Novecento avvenne grazie all’ostinazione di due ricercatori, a una dimenticanza e alla Pasqua, circa quarant’anni fa. Gli australiani John Robin Warren e Barry Marshall identificarono la vera causa della maggior parte delle ulcere gastriche e delle gastriti, sovvertendo secoli di ipotesi e trattamenti per tenerle sotto controllo con risultati deludenti. A comportare quei problemi di salute non erano lo stress o l’alimentazione, come si credeva, ma un batterio che poteva essere eliminato semplicemente con un antibiotico. Vincere lo scetticismo iniziale non fu semplice, ma Marshall e Warren – che è morto lo scorso luglio a 87 anni – non si diedero per vinti, portando a un cambiamento epocale nella cura dell’ulcera per milioni di persone in tutto il mondo che valse loro un Premio Nobel.
    Dopo essersi laureato in medicina nel 1961, Warren non era riuscito a seguire la specializzazione in psichiatria come avrebbe voluto e aveva scelto patologia clinica, cioè lo studio delle malattie per lo più in laboratorio. Negli anni seguenti avrebbe lavorato su campioni di ogni tipo, dal midollo osseo al sangue passando per feci e urine. Nel 1968 ottenne un posto al Royal Perth Hospital che aveva un’affiliazione con l’Università dell’Australia Occidentale. Lavorava con pochi contatti col resto del personale e trascorreva buona parte del proprio tempo nei sotterranei dell’ospedale, dove sezionava ed esaminava cadaveri.
    Una decina di anni dopo, all’inizio degli anni Ottanta, Marshall aveva iniziato a lavorare nello stesso ospedale, ma nel reparto di gastroenterologia. Per il suo programma di formazione avanzata, Marshall era stato incoraggiato a svolgere un lavoro di ricerca e gli era stato suggerito di parlare con Warren, che qualche tempo prima aveva identificato con sua sorpresa un batterio nelle analisi (biopsie) di alcune mucose dello stomaco. In precedenza poche ricerche avevano segnalato la presenza di batteri nello stomaco e all’epoca si riteneva, come del resto da secoli, che per un batterio fosse impossibile sopravvivere alla forte acidità dei succhi gastrici e in particolare dell’acido cloridrico.
    Tutto ciò che ingeriamo passa attraverso lo stomaco e viene scomposto dall’acido cloridrico presente al suo interno, fondamentale per far sì che le sostanze nutrienti possano essere assimilate nel passaggio successivo dall’intestino. Per non digerire anche sé stesso, lo stomaco si protegge dall’acido cloridrico grazie a una sostanza composta da muco e bicarbonato prodotta dalle cellule gastriche, che neutralizza l’effetto dell’acido quando questo entra in contatto con le sue pareti. Se la quantità di acido aumenta o i tessuti dello stomaco sono infiammati, la barriera non è sufficiente e si possono produrre delle ulcere, cioè ferite simili a piaghe che provocano una sensazione di bruciore che si presenta in vari momenti della giornata in base alla pienezza dello stomaco.
    (Wikimedia)
    A seconda dei casi, un’ulcera può causare sintomi lievi e intermittenti, anche a distanza di giorni o settimane, oppure più gravi e che richiedono un rapido intervento nel caso in cui ci sia una perforazione dello stomaco. In questa circostanza il contenuto dello stomaco si riversa nella cavità addominale e può provocare una grave infiammazione dei peritoneo, il rivestimento interno dell’addome. Se il problema non viene trattato per tempo e adeguatamente si può avere una diffusione dell’infezione che può rivelarsi mortale.
    Per moltissimo tempo le cause delle gastriti e delle ulcere furono un mistero. Si riteneva che le principali cause fossero il consumo di alcolici, il fumo, lo stress, i cibi piccanti e altre abitudini alimentari, insieme a una certa predisposizione di alcune persone. Nel periodo in cui Warren e Marshall iniziarono a lavorare insieme, le terapie erano orientate a ridurre i sintomi, con la prescrizione di farmaci per tenere sotto controllo la produzione dei succhi gastrici e l’acidità dello stomaco. Non funzionavano sempre: quando il problema sembrava essere risolto, si ripresentava dopo qualche tempo e nei casi di ulcera più gravi si rendevano necessari interventi chirurgici invasivi e rischiosi.
    Warren aveva analizzato le biopsie di alcuni pazienti con mal di stomaco e le aveva mostrate a Marshall, dicendogli che in più di venti casi aveva rilevato la presenza di un’infezione batterica. Marshall aveva allora messo in relazione le biopsie con le cartelle cliniche di quei pazienti, notando che alcuni avevano ricevuto una diagnosi di ulcera allo stomaco, ulcera al duodeno (la parte iniziale dell’intestino tenue) o gastriti di varie entità. Sembrava esserci una relazione tra la presenza di quel batterio e le diagnosi, ma i dati erano carenti e soprattutto sembravano andare contro il dogma dello stomaco inospitale alla vita dei batteri.
    Grazie alla collaborazione dei medici del reparto di gastroenterologia e di microbiologia dell’ospedale, Warren e Marshall iniziarono a raccogliere altre biopsie e ad analizzarle trovando quasi sempre l’infezione batterica, ma senza riuscire a isolare e coltivare i batteri in laboratorio per avere colonie più grandi da analizzare e capire l’eventuale ruolo nelle ulcere. Alla fine del 1981 alcuni colleghi consigliarono ai due ricercatori di passare a un approccio più sistematico, organizzando uno studio clinico vero e proprio con tutti i criteri del caso per valutare andamenti e variabili.
    John Robin Warren e Barry Marshall nel 1984 (via ResearchGate)
    In pochi mesi, Warren e Marshall organizzarono uno studio che avrebbe coinvolto cento persone. L’obiettivo era di capire se il batterio fosse presente normalmente nello stomaco, se fosse possibile coltivarlo e se la sua presenza potesse essere messa in relazione con le gastriti e le ulcere. Parallelamente, sarebbero proseguiti i tentativi di coltivare il batterio in laboratorio, forse l’obiettivo più difficile dell’intera ricerca.
    Trattandosi di un batterio presente nell’apparato digerente, il gruppo di ricerca aveva pensato che potesse ricevere il medesimo trattamento dei campioni di feci o derivati dai tamponi orali. I campioni venivano di solito messi su una piastra di Petri (il classico recipiente di vetro da laboratorio simile a un piattino) e se dopo 48 ore non erano osservabili particolari microrganismi, segno dell’avvenuta formazione di una colonia, il test era negativo e si gettava via tutto. Seguendo un approccio simile, dai campioni ottenuti con le biopsie non si era mai riusciti a ottenere una colonia del batterio nello stomaco. Almeno fino a quando fu Pasqua del 1982.
    Nei giorni prima del fine settimana lungo pasquale i tecnici di laboratorio del Royal Perth Hospital avevano dovuto dedicare buona parte del loro tempo a una quantità crescente di infezioni da stafilococco nell’ospedale, trascurando altre attività di ricerca. Una piastra di Petri preparata per tentare l’ennesima coltura di batteri da una biopsia allo stomaco era finita nel dimenticatoio nel weekend lungo di Pasqua che comprendeva il lunedì dell’Angelo, cioè il giorno di Pasquetta. Al loro ritorno il martedì, i tecnici notarono che sulla piastra dimenticata si era formato un sottile strato trasparente: era la colonia di batteri che non erano mai riusciti a ottenere prima e che avrebbe offerto a Marshall e Warren nuovi elementi per la loro ricerca.
    Poche settimane dopo fu completato lo studio e i risultati apparvero da subito molto solidi. Tra i cento volontari sottoposti a endoscopia (cioè a un esame che con un tubo fatto passare per l’esofago permette di esplorare lo stomaco e raccoglierne piccoli pezzi da analizzare) 65 avevano ricevuto una diagnosi di gastrite e c’era una forte associazione tra la loro condizione e la presenza del batterio. Questo era stato trovato in tutti i pazienti con un’ulcera al duodeno e nell’80 per cento di chi aveva un’ulcera allo stomaco; il batterio non era invece quasi mai presente nei pazienti con ulcere causate dall’assunzione di un tipo di antinfiammatori (FANS), noti per essere aggressivi con la mucosa gastrica.
    Helicobacter pylori al microscopio elettronico (via Wikimedia)
    Nel frattempo la coltura del batterio aveva permesso di identificarne le caratteristiche e di classificarlo come Helicobacter pylori. La scoperta aveva il potenziale di cambiare radicalmente il modo in cui venivano trattate le ulcere, ma furono necessari quasi due anni prima che lo studio di Warren e Marshall venisse pubblicato nel 1984 su The Lancet, una delle più importanti e prestigiose riviste mediche al mondo. Lo studio era stato infatti accolto con grande cautela e qualche scetticismo perché di fatto metteva in dubbio le pratiche mediche seguite fino all’epoca. Un editoriale di commento scritto dai responsabili della rivista ad accompagnamento dello studio mostrava quanto non ci si volesse sbilanciare: «Se l’ipotesi degli autori sulle cause e sugli effetti dovesse dimostrarsi valida, questo lavoro si rivelerebbe sicuramente importante».
    Marshall aveva intanto proseguito alcune ricerche scoprendo che i sali di bismuto, una delle sostanze utilizzate fino ad allora nei farmaci per trattare ulcere e gastriti, erano in grado di uccidere H. pylori in vitro, cioè in esperimenti di laboratorio. Ciò spiegava probabilmente perché i pazienti traessero temporaneamente beneficio dall’assunzione di quei farmaci, anche se il trattamento non consentiva di eliminare tutte le colonie di batteri e di conseguenza dopo un po’ di tempo si ripresentava l’infiammazione allo stomaco. L’aggiunta alla terapia di metronidazolo, un antibiotico, eliminava invece il rischio di una recidiva a conferma del ruolo del batterio nelle gastriti e nelle ulcere.
    Gli esiti di quei test erano emersi mentre Warren e Marshall erano ancora in attesa della pubblicazione del loro studio. Marshall pensò che una dimostrazione più chiara avrebbe vinto gli scetticismi, ma non riuscendo a riprodurre efficacemente le circostanze in un modello animale fece una proposta a Warren: bere una soluzione contenente H. pylori per verificare in prima persona i suoi effetti sullo stomaco. Warren non ritenne fosse il caso, come raccontò in seguito: «Quell’idea non mi piacque per niente. Penso di avergli detto “no” e basta».
    Marshall non si scoraggiò e bevve la soluzione, dopo essersi sottoposto a un esame per sincerarsi di non avere già un’infezione da H. pylori. Per cinque giorni non ebbe sintomi, poi iniziò a sviluppare una gastrite, accompagnata da nausea, persistente alitosi e rigurgiti di succhi gastrici. A dieci giorni dall’assunzione, una nuova biopsia indicò una gastrite acuta e una forte infezione batterica allo stomaco. Dopo due settimane i sintomi iniziarono a diminuire, ma Adrienne, la moglie di Marshall esasperata dal pessimo alito del marito, lo esortò ad assumere immediatamente gli antibiotici minacciando di: «Sbatterlo fuori di casa e farlo dormire sotto a un ponte».
    L’esperimento dimostrò ancora una volta il ruolo di H. pylori, ma non fu un particolare acceleratore nel cambiamento delle terapie. Dalla pubblicazione dello studio su Lancet nel 1984 passarono poi circa dieci anni prima che i trattamenti per l’ulcera venissero modificati, con il ricorso agli antibiotici come per qualsiasi altra infezione batterica. Uno dei rappresentanti delle autorità di controllo sanitarie negli Stati Uniti, commentò i nuovi protocolli nel 1994: «Ora c’è la possibilità di curare questa condizione, una cosa impensata prima. Abbiamo trattato le ulcere con sostanze per ridurre le secrezioni di succhi gastrici per così tanti anni da diventare difficile accettare che un germe, un batterio, potesse causare una malattia di quel tipo».
    La prescrizione degli antibiotici fu affiancata a quella di altri farmaci per ridurre temporaneamente la produzione dei succhi gastrici, in modo da consentire alle mucose dello stomaco di guarire. Per la diagnosi da infezione da H. pylori fu poi sviluppato un “breath test”, un semplice esame che consiste nel soffiare in una provetta per verificare la presenza del batterio.
    John Robin Warren e Barry Marshall durante la cerimonia di consegna dei Premi Nobel a Stoccolma, in Svezia, nel 2005 (REUTERS/Pawel Kopczynski)
    Warren e Marshall avevano realizzato una delle più grandi scoperte nella scienza medica del Novecento, sempre restando fedeli al metodo scientifico e alla condivisione dei loro studi con altri esperti. Partirono dai dati e dalle prove raccolte con i metodi della ricerca per provare le loro ipotesi, e non il contrario, come fa spesso chi sostiene di avere una nuova cura miracolosa che non viene accettata dal “sistema” o “dai poteri forti”. I loro studi furono la base per molte altre ricerche che continuano ancora oggi, soprattutto per comprendere il ruolo che hanno alcune infiammazioni croniche all’apparato digerente nello sviluppo di alcuni tipi di tumori.
    Robin Warren è morto il 23 luglio 2024 a Perth, in Australia: aveva 87 anni. In una mattina d’autunno di diciannove anni prima aveva ricevuto una telefonata da Stoccolma con la quale gli veniva annunciata l’assegnazione del Premio Nobel per la Medicina insieme a Marshall: «Per la loro scoperta del batterio Helicobacter pylori e il suo ruolo nelle gastriti e nelle ulcere gastriche». LEGGI TUTTO

  • in

    C’è molta confusione su un trattamento per prevenire la bronchiolite

    Caricamento playerNegli ultimi giorni si è generata molta confusione intorno al nirsevimab, un anticorpo monoclonale contro il virus respiratorio sinciziale umano (VRS) – una delle cause delle bronchioliti nei bambini con meno di un anno – noto con il nome commerciale Beyfortus. In un primo momento il ministero della Salute aveva ribadito che la spesa per il nirsevimab è a carico dei cittadini salvo diverse decisioni delle Regioni (con limiti per quelle con i conti sanitari non in ordine), ma in un secondo momento è stata diffusa una nota che annuncia l’avvio dei confronti necessari con l’Agenzia italiana del farmaco (AIFA) per renderlo accessibile a tutti gratuitamente. Una decisione definitiva non è stata ancora presa, lasciando molti dubbi a chi vorrebbe sottoporre i propri figli al trattamento in vista della stagione fredda in cui il virus circola di più.
    Il VRS è un virus piuttosto diffuso e come quelli dell’influenza ha una maggiore presenza tra novembre e aprile. Nelle persone adulte in salute non dà sintomi particolarmente rilevanti (è più insidioso negli anziani e nei soggetti fragili), ma può essere pericoloso nei bambini con meno di un anno di età. È infatti una delle cause principali della bronchiolite, una malattia respiratoria che può comunque avere diverse altre cause virali (coronavirus, virus influenzali, rhinovirus e adenovirus, per citarne alcuni).
    L’infiammazione nelle vie respiratorie riguarda i bronchi e i bronchioli, le strutture nei polmoni che rendono possibile il trasferimento di ossigeno al sangue e la rimozione dell’anidride carbonica: fa aumentare la produzione di muco che insieme ad altri fattori può portare a difficoltà respiratorie. Nella maggior parte dei casi l’infezione passa entro una decina di giorni senza conseguenze, ma possono esserci casi in cui la malattia peggiora. Negli ultimi anni alcuni studi hanno rilevato una maggiore quantità di casi gravi associati ad alcune varianti del VRS, che hanno reso necessario il ricovero dei bambini in ospedale e in alcuni casi in terapia intensiva.
    Le infezioni da VRS si prevengono con gli accorgimenti solitamente impiegati per altre malattie virali, quindi evitando il contatto con persone che hanno un’infezione in corso, lavandosi le mani e aerando regolarmente gli ambienti in cui si vive. A queste forme di prevenzione da qualche tempo si è aggiunta la possibilità di ricorrere a un trattamento con anticorpi monoclonali, cioè anticorpi simili a quelli che produce il nostro sistema immunitario, ma realizzati con tecniche di clonazione in laboratorio. Il loro impiego consente di avere a disposizione direttamente gli anticorpi, senza che questi debbano essere prodotti dal sistema immunitario dopo aver fatto conoscenza con un virus.
    Il nirsevimab fa esattamente questo, in modo che un bambino che lo riceve abbia gli anticorpi per affrontare il VRS riducendo il rischio di ammalarsi. Il trattamento non è un vaccino, che svolge invece una funzione diversa e cioè stimolare la produzione degli anticorpi; anche per questo motivo il trattamento è piuttosto costoso (contro il VRS esiste al momento un solo vaccino, il cui uso non è però consentito nei bambini).
    Il nirsevimab è stato autorizzato nell’Unione Europea nel 2022 e viene venduto come Beyfortus dall’azienda farmaceutica Sanofi, che lo ha sviluppato insieme ad AstraZeneca, e inizia a essere sempre più impiegato per fare prevenzione in paesi come la Francia e la Spagna dove è fornito gratuitamente. La sua somministrazione permette di fornire una maggiore protezione ai bambini con meno di un anno che vivono la loro prima stagione di alta circolazione del VRS. È  pensato per tutelarli nel periodo in cui sono esposti a qualche rischio in più perché ancora molto piccoli, poi crescendo non è più necessario.
    A inizio anno la Società italiana di neonatologia (SIN) aveva segnalato che il nirsevimab: «Ha una lunga emivita [durata nell’organismo, ndr] ed è in grado con una sola somministrazione di proteggere il bambino per almeno 5 mesi riducendo del 77 per cento le infezioni respiratorie da VRS che richiedono ospedalizzazione e dell’86 per cento il rischio di ricovero in terapia intensiva». La SIN segnalava inoltre che un impiego su larga scala del nirsevimab avrebbe permesso di ridurre i costi sanitari rispetto all’impiego di altri anticorpi monoclonali e di contenere le spese dovute ai ricoveri ospedalieri, per i ricoveri dei bambini che sviluppano forme gravi della malattia. Per questo motivo invitava il ministero della Salute e le Regioni, che mantengono ampie autonomie nelle politiche sanitarie, a considerare una revisione delle regole di accesso al trattamento.
    A oggi il nirsevimab è infatti compreso nei farmaci di “fascia C”, quindi a carico di chi li acquista, e ha un prezzo base al pubblico indicato dal produttore di 1.150 euro (importo che potrebbe essere più basso a seconda delle contrattazioni con i servizi sanitari regionali). Questa classificazione fa sì che le Regioni non possano utilizzare per il suo acquisto i fondi che ricevono dallo Stato per la gestione della sanità nei loro territori: hanno però la facoltà di offrirlo gratuitamente se finanziano l’iniziativa con altri fondi previsti nei loro bilanci. È una pratica che viene seguita spesso, ma con alcune limitazioni legate alla necessità di evitare che le Regioni non sforino troppo rispetto alle loro previsioni di spesa.
    Oltre a essere in “fascia C”, il nirsevimab non è compreso nel Piano nazionale prevenzione vaccinale ed è quindi un extra rispetto ai Livelli essenziali di assistenza (LEA), le prestazioni che il Servizio sanitario nazionale deve obbligatoriamente fornire a tutti i cittadini gratuitamente o con il pagamento di un ticket.
    In vista della stagione fredda, negli ultimi mesi alcune Regioni avevano annunciato di voler fornire il nirsevimab senza oneri per i pazienti, portando il ministero della Salute a diffondere una circolare il 18 settembre per ricordare le regole di finanziamento di queste iniziative. Oltre a segnalare la necessità di fornire il trattamento attingendo a fondi diversi da quelli sanitari regionali, il ministero aveva ricordato che «le regioni in piano di rientro dal disavanzo sanitario», cioè le regioni senza i conti a posto, «non possono, ad oggi, garantire la somministrazione dell’anticorpo monoclonale».
    La limitazione riguardava quindi Lazio, Abruzzo, Molise, Campania, Calabria, Puglia e Sicilia e portava di fatto a una disparità di trattamento per gli abitanti di queste regioni rispetto alle altre. La circolare aveva fatto discutere, soprattutto tra i genitori di bambini con meno di un anno ancora in attesa di capire se poter accedere o meno gratuitamente al trattamento, a ridosso dell’inizio della stagione di maggiore circolazione del VRS.
    In seguito alle proteste e alle polemiche il 19 settembre, quindi appena un giorno dopo la pubblicazione della circolare del ministero della Salute, la responsabile del Dipartimento della prevenzione, Maria Rosaria Campitiello, ha diffuso una nota con la quale ha annunciato l’avvio di un confronto con l’AIFA per rivedere le regole di accesso al nirsevimab per renderlo non a carico: «È nostra intenzione rafforzare le strategie di prevenzione e immunizzazione universale a tutela dei bambini su tutto il territorio nazionale, garantendo a tutte le regioni la somministrazione dell’anticorpo monoclonale senza oneri per i pazienti».
    Nella nota non sono però indicati tempi o modalità del confronto, che secondo diversi osservatori arriva comunque in ritardo considerato l’avvicinarsi del periodo in cui la diffusione di VRS ha il proprio picco. Il Board del calendario per la vita, iniziativa che comprende le federazioni dei medici e dei pediatri, aveva già raccomandato a inizio 2023 l’impiego del nirsevimab il prima possibile: «Nell’imminenza della autorizzazione all’immissione in commercio, auspicano che venga prontamente riconosciuta la novità anche in termini regolatori di nirsevimab, considerando la sua classificazione non quale presidio terapeutico (come sempre avvenuto per gli anticorpi monoclonali) ma preventivo, nella prospettiva dell’inserimento nel Calendario Nazionale di Immunizzazione». Nel caso di una fornitura non a carico il prezzo del trattamento dovrà essere contrattato con Sanofi, una procedura che richiede tempi che variano molto a seconda dei casi. LEGGI TUTTO

  • in

    C’è anche l’effetto nocebo

    Caricamento playerTra gli spazi delle parole che state leggendo in questo momento sono stati inseriti particolari simboli non osservabili direttamente, ma che per come sono organizzati stimolano una specifica area del cervello causando progressivamente un forte senso di nausea. L’effetto inizia a essere percepito dopo una trentina di spazi, quindi dovreste iniziare a sentire un po’ di nausea, oppure avete letto con attenzione il titolo e il sommario di questo articolo e non ci siete cascati. Tra le parole non ci sono strani simboli invisibili e tanto meno ne esistono in grado di causare la nausea, ma a volte la suggestione di un possibile effetto negativo è più che sufficiente per indurre una reazione e avere esperienza di quello che viene definito “effetto nocebo”.
    Come suggerisce il nome, questo effetto è l’esatto contrario del più conosciuto effetto placebo, che porta invece a pensare di avere benefici in seguito all’utilizzo di una particolare sostanza, anche se questa in realtà non fa nulla. È un fenomeno noto e studiato da tempo, diventato per esempio molto importante per valutare l’efficacia di un nuovo farmaco nella sua fase sperimentale, mentre l’effetto nocebo ha ricevuto meno attenzioni anche a causa dei problemi etici che pone la creazione di condizioni in cui si possa manifestare.
    Luigi XVI è famoso soprattutto per la fine che fece sulla ghigliottina qualche anno dopo la Rivoluzione francese a fine Settecento, ma quando era ancora re fu involontariamente protagonista dei primi esperimenti che portarono alla scoperta dell’effetto placebo e nocebo. Si era infatti fatto incuriosire dal “mesmerismo”, la pratica ideata dal medico di origini tedesche Franz Mesmer che sosteneva di poter alleviare i sintomi di varie malattie utilizzando dei magneti, in modo da condizionare il passaggio dei fluidi nell’organismo.
    Il mesmerismo oggi ci appare come ciarlataneria, ma con le ancora scarse conoscenze della fisiologia umana nel Settecento non suonava più implausibile di altre tecniche, come per esempio i salassi con le sanguisughe. Luigi XVI non era comunque convinto e, visto che la pratica spopolava a Parigi, istituì una commissione per mettere alla prova il mesmerismo. A capo della commissione fu messo Benjamin Franklin, scienziato e politico statunitense, che all’epoca era ambasciatore degli Stati Uniti in Francia.
    Insieme al resto della commissione, Franklin organizzò una serie di esperimenti per provare a distinguere gli effetti sull’immaginazione di quelle particolari pratiche dagli eventuali effetti fisici. In uno degli esperimenti ai partecipanti veniva detto di essere sottoposti a trattamenti magnetici, anche se in realtà non lo erano. Il trattamento previsto da Mesmer non veniva quindi effettuato, eppure alcuni partecipanti mostravano lo stesso alcuni degli effetti indesiderati che venivano solitamente segnalati durante i trattamenti con i magneti.
    Il mesmerismo pratico a Parigi, in una stampa d’epoca settecentesca (Wikimedia)
    Nel documento finale, la commissione aveva quindi segnalato al re che i risultati solitamente attribuiti al mesmerismo erano in realtà semplicemente dovuti all’immaginazione dei pazienti, che si suggestionavano al punto da percepire alcuni degli effetti collaterali del trattamento. Gli esperimenti avevano quindi permesso di scoprire l’effetto nocebo, anche se all’epoca il termine non era ancora utilizzato. Il lavoro di Franklin e colleghi aveva poi mostrato come sia gli effetti negativi sia quelli positivi, cioè l’effetto placebo, potessero emergere in contemporanea in base alle aspettative dei pazienti. In altre parole, i pazienti si aspettavano di dover affrontare qualche effetto avverso nel corso del trattamento per arrivare agli effetti positivi, comunque frutto della loro immaginazione.
    Gli studi sull’effetto placebo si fecero via via più rigorosi nel corso dell’Ottocento, ma fu necessario attendere gli anni Trenta prima che emergessero elementi più chiari sul nocebo. Il medico statunitense Harold Diehl aveva notato che alcune persone segnalavano di avere degli effetti collaterali anche dopo l’assunzione di una sostanza che credevano servisse a qualcosa, anche se in realtà non faceva nulla. Mentre studiava il raffreddore comune, notò che alcune persone segnalavano di avere effetti aversi anche dopo l’assunzione di pillole a base di zucchero o di un finto vaccino.
    Negli anni dopo la Seconda guerra mondiale agli studi di Diehl si aggiunsero ricerche più articolate, nate spesso dall’osservazione dei pazienti che partecipavano ai test per verificare l’efficacia di farmaci e trattamenti. I volontari venivano di solito divisi in gruppi che ricevevano il vero farmaco o una sostanza che non faceva nulla, in modo da verificare gli eventuali benefici del farmaco rispetto a nessuna terapia. Oltre alla quota di chi segnalava di sentirsi meglio dopo l’assunzione del finto farmaco (effetto placebo), c’era quasi sempre qualcuno che diceva di avere patito gli effetti collaterali (effetto nocebo), dei quali magari aveva sentito parlare mentre veniva informato prima di accedere alla sperimentazione.
    Nel 1955 il medico statunitense Henry Beecher dedicò parte dei propri studi a quelli che definì i “placebo tossici”, elencando gli effetti indesiderati segnalati più di frequente dalle persone che avevano assunto un placebo. La lista comprendeva mal di testa, nausea e secchezza delle fauci e indusse altri gruppi di ricerca a occuparsi della questione.
    All’inizio degli anni Sessanta il ricercatore statunitense Walter Kennedy utilizzò per la prima volta la parola “nocebo”, dal verbo latino “noceo” (“nuocere”) in contrapposizione alla già utilizzata parola placebo, in questo caso dal verbo latino “placeo” (“dare piacere, sollievo”). Kennedy scrisse che nocebo deve essere inteso come la risposta soggettiva di un individuo, come qualità propria del paziente e non della sostanza che ha assunto. La definizione avrebbe ricevuto diverse modifiche e interpretazioni nel corso del tempo e ancora oggi è dibattuta, vista la difficoltà nel valutare cause e meccanismi dell’insorgere di effetti negativi non indotti direttamente da qualcosa.
    Le attuali conoscenze sui rapporti causa/effetto e sulle correlazioni nell’assunzione di farmaci, per esempio, suggeriscono che un placebo non contiene di per sé nessuna sostanza che possa causare un peggioramento dei sintomi di chi la assume o l’insorgenza di ulteriori malesseri. Di conseguenza, si tende a interpretare quell’insorgenza come il frutto di una reazione soggettiva dovuta alle aspettative da parte di chi ha assunto il placebo.
    Comprendere confini e caratteristiche dell’effetto nocebo non è comunque semplice. Alcune ricerche hanno segnalato che non ci sono elementi per ritenere che alcune persone siano soggette più di altre al fenomeno, così come non sono emersi elementi anticipatori tali da poter prevedere chi sia più soggetto all’effetto nocebo. Si è però notato che fornire molte informazioni ai partecipanti alle sperimentazioni sugli effetti avversi, per esempio nel caso dei test su un nuovo farmaco, può contribuire a fare emergere una maggiore incidenza del fenomeno. Ridurre l’effetto nocebo fornendo meno informazioni sarebbe però impensabile ed eticamente discutibile, considerato che chi si sottopone a una sperimentazione deve sottoscrivere un consenso informato.
    La recente pandemia da coronavirus ha comunque offerto un’opportunità per effettuare test clinici su grande scala, tali da rendere poi possibili alcuni studi e analisi statistiche sui loro risultati. È emerso per esempio che il 72 per cento degli effetti avversi segnalati in seguito alla somministrazione di una prima dose fasulla del vaccino contro il coronavirus era riconducibile all’effetto nocebo.
    A differenza di un virus, l’effetto nocebo sembra abbia comunque qualche capacità di trasmettersi da una persona all’altra semplicemente per via mentale. Nel 1998 in una scuola superiore del Tennessee, un’insegnante segnalò di sentire uno strano odore in classe e dopo un po’ di tempo iniziò ad accusare mal di testa, nausea e difficoltà a respirare. Alcuni degli studenti nella classe iniziarono ad avere gli stessi sintomi, così come altre persone che frequentavano la scuola.
    Circa duecento persone furono portate in ospedale per accertamenti, ma dagli esami non emerse nulla di strano, né fu trovata alcuna sostanza nociva nella scuola tale da causare quei sintomi. L’insegnante si era convinta che ci fosse qualcosa di strano nell’aria e aveva trasmesso ad altri studenti quella convinzione. Questi ultimi, a loro volta, avevano “contagiato” altri compagni semplicemente sentendo di avere i medesimi sintomi. Era un caso di malattia psicogena di massa, condizione che secondo certi ricercatori può essere ricondotta ai meccanismi che si verificano con l’effetto nocebo.
    I casi di malattia psicogena di massa (quella che un tempo veniva anche definita “isteria di massa”) riguardano spesso particolari rituali e per questo alcuni antropologi utilizzano i concetti di placebo e nocebo per spiegare alcuni comportamenti. I riti che vengono per esempio eseguiti per “curare” o portare qualche tipo di benefici vengono indicati come “rituali placebo”, contrapposti ai “rituali nocebo” dove invece si effettuano rituali per procurare qualche danno per esempio nel caso di particolari rituali di “magia nera”. Razionalmente, la difesa migliore in questi casi è semplicemente non crederci, ma non è sempre semplice. LEGGI TUTTO

  • in

    Da quando lo abbiamo scoperto per caso usiamo il Teflon ovunque

    Caricamento playerNella notte di venerdì 6 settembre una capsula spaziale è tornata sulla Terra vuota, dopo che la NASA non si era fidata a utilizzarla per portare indietro dall’orbita due astronauti, ora costretti a rimanere sulla Stazione Spaziale Internazionale fino al prossimo anno. La navicella, che si chiama Starliner ed è stata realizzata da Boeing, aveva mostrato di avere problemi ad alcuni propulsori necessari per manovrarla, forse a causa di un malfunzionamento delle loro valvole rivestite di Teflon, il materiale conosciuto principalmente per essere usato anche nei rivestimenti antiaderenti delle padelle.
    Che sia impiegato in orbita o in cucina, o ancora per sviluppare gli arsenali atomici, il Teflon accompagna le nostre esistenze nel bene e nel male da quasi 90 anni. Il suo uso intensivo, seguito a una scoperta del tutto casuale, ha avuto un ruolo in importanti progressi tecnologici, ma ha anche generato un importante problema ambientale e fatto sollevare dubbi sulla sua sicurezza per la nostra salute.
    Il politetrafluoroetilene, la lunga catena di molecole (polimero) che dopo la sua scoperta sarebbe stata chiamata con il più semplice nome commerciale Teflon (ci sono anche altri marchi, meno noti), probabilmente non esisterebbe se non fossero stati inventati i frigoriferi. Alla fine degli anni Venti, negli Stati Uniti la nascente refrigerazione domestica aveva un problema non da poco: le frequenti esplosioni. Per fare funzionare questi elettrodomestici venivano utilizzati gas refrigeranti che potevano infatti facilmente esplodere, oppure che in caso di perdite potevano intossicare le abitazioni in cui erano installati.
    La scarsa affidabilità dei gas refrigeranti utilizzati all’epoca rischiava di compromettere la crescita del settore e di conseguenza i produttori si misero alla ricerca di alternative migliori. Occorreva un gas refrigerante che funzionasse bene alle temperature degli ambienti domestici e a una pressione non troppo alta; il gas non doveva essere tossico e nemmeno altamente infiammabile. Un ricercatore incaricato dalla società Frigidaire valutò vari elementi della tavola periodica e concluse che il candidato ideale come punto di partenza potesse essere il fluoro, che forma un legame chimico molto forte con il carbonio. Questa caratteristica permetteva di sviluppare una sostanza che fosse stabile e poco reattiva, di conseguenza anche con bassa tossicità, come era stato dimostrato in precedenza in alcuni esperimenti.
    Fu da quella intuizione che nacque una famiglia di composti chimici cui ci si riferisce generalmente col nome commerciale “Freon”. Era il primo passo nello sviluppo di altri composti, i clorofluorocarburi, che regnarono indisturbati all’interno dei sistemi refrigeranti dei frigoriferi e non solo per circa mezzo secolo, fino agli anni Ottanta quando fu scoperto il loro ruolo nel causare una diminuzione dello strato di ozono, il famoso “buco nell’ozono”. Grazie a una convenzione internazionale, il loro impiego fu abbandonato e sostituito con altri composti, rendendo possibile il ripristino di buona parte dell’ozono.
    Negli anni Trenta nessuno aveva idea che quei gas potessero causare qualche danno, si sapeva soltanto che il loro impiego era ideale per costruire frigoriferi più sicuri e affidabili. Per Frigidaire, che deteneva la proprietà del Freon, c’erano grandi opportunità commerciali, ma non per la concorrenza ancora ferma ai refrigeranti precedenti. Alcuni produttori si rivolsero quindi a DuPont, grande e potente marchio dell’industria chimica statunitense, chiedendo se fosse possibile trovare un nuovo refrigerante altrettanto competitivo. I tecnici della società si misero al lavoro e orientarono le loro ricerche sui composti del fluoro, proprio come aveva fatto Frigidaire.
    Una pubblicità degli anni Venti del Novecento di Frigidaire
    Come racconta un articolo dello Smithsonian Magazine, i primi tentativi furono fallimentari, ma portarono all’imprevista scoperta di qualcosa di nuovo:
    Il 6 aprile del 1938 un gruppo di chimici di DuPont si radunò intorno all’oggetto del loro ultimo esperimento: un semplice cilindro di metallo. Avrebbe dovuto contenere del tetrafluoroetilene, un gas inodore e incolore. Ma quando i chimici aprirono la valvola, non uscì alcun tipo di gas. Qualcosa era andato storto. Rimasero per un po’ perplessi. Il cilindro pesava comunque di più di quanto pesasse da vuoto, ma sembrava proprio che non ci fosse nulla al suo interno. Alla fine, qualcuno suggerì di tagliare il cilindro per aprirlo e vedere che cosa fosse successo. Trovarono che il suo interno era ricoperto da una polvere bianca scivolosa.
    I chimici di DuPont erano alla ricerca di un gas refrigerante, quindi non diedero molto peso all’accidentale produzione di quella polvere e proseguirono con i loro esperimenti. Qualche anno dopo, per motivi che in parte sfuggono ancora a causa dei documenti tenuti segreti dagli Stati Uniti, quella strana sostanza che oggi chiamiamo Teflon ebbe un ruolo importante nello sviluppo della prima bomba atomica nell’ambito del Progetto Manhattan.
    Per le attività di ricerca e sviluppo del programma atomico statunitense erano necessarie importanti quantità di plutonio e uranio, ma la loro produzione non era semplice. Per ottenere uranio arricchito il processo richiedeva l’impiego di chilometri di tubature in cui far fluire un gas – l’esafluoruro di uranio – altamente corrosivo che degradava rapidamente le valvole e le guarnizioni degli impianti. Alcuni dipendenti di DuPont che lavoravano a un altro progetto spiegarono probabilmente ai responsabili dell’impianto di avere scoperto in passato una sostanza che poteva a fare al caso loro vista la sua composizione chimica e quella dell’esafluoruro di uranio: il Teflon.
    Il rivestimento fu sperimentato e si rivelò effettivamente ideale per proteggere le tubature dell’impianto, rendendo possibili i progressi nella produzione di uranio per il Progetto Manhattan. Il sistema sarebbe stato impiegato anche dopo la fine della Seconda guerra mondiale per le successive iniziative legate alle tecnologie nucleari negli Stati Uniti.
    L’impianto a Oak Ridge, Tennessee (Stati Uniti), dove si produceva l’uranio per il Progetto Manhattan (Wikimedia)
    Quelle prime esperienze avevano permesso a DuPont di comprendere meglio le caratteristiche del Teflon e la sua resistenza a molti composti e alle alte temperature. Fu però necessario attendere i primi anni Cinquanta perché venissero proposti i primi utilizzi del Teflon in cucina per realizzare prodotti antiaderenti. Una decina di anni dopo, iniziarono a essere messe in commercio le prime padelle rivestite di Teflon sia negli Stati Uniti sia in Europa, con la promessa di ridurre il rischio di far attaccare il cibo alle superfici di cottura e di semplificarne la pulizia. Quando si sviluppò una maggiore sensibilità sul mangiare “sano” e con pochi grassi, padelle e pentole antiaderenti furono promosse come l’occasione per cucinare utilizzando meno condimenti visto che il cibo non si attaccava al rivestimento di Teflon.
    Ma il Teflon non rimase relegato alle cucine, anzi. Oltre ai numerosi impieghi in ambito industriale, compresi quelli nell’industria aerospaziale, il materiale fu sfruttato per sviluppare un nuovo tipo di tessuto sintetico, al tempo stesso impermeabile e traspirante: il Gore-Tex, dal nome di Wilbert e Robert Gore che lo avevano inventato alla fine degli anni Sessanta. Oggi il Gore-Tex è presente in una miriade di prodotti, dalle scarpe agli impermeabili passando per le attrezzature da montagna, a conferma della versatilità e dei molti usi possibili del Teflon.
    La pubblicità di una sega rivestita di Teflon, nel 1968
    E fu proprio il successo del Teflon a spingere l’industria chimica a cercare prodotti con proprietà simili portando alla nascita di una nuova classe di composti, le sostanze perfluoroalchiliche e polifluoroalchiliche note in generale come PFAS. Come il politetrafluoroetilene, anche queste sono formate da catene di atomi di carbonio con un forte legame con quelli di fluoro. I PFAS sono molto stabili termicamente e chimicamente, di conseguenza si disgregano con difficoltà e possono rimanere a lungo nell’ambiente o negli organismi nei quali si accumulano. Vengono spesso definiti “forever chemicals” proprio per questo motivo e il loro impatto, anche sulla salute umana, è stato molto discusso negli ultimi anni man mano che si raccoglievano maggiori dati sulla loro permanenza nell’ambiente.
    Le maggiori conoscenze hanno portato a iniziative legali in varie parti del mondo, per esempio da parte delle comunità che vivono nelle vicinanze degli impianti che producono o utilizzano i PFAS (in Italia una delle aree maggiormente interessate è tra le province di Padova e Verona, in Veneto). Nell’Unione Europea e negli Stati Uniti le istituzioni lavorano per mettere al bando alcune tipologie di PFAS, ma i provvedimenti riguardano spesso specifiche sostanze sugli oltre 6mila composti noti appartenenti a questa classe. Ciò significa che in alcuni casi ci sono possibilità di aggirare i divieti, ricorrendo a sostanze simili non ancora vietate o con forti limitazioni per il loro impiego.
    Dentro al grande insieme dei PFAS ci sono comunque sostanze molto diverse tra loro, ciascuna con le proprie caratteristiche anche per quanto riguarda l’eventuale pericolosità. I produttori sostengono per esempio che trattandosi di un polimero molto lungo, quello del Teflon non dovrebbe essere fonte di particolari preoccupazioni, visto che difficilmente l’organismo umano potrebbe assorbirlo. L’orientamento delle istituzioni è inoltre di limitare i PFAS a catena corta, che si ritiene potrebbero avere più facilmente conseguenze sull’organismo.
    Nei processi produttivi, compresi quelli per realizzare il Teflon, si utilizzano comunque PFAS formati da polimeri più corti, che possono comunque finire nell’ambiente. Quelli più lunghi possono deteriorarsi in catene di molecole più corte per esempio se sono esposti agli elementi atmosferici, come avviene in una discarica. In generale, comunque, il fatto che i PFAS abbiano un impatto ambientale è ormai acclarato, mentre si sta ancora cercando di capire la sua portata per la nostra salute e quella degli ecosistemi.
    Sulla sicurezza del Teflon erano stati sollevati comunque dubbi anche in passato, visto che questa sostanza entra in contatto con le preparazioni che poi mangiamo. È noto che il politetrafluoroetilene inizia a deteriorarsi a temperature superiori ai 260 °C e che la sua decomposizione inizia a circa 350 °C. Le temperature che raggiungono pentole e padelle per cucinare gli alimenti sono ampiamente al di sotto dei 260 °C e per questo si ritiene che ci sia un rischio minimo di entrare in contatto con sostanze pericolose (come il PFOA), che si sviluppano quando il Teflon inizia a decomporsi.
    Il Teflon e i suoi derivati sono talmente diffusi negli oggetti che ci circondano che a oggi sembra quasi impossibile immaginare un mondo senza la loro presenza. Le vendite di Teflon sono nell’ordine dei 3 miliardi di dollari l’anno e si prevede che la domanda continuerà ad aumentare, arrivando a 4 miliardi di dollari entro i prossimi primi anni Trenta, a poco meno di un secolo dalla sua accidentale scoperta. LEGGI TUTTO