More stories

  • in

    Da quando lo abbiamo scoperto per caso usiamo il Teflon ovunque

    Caricamento playerNella notte di venerdì 6 settembre una capsula spaziale è tornata sulla Terra vuota, dopo che la NASA non si era fidata a utilizzarla per portare indietro dall’orbita due astronauti, ora costretti a rimanere sulla Stazione Spaziale Internazionale fino al prossimo anno. La navicella, che si chiama Starliner ed è stata realizzata da Boeing, aveva mostrato di avere problemi ad alcuni propulsori necessari per manovrarla, forse a causa di un malfunzionamento delle loro valvole rivestite di Teflon, il materiale conosciuto principalmente per essere usato anche nei rivestimenti antiaderenti delle padelle.
    Che sia impiegato in orbita o in cucina, o ancora per sviluppare gli arsenali atomici, il Teflon accompagna le nostre esistenze nel bene e nel male da quasi 90 anni. Il suo uso intensivo, seguito a una scoperta del tutto casuale, ha avuto un ruolo in importanti progressi tecnologici, ma ha anche generato un importante problema ambientale e fatto sollevare dubbi sulla sua sicurezza per la nostra salute.
    Il politetrafluoroetilene, la lunga catena di molecole (polimero) che dopo la sua scoperta sarebbe stata chiamata con il più semplice nome commerciale Teflon (ci sono anche altri marchi, meno noti), probabilmente non esisterebbe se non fossero stati inventati i frigoriferi. Alla fine degli anni Venti, negli Stati Uniti la nascente refrigerazione domestica aveva un problema non da poco: le frequenti esplosioni. Per fare funzionare questi elettrodomestici venivano utilizzati gas refrigeranti che potevano infatti facilmente esplodere, oppure che in caso di perdite potevano intossicare le abitazioni in cui erano installati.
    La scarsa affidabilità dei gas refrigeranti utilizzati all’epoca rischiava di compromettere la crescita del settore e di conseguenza i produttori si misero alla ricerca di alternative migliori. Occorreva un gas refrigerante che funzionasse bene alle temperature degli ambienti domestici e a una pressione non troppo alta; il gas non doveva essere tossico e nemmeno altamente infiammabile. Un ricercatore incaricato dalla società Frigidaire valutò vari elementi della tavola periodica e concluse che il candidato ideale come punto di partenza potesse essere il fluoro, che forma un legame chimico molto forte con il carbonio. Questa caratteristica permetteva di sviluppare una sostanza che fosse stabile e poco reattiva, di conseguenza anche con bassa tossicità, come era stato dimostrato in precedenza in alcuni esperimenti.
    Fu da quella intuizione che nacque una famiglia di composti chimici cui ci si riferisce generalmente col nome commerciale “Freon”. Era il primo passo nello sviluppo di altri composti, i clorofluorocarburi, che regnarono indisturbati all’interno dei sistemi refrigeranti dei frigoriferi e non solo per circa mezzo secolo, fino agli anni Ottanta quando fu scoperto il loro ruolo nel causare una diminuzione dello strato di ozono, il famoso “buco nell’ozono”. Grazie a una convenzione internazionale, il loro impiego fu abbandonato e sostituito con altri composti, rendendo possibile il ripristino di buona parte dell’ozono.
    Negli anni Trenta nessuno aveva idea che quei gas potessero causare qualche danno, si sapeva soltanto che il loro impiego era ideale per costruire frigoriferi più sicuri e affidabili. Per Frigidaire, che deteneva la proprietà del Freon, c’erano grandi opportunità commerciali, ma non per la concorrenza ancora ferma ai refrigeranti precedenti. Alcuni produttori si rivolsero quindi a DuPont, grande e potente marchio dell’industria chimica statunitense, chiedendo se fosse possibile trovare un nuovo refrigerante altrettanto competitivo. I tecnici della società si misero al lavoro e orientarono le loro ricerche sui composti del fluoro, proprio come aveva fatto Frigidaire.
    Una pubblicità degli anni Venti del Novecento di Frigidaire
    Come racconta un articolo dello Smithsonian Magazine, i primi tentativi furono fallimentari, ma portarono all’imprevista scoperta di qualcosa di nuovo:
    Il 6 aprile del 1938 un gruppo di chimici di DuPont si radunò intorno all’oggetto del loro ultimo esperimento: un semplice cilindro di metallo. Avrebbe dovuto contenere del tetrafluoroetilene, un gas inodore e incolore. Ma quando i chimici aprirono la valvola, non uscì alcun tipo di gas. Qualcosa era andato storto. Rimasero per un po’ perplessi. Il cilindro pesava comunque di più di quanto pesasse da vuoto, ma sembrava proprio che non ci fosse nulla al suo interno. Alla fine, qualcuno suggerì di tagliare il cilindro per aprirlo e vedere che cosa fosse successo. Trovarono che il suo interno era ricoperto da una polvere bianca scivolosa.
    I chimici di DuPont erano alla ricerca di un gas refrigerante, quindi non diedero molto peso all’accidentale produzione di quella polvere e proseguirono con i loro esperimenti. Qualche anno dopo, per motivi che in parte sfuggono ancora a causa dei documenti tenuti segreti dagli Stati Uniti, quella strana sostanza che oggi chiamiamo Teflon ebbe un ruolo importante nello sviluppo della prima bomba atomica nell’ambito del Progetto Manhattan.
    Per le attività di ricerca e sviluppo del programma atomico statunitense erano necessarie importanti quantità di plutonio e uranio, ma la loro produzione non era semplice. Per ottenere uranio arricchito il processo richiedeva l’impiego di chilometri di tubature in cui far fluire un gas – l’esafluoruro di uranio – altamente corrosivo che degradava rapidamente le valvole e le guarnizioni degli impianti. Alcuni dipendenti di DuPont che lavoravano a un altro progetto spiegarono probabilmente ai responsabili dell’impianto di avere scoperto in passato una sostanza che poteva a fare al caso loro vista la sua composizione chimica e quella dell’esafluoruro di uranio: il Teflon.
    Il rivestimento fu sperimentato e si rivelò effettivamente ideale per proteggere le tubature dell’impianto, rendendo possibili i progressi nella produzione di uranio per il Progetto Manhattan. Il sistema sarebbe stato impiegato anche dopo la fine della Seconda guerra mondiale per le successive iniziative legate alle tecnologie nucleari negli Stati Uniti.
    L’impianto a Oak Ridge, Tennessee (Stati Uniti), dove si produceva l’uranio per il Progetto Manhattan (Wikimedia)
    Quelle prime esperienze avevano permesso a DuPont di comprendere meglio le caratteristiche del Teflon e la sua resistenza a molti composti e alle alte temperature. Fu però necessario attendere i primi anni Cinquanta perché venissero proposti i primi utilizzi del Teflon in cucina per realizzare prodotti antiaderenti. Una decina di anni dopo, iniziarono a essere messe in commercio le prime padelle rivestite di Teflon sia negli Stati Uniti sia in Europa, con la promessa di ridurre il rischio di far attaccare il cibo alle superfici di cottura e di semplificarne la pulizia. Quando si sviluppò una maggiore sensibilità sul mangiare “sano” e con pochi grassi, padelle e pentole antiaderenti furono promosse come l’occasione per cucinare utilizzando meno condimenti visto che il cibo non si attaccava al rivestimento di Teflon.
    Ma il Teflon non rimase relegato alle cucine, anzi. Oltre ai numerosi impieghi in ambito industriale, compresi quelli nell’industria aerospaziale, il materiale fu sfruttato per sviluppare un nuovo tipo di tessuto sintetico, al tempo stesso impermeabile e traspirante: il Gore-Tex, dal nome di Wilbert e Robert Gore che lo avevano inventato alla fine degli anni Sessanta. Oggi il Gore-Tex è presente in una miriade di prodotti, dalle scarpe agli impermeabili passando per le attrezzature da montagna, a conferma della versatilità e dei molti usi possibili del Teflon.
    La pubblicità di una sega rivestita di Teflon, nel 1968
    E fu proprio il successo del Teflon a spingere l’industria chimica a cercare prodotti con proprietà simili portando alla nascita di una nuova classe di composti, le sostanze perfluoroalchiliche e polifluoroalchiliche note in generale come PFAS. Come il politetrafluoroetilene, anche queste sono formate da catene di atomi di carbonio con un forte legame con quelli di fluoro. I PFAS sono molto stabili termicamente e chimicamente, di conseguenza si disgregano con difficoltà e possono rimanere a lungo nell’ambiente o negli organismi nei quali si accumulano. Vengono spesso definiti “forever chemicals” proprio per questo motivo e il loro impatto, anche sulla salute umana, è stato molto discusso negli ultimi anni man mano che si raccoglievano maggiori dati sulla loro permanenza nell’ambiente.
    Le maggiori conoscenze hanno portato a iniziative legali in varie parti del mondo, per esempio da parte delle comunità che vivono nelle vicinanze degli impianti che producono o utilizzano i PFAS (in Italia una delle aree maggiormente interessate è tra le province di Padova e Verona, in Veneto). Nell’Unione Europea e negli Stati Uniti le istituzioni lavorano per mettere al bando alcune tipologie di PFAS, ma i provvedimenti riguardano spesso specifiche sostanze sugli oltre 6mila composti noti appartenenti a questa classe. Ciò significa che in alcuni casi ci sono possibilità di aggirare i divieti, ricorrendo a sostanze simili non ancora vietate o con forti limitazioni per il loro impiego.
    Dentro al grande insieme dei PFAS ci sono comunque sostanze molto diverse tra loro, ciascuna con le proprie caratteristiche anche per quanto riguarda l’eventuale pericolosità. I produttori sostengono per esempio che trattandosi di un polimero molto lungo, quello del Teflon non dovrebbe essere fonte di particolari preoccupazioni, visto che difficilmente l’organismo umano potrebbe assorbirlo. L’orientamento delle istituzioni è inoltre di limitare i PFAS a catena corta, che si ritiene potrebbero avere più facilmente conseguenze sull’organismo.
    Nei processi produttivi, compresi quelli per realizzare il Teflon, si utilizzano comunque PFAS formati da polimeri più corti, che possono comunque finire nell’ambiente. Quelli più lunghi possono deteriorarsi in catene di molecole più corte per esempio se sono esposti agli elementi atmosferici, come avviene in una discarica. In generale, comunque, il fatto che i PFAS abbiano un impatto ambientale è ormai acclarato, mentre si sta ancora cercando di capire la sua portata per la nostra salute e quella degli ecosistemi.
    Sulla sicurezza del Teflon erano stati sollevati comunque dubbi anche in passato, visto che questa sostanza entra in contatto con le preparazioni che poi mangiamo. È noto che il politetrafluoroetilene inizia a deteriorarsi a temperature superiori ai 260 °C e che la sua decomposizione inizia a circa 350 °C. Le temperature che raggiungono pentole e padelle per cucinare gli alimenti sono ampiamente al di sotto dei 260 °C e per questo si ritiene che ci sia un rischio minimo di entrare in contatto con sostanze pericolose (come il PFOA), che si sviluppano quando il Teflon inizia a decomporsi.
    Il Teflon e i suoi derivati sono talmente diffusi negli oggetti che ci circondano che a oggi sembra quasi impossibile immaginare un mondo senza la loro presenza. Le vendite di Teflon sono nell’ordine dei 3 miliardi di dollari l’anno e si prevede che la domanda continuerà ad aumentare, arrivando a 4 miliardi di dollari entro i prossimi primi anni Trenta, a poco meno di un secolo dalla sua accidentale scoperta. LEGGI TUTTO

  • in

    Perché in viaggio non si fa la cacca

    Caricamento playerLa “stitichezza del viaggiatore” è una condizione sperimentata da molte persone quando si allontanano da casa per qualche giorno per motivi di lavoro o di vacanza, in particolare in questo periodo dell’anno. Il temporaneo cambiamento di abitudini e di fuso orario, l’ansia da partenza e talvolta i lunghi spostamenti – soprattutto in aereo – possono influire sulla regolarità con cui ci si libera e portare a giornate piuttosto improduttive in bagno. A parte la sensazione poco confortevole, qualche giorno di stitichezza non è solitamente preoccupante, ma le cause di questo disturbo insegnano qualcosa su come siamo fatti nelle parti più recondite del nostro organismo e non solo.
    L’inizio della storia è noto più o meno a tutti: mangiamo qualcosa che nello stomaco si trasforma in poltiglia e che fluisce poi verso l’intestino, dove le varie sostanze nutrienti e l’acqua vengono assorbite dall’organismo. Ciò che resta finisce nell’intestino crasso dove viene recuperato ancora qualcosa, per esempio altra acqua, fino a quando gli scarti si accumulano nell’ampolla rettale in attesa di compiere il loro tuffo finale nel WC. Il processo può richiedere ore o giorni a seconda di cosa si è mangiato e di come è fatto ciascuno di noi, ma può anche essere condizionato da numerosi fattori esterni.
    In linea di massima l’intestino è un tipo abitudinario e gradisce la regolarità sia per quanto riguarda ciò che deve digerire, il tipo di alimenti per esempio, sia gli orari in cui vuotarsi. Spesso chi non va con regolarità in bagno attribuisce il problema al proprio intestino, mentre in realtà la causa sono spesso gli stili di vita e una certa sregolatezza nell’alimentazione. C’è poi naturalmente un’ampia serie di eccezioni legate a chi ha problemi di salute, dalle intolleranze a problemi digestivi e di infiammazione intestinale, ma nella maggior parte dei casi le persone vanno in bagno più o meno sempre nello stesso momento della giornata, anche se con esiti e consistenze alterni.
    In viaggio manca spesso la possibilità di mantenere le proprie abitudini e questo si riflette sull’attività intestinale, con il risultato che per qualche giorno si ha difficoltà ad andare in bagno. Si diventa stitici, anche se la stitichezza ha definizioni che variano molto a seconda dei casi e delle circostanze. Il termine definisce in generale la difficoltà a liberarsi parzialmente o completamente, una consistenza delle feci più dura del solito con la conseguente difficoltà a espellerle e una riduzione dei movimenti intestinali, molto importanti per la trasformazione e il transito attraverso l’apparato digerente dei nutrienti e degli scarti.
    L’intestino crasso è lungo in media 170 cm, circa un quinto dell’intero intestino (Wikimedia)
    Non c’è però un solo tipo di stitichezza: quando si verifica, ognuno sperimenta la propria. La riduzione della frequenza con cui si va in bagno, per esempio, può essere un indicatore, ma deve essere rapportato alla frequenza con cui ci si va di solito, considerato che per alcune persone è normale farla più volte al giorno mentre per altre sono sufficienti tre-quattro volte alla settimana.
    Differenze così significative portano di solito i medici a considerare costipato un paziente se questo segnala un certo disagio, la sensazione che qualcosa non sta progredendo come al solito o l’incapacità di liberarsi. Chi soffre di particolari condizioni come celiachia o sindrome dell’intestino irritabile ha maggiori probabilità di passare periodi di stitichezza e di avere qualche disturbo in viaggio.
    Vari fattori legati al cambiamento di abitudini favoriscono la stitichezza del viaggiatore. Tra i più frequenti c’è la disidratazione dovuta a una minore assunzione di acqua o a una maggiore velocità con cui viene dispersa, attraverso la sudorazione o l’urina. L’acqua è importante per la consistenza delle feci e per favorirne il loro passaggio nelle parti finali dell’intestino. In condizioni normali ne rimane a sufficienza, ma se si beve poco l’organismo prova a recuperare più acqua possibile anche dalle feci prima che queste vengano espulse.
    Durante un lungo viaggio spesso si beve meno perché si teme di non avere sempre la possibilità di fermarsi per fare pipì, oppure perché si avverte meno la sete per esempio se si trascorrono diverse ore in un ambiente con l’aria condizionata accesa, come nel caso di un aeroplano. L’aria nella cabina degli aerei è di solito fredda e molto secca, sia per motivi igienici sia per preservare le strumentazioni elettriche, di conseguenza si avverte meno la perdita di liquidi attraverso la traspirazione. Le feci si induriscono e passano meno facilmente attraverso l’ultimo tratto dell’intestino, spesso complicando il resto dell’attività digestiva che rallenta e diventa più laboriosa.

    – Leggi anche: Non abbiamo mai voluto avere niente a che fare con la nostra cacca

    Nei lunghi viaggi si sta raramente in piedi e ci si muove poco, due attività che nella vita di tutti i giorni sono molto importanti per favorire la motilità intestinale, cioè i movimenti e gli spasmi che permettono alle sostanze di avanzare lungo il tratto digerente. La digestione avviene più lentamente e in modo meno efficace, cosa che sommata alla minore quantità di acqua rende le feci ancora più dure. Nel caso di un volo aereo è poi probabile che il luogo di arrivo sia in un fuso orario diverso rispetto a quello di partenza: il cambio dell’ora rende inevitabili alcune modifiche nei normali orari per svolgere varie attività, comprese quelle in bagno.
    La combinazione di poca acqua, poco movimento e cambio di orari mette spesso le basi per un certo intasamento che si farà sentire nei primi giorni. L’effetto viene poi acuito dai cambiamenti alla dieta che di solito si fanno durante una vacanza, per esempio per provare i cibi locali oppure semplicemente perché si diventa un po’ più indulgenti nel consumo di alcolici o di caffè, se c’è di mezzo un jet-lag da assorbire. Sia l’alcol sia la caffeina hanno effetti diuretici e possono quindi contribuire alla disidratazione, che come abbiamo visto ha un ruolo importante nella stitichezza.
    (Sara D. Davis/Getty Images)
    Quando si è in viaggio non è inoltre sempre semplice assecondare in poco tempo lo stimolo ad andare in bagno, o per mancanza di un WC nei paraggi o per una certa ritrosia di alcune persone a utilizzare i bagni pubblici per liberarsi delle proprie solide realtà. Rinviare e ritardare, talvolta anche di molto tempo, quel momento può indurre o peggiorare la stitichezza: lo spazio nell’intestino crasso è quello che è, di conseguenza col passare del tempo parte dell’acqua delle feci viene recuperata per ridurre il volume complessivo occupato, portando a un loro ulteriore indurimento.
    Alcune persone vivono inoltre con una certa apprensione il pensiero di mettersi in viaggio e di essere per alcuni giorni lontane da casa. Lo stress di preparare le valigie, di dimenticare qualcosa o la preoccupazione di arrivare in aeroporto in tempo possono generare stati d’ansia che si riflettono anche sull’attività intestinale. Il rapporto cervello-intestino è discusso da tempo e non è stato ancora compreso pienamente, ma la tensione derivante dall’ansia ha effetti di vario tipo, in particolare sui movimenti muscolari e dei tessuti che formano parte del tratto digerente.

    – Leggi anche: La vescica è cervellotica

    Non sono necessarie strategie particolarmente elaborate per ridurre il rischio di avere la stitichezza del viaggiatore. Una regola che può essere applicata, consigliata in generale per avere un buon rapporto col proprio intestino, è quella delle “tre F”: fluidi, fibre e fitness. Bere acqua a sufficienza aiuta a prevenire la disidratazione e può essere utile abituarsi ad assumerne un po’ di più a partire dai giorni prima della partenza, così da abituarsi meglio e partire preparati. Il consumo di cibi ricchi di fibre favorisce la formazione di feci di cui liberarsi senza troppo sforzo, quindi ortaggi, legumi e frutta da consumare preferibilmente con la buccia come mele, pere, prugne. Infine, fare attività fisica favorisce la motilità intestinale e il transito delle sostanze nel tratto digerente.
    Il consumo di alcol dovrebbe essere invece moderato proprio per evitare la disidratazione o altri disturbi intestinali, che possono per esempio manifestarsi con il consumo di alcuni alcolici come la birra. Si dovrebbero poi favorire cibi facilmente digeribili evitando le carni troppo grasse, gli alimenti fritti e quelli ricchi di derivati del latte. Questi alimenti richiedono in generale tempi più lunghi per la digestione e potrebbero quindi peggiorare la stitichezza. Rinunciarci quando si è in vacanza potrebbe però non essere semplice per tutti, visto che i periodi di ferie coincidono comprensibilmente con quelli in cui si è più indulgenti soprattutto per quanto riguarda l’alimentazione.
    Infine, cercare di liberarsi il prima possibile quando si avverte lo stimolo può aiutare molto. In alcuni casi ciò implica doversi adattare a condizioni non sempre ideali, specialmente nel caso dei bagni pubblici, che sono percepiti spesso come un’arma biochimica in cui non ci si può che ammalare. In realtà, se utilizzato con qualche cautela è difficile che un WC in cattive condizioni possa causare qualche problema di salute: in alcuni paesi è più probabile che lo faccia un bicchiere d’acqua del rubinetto, limpido e innocuo all’apparenza. A volte l’esatto opposto della stitichezza del viaggiatore, cioè la diarrea del viaggiatore, parte proprio da un po’ di acqua contaminata, ma questa è decisamente un’altra storia. LEGGI TUTTO

  • in

    Come siamo messi con i vaccini contro l’mpox

    Dopo la dichiarazione di un’emergenza sanitaria internazionale per l’mpox (quello che una volta si chiamava vaiolo delle scimmie) da parte dell’Organizzazione mondiale della sanità la settimana scorsa, l’azienda farmaceutica danese Bavarian Nordic ha annunciato la donazione di circa 40mila dosi del proprio vaccino contro la malattia, che saranno consegnate alla Repubblica Democratica del Congo, uno dei paesi africani con il maggior numero di contagi. Il vaccino di Bavarian Nordic è considerato il più promettente per prevenire l’mpox e per questo ci sono grandi attenzioni nei confronti della società, sia dal punto di vista sanitario sia commerciale.L’OMS dichiara un’emergenza sanitaria quando ritiene siano necessarie maggiori attenzioni nei confronti di una malattia soprattutto per fare prevenzione, prima che sia troppo tardi per contenerne la diffusione. In Italia e negli altri paesi europei le infezioni rilevate nell’ultimo anno dai vari tipi di virus che causano l’mpox sono state poche e d’importazione, cioè relative a persone che erano state all’estero, per questo al momento i rischi di una diffusione della malattia in Europa sono relativamente bassi. La situazione è diversa in Africa dove sono stati registrati migliaia di casi, tra presunti e confermati, con una maggiore incidenza nella Repubblica Democratica del Congo dove da inizio anno ai primi giorni di agosto ci sono stati più di 14mila casi (di più che in tutto il 2023) e oltre 500 morti ricondotte alla malattia.
    In molti casi l’mpox è asintomatico, mentre chi sviluppa sintomi segnala la presenza di eruzioni cutanee, febbre, mal di gola, mal di testa, dolori muscolari e alla schiena, spossatezza e linfonodi ingrossati. Come avviene con altre malattie, l’mpox è più pericoloso per le persone con difese immunitarie indebolite, per gli anziani e in alcuni casi per i bambini (molte delle persone decedute nella Repubblica Democratica del Congo erano adolescenti o bambini).
    Il virus che causa l’mpox appartiene al genere Orthopoxvirus, lo stesso di cui fa parte il vaiolo, una malattia molto più pericolosa debellata negli anni Ottanta grazie a una lunga ed efficace campagna vaccinale internazionale (quella per cui le persone con più di 50 anni hanno una cicatrice sul braccio con una forma molto riconoscibile). Il vaiolo fu la prima malattia contro cui fu sviluppato un vaccino nell’Ottocento: la parola “vaccino” deriva da Variolae vaccinae, cioè “vaiolo della mucca”, una forma di vaiolo che interessa i bovini che fu alla base degli studi e delle sperimentazioni per sviluppare il vaccino contro il vaiolo.
    La dichiarazione dell’eradicazione di una malattia implica che venga comunque mantenuta una certa sorveglianza, proprio per evitare che si possano verificare nuovi casi con focolai che potrebbero portare a una nuova diffusione del virus debellato. Per questo motivo, nonostante la dichiarazione degli anni Ottanta, gli studi e lo sviluppo di vaccini di nuova generazione contro il vaiolo erano proseguiti con esiti alterni. Nel 2003 Bavarian Nordic aveva avviato una collaborazione con il governo degli Stati Uniti per sviluppare MVA-BN (da “Modified Vaccinia Ankara-Bavarian Nordic”), un vaccino di terza generazione contro il vaiolo basato su un virus modificato per essere meno virulento e incapace di replicarsi nelle cellule.
    MVA-BN era stato impiegato nelle campagne vaccinali organizzate dall’OMS nei paesi a rischio per evitare un ritorno del vaiolo, utilizzando un vaccino che fosse ancora più sicuro di quelli tradizionalmente impiegati nei decenni precedenti. Nel 2013 il vaccino era diventato disponibile anche in Europa per prevenire il vaiolo e, vista la stretta parentela tra il virus del vaiolo e quello dell’mpox, nell’estate del 2022 era stato autorizzato nell’Unione Europea per prevenire la diffusione della malattia tra le persone a rischio, seguendo quanto era stato deciso tre anni prima dalle autorità di controllo degli Stati Uniti.
    Il nome commerciale del vaccino in Europa è Imvanex, mentre negli Stati Uniti viene venduto con il nome Jynneos e in Canada come Imvamune, ma si tratta del medesimo prodotto anche se c’è qualche differenza nelle tecniche di produzione. In Italia la somministrazione del vaccino era stata autorizzata in forma temporanea nell’estate del 2022, quando era stato rilevato un aumento dei casi di mpox. La vaccinazione era stata consigliata a chi si occupa di effettuare analisi in laboratorio sui virus e agli uomini che hanno rapporti sessuali con uomini (MSM), categoria per i quali erano stati rilevati maggiori fattori di rischio.
    A oggi in Europa come nella maggior parte del resto del mondo non è necessaria una vaccinazione di massa, perché i rischi di contagio nella popolazione generale sono estremamente bassi. L’Istituto superiore di sanità (ISS) consiglia maggiori precauzioni per le persone a rischio, che oltre agli MSM possono anche riguardare le persone che hanno intenzione di effettuare viaggi nelle aree del mondo dove c’è una maggiore incidenza di mpox, a cominciare da alcuni paesi africani.
    Il vaccino viene somministrato solo alle persone adulte, con due dosi a distanza di quattro settimane l’una dall’altra, e l’efficacia stimata è dell’82 per cento (una sola dose fornisce un’efficacia del 76 per cento). Il vaccino può anche essere utilizzato subito dopo il contagio, ma in questo caso l’efficacia scende intorno al 20 per cento. In generale, le persone vaccinate che in seguito contraggono il virus dell’mpox sviluppano sintomi meno gravi rispetto a chi non ha ricevuto il vaccino.
    Negli ultimi anni sono stati svolti test in laboratorio, quindi non direttamente sulle persone vaccinate, per valutare la capacità delle difese immunitarie sviluppate dopo la comune vaccinazione contro il vaiolo di neutralizzare i virus che causano l’mpox. Alcune analisi hanno riscontrato questa capacità anche a più di 40 anni di distanza dalla vaccinazione, mentre altre analisi effettuate sulla popolazione vaccinata contro il vaiolo hanno riscontrato un’alta protezione contro l’mpox. Le persone già vaccinate anni fa contro il vaiolo dovrebbero quindi sviluppare una malattia più lieve nel caso di un contagio con i virus che causano l’mpox.
    Chi non era stato vaccinato contro il vaiolo al momento non corre comunque particolari rischi, per le ragioni che abbiamo visto prima sulla diffusione della malattia, ma per i servizi sanitari è comunque importante non farsi trovare impreparati. In occasione dell’aumento di casi nell’estate del 2022, per esempio, l’Unione Europea aveva acquistato 2 milioni di dosi da Bavarian Nordic e l’azienda ha comunicato di avere la capacità di aumentare sensibilmente la propria produzione già nei prossimi mesi. A seconda della domanda, soprattutto da parte dei paesi africani più interessati, la società danese potrà produrre fino a 2 milioni di dosi entro fine anno, mentre per il 2025 prevede di raggiungere una capacità produttiva di 10 milioni di dosi.
    Al momento dai paesi africani sono state richieste circa 10 milioni di dosi, che saranno fornite sia attraverso le donazioni internazionali sia attraverso l’acquisto di forniture da Bavarian Nordic. L’Unione Europea, per esempio, si è già impegnata a donare oltre 200mila dosi di vaccino ai paesi africani, attingendo dalla propria scorta effettuata nel 2022. La domanda potrebbe aumentare ulteriormente nel caso in cui il vaccino venisse autorizzato anche per l’uso negli adolescenti e nei bambini, come auspicato da vari osservatori dopo i dati sui numerosi decessi nella Repubblica Democratica del Congo tra i più giovani (negli Stati Uniti c’è già un’approvazione di emergenza per gli adolescenti).
    Bavarian Nordic è l’unica azienda farmaceutica ad avere ottenuto autorizzazioni per il proprio vaccino in Europa, negli Stati Uniti e in diversi altri paesi, cosa che si è riflessa molto positivamente sulle sue quotazioni in borsa. Dopo l’annuncio dell’emergenza sanitaria, il valore in borsa delle azioni della società è aumentato del 40 per cento e l’azienda vale sul mercato circa 3 miliardi di dollari. Il successo dell’azienda farmaceutica non è una novità per la Danimarca, che nell’ultimo anno si è fatta notare in tutto il mondo grazie ai successi commerciali di Novo Nordisk, la società che produce i farmaci per il dimagrimento e contro il diabete Ozempic e Wegovy.
    Esistono almeno altri tre vaccini inizialmente sviluppati contro il vaiolo e che hanno mostrato un’efficacia contro l’mpox, o comunque sono ritenuti promettenti. L’azienda farmaceutica giapponese KMB Biologics ha sviluppato LC16 il cui impiego è autorizzato in Giappone, mentre in Russia è stato sviluppato il vaccino OrthopoxVac autorizzato inizialmente contro il vaiolo. Un terzo vaccino, ACAM2000, è disponibile negli Stati Uniti, ma finora non è stato impiegato contro l’mpox. LEGGI TUTTO

  • in

    Negli Stati Uniti è stato approvato un nuovo farmaco contro l’Alzheimer precoce

    Caricamento playerMartedì la Food and Drug Administration (FDA), l’agenzia statunitense che si occupa della regolamentazione dei prodotti alimentari e farmaceutici, ha approvato un nuovo farmaco che dovrebbe rallentare gli effetti del morbo di Alzheimer, la malattia che causa una progressiva perdita della memoria e per cui al momento non è disponibile una cura. Il farmaco si chiama donanemab, è un anticorpo monoclonale ed è venduto negli Stati Uniti con il nome commerciale Kisunla da parte dell’azienda farmaceutica Eli Lilly.
    Il Kisunla è il terzo medicinale studiato per rallentare gli effetti dell’Alzheimer a essere approvato dalla FDA, ma come gli altri due farmaci approvati in precedenza non è una terapia risolutiva. In un test clinico che ha coinvolto 1.700 persone ed è durato 18 mesi si è dimostrato in grado di avere un’efficacia limitata: nei pazienti a cui era stato somministrato è stato rilevato un declino delle capacità cognitive del 35 per cento più lento rispetto ai pazienti con placebo, cioè una sostanza che non fa nulla.
    Attualmente i farmaci disponibili per le persone a cui è stato diagnosticato l’Alzheimer cercano di intervenire sui sintomi della malattia, ma non sono molto efficaci contro la malattia in sé, soprattutto nelle forme più avanzate. Per questo da tempo vari gruppi di ricerca stanno cercando modi per intervenire sulle cause della patologia – che non sono però ancora completamente chiare – in modo da farla progredire più lentamente.
    Più nello specifico sono state fatte ricerche sulla betamiloide, una proteina che causa un accumulo di placche nei neuroni (le cellule del cervello) rendendoli via via meno reattivi e funzionali. Questa proteina è sospettata di essere una, se non la principale, causa dell’Alzheimer, ma tenerla sotto controllo è molto difficile e ci sono ancora dubbi sul suo ruolo nella malattia.
    Nel 2021 la FDA aveva approvato l’Aduhelm (aducanumab) di Biogen tra molti dubbi della comunità scientifica: il farmaco non aveva dato i risultati sperati, per questo era stato poco usato e lo scorso gennaio è stato ritirato dal commercio. La scorsa estate invece la FDA aveva approvato un altro farmaco sviluppato da Biogen insieme a un’altra azienda, Eisai, cioè il Leqembi (lecanemab). Nel test clinico dedicato, i pazienti che avevano ricevuto il lecanemab avevano fatto rilevare un declino delle capacità cognitive del 27 per cento più lento rispetto ai pazienti con placebo.
    Sia nel caso del lecanemab che nel caso del donanemab la riduzione degli effetti dell’Alzheimer è tutto sommato poco marcata e di conseguenza medici ed esperti si chiedono se possa essere sufficiente per essere notata dai pazienti e dai loro cari. Inoltre entrambi i medicinali possono causare gravi effetti collaterali, potenzialmente mortali: nella sperimentazione sul donanemab tre persone sono morte in relazione all’assunzione del farmaco. Tuttavia secondo la commissione che ha consigliato l’approvazione dei farmaci i benefici sono superiori ai rischi.

    – Leggi anche: Perché andarci cauti sul lecanemab

    Eli Lilly non ha ancora fatto sapere quanto costeranno i trattamenti con il Kisunla, ma probabilmente saranno necessarie decine di migliaia di dollari all’anno. LEGGI TUTTO

  • in

    La vescica è cervellotica

    Caricamento playerTra le tante massime attribuite ad Alfred Hitchcock, uno dei più importanti e famosi registi del Novecento, c’è quella secondo cui «la durata di un film dovrebbe essere commisurata alla capacità di resistenza della vescica umana». La paternità della frase è ancora oggi discussa, sembra che Hitchcock stesse a sua volta citando il drammaturgo George Bernard Shaw, ma dice comunque qualcosa non solo sulla sostenibilità dei film lunghi, ma anche sulla capacità di controllo di una cosa che facciamo tutti più volte al giorno per tutta la vita: svuotare la vescica facendo pipì. È una cosa che ci viene naturale e di cui non possiamo fare a meno, ma dietro alla sua apparente semplicità si nascondono processi articolati e in parte ancora poco esplorati.
    Per molto tempo medici e gruppi di ricerca hanno ritenuto che il controllo della vescica fosse il frutto di un riflesso elementare, una sorta di interruttore acceso/spento che rende possibile l’accumulo dell’urina e la sua espulsione in un dato momento. Gli studi condotti negli ultimi decenni hanno invece mostrato l’esistenza di processi molto più complessi che coinvolgono più aree del cervello e del resto del sistema nervoso centrale, particolari tessuti muscolari e terminazioni nervose che ci aiutano ad avere il senso dello stato interno del nostro organismo (enterocezione).
    Tutto inizia con un bicchiere d’acqua, una fetta di anguria, un piatto di insalata o praticamente qualsiasi altro alimento che ingeriamo che contiene una certa quantità di acqua. Attraverso i processi digestivi, l’acqua finisce in ogni cellula del nostro organismo, che non a caso è costituito in media al 65 per cento da questa sostanza. Abbiamo continuamente necessità di assumere acqua, perché ne perdiamo costantemente con la traspirazione e con la produzione di urina da parte dei reni, che tra i loro compiti hanno quello di pulire il sangue dalle impurità.
    Dopo essere stata prodotta, l’urina non viene eliminata immediatamente, ma si accumula in un piccolo sacchetto che si può espandere come un palloncino: la vescica. Quando è vuota appare rugosa e avvizzita, mentre quando è piena sembra tesa come una pelle di tamburo. La vescica di una persona adulta in salute arriva a contenere tra i 300 e i 500 millilitri (mezzo litro) di urina, ma ci sono casi in cui la vescica si gonfia di più arrivando a contenere anche più del doppio di quel volume. È tra gli organi più elastici del nostro organismo e arriva a espandersi più di sei volte rispetto a quando è completamente vuota.
    Questa notevole espansione è resa possibile dal detrusore, un muscolo che ricopre interamente la vescica e che si rilassa man mano che questa si riempie di urina. Alla base della vescica avviene invece il contrario: i muscoli che regolano lo sfintere dell’uretra si contraggono, così da evitare che la pipì fluisca verso l’esterno nei momenti indesiderati. È un processo che avviene di continuo: la vescica passa circa il 95 per cento della propria, e della nostra, esistenza piena o per meglio dire in fase di riempimento.
    (Wikimedia)
    Conosciamo il resto della storia. A un certo punto la vescica è piena a sufficienza da percepire l’esigenza di vuotarla, cerchiamo il luogo più opportuno in cui farlo e ci liberiamo: il detrusore si contrae, lo sfintere si rilassa e l’urina fluisce nell’uretra, l’ultimo tratto delle vie urinarie, e infine le molecole d’acqua dopo un lungo tour del nostro organismo rivedono la luce. Nella maggior parte dei casi agiamo quando lo stimolo è ancora sopportabile e la vescica contiene mediamente poco meno di 400 ml di pipì, ma ci possono essere casi in cui non ci si può liberare immediatamente e si accumula altra urina rendendo lo stimolo sempre meno sopportabile. Oltre una certa misura, che varia molto da persona a persona, scatta un meccanismo di emergenza e la vescica si svuota involontariamente.
    Non è necessario essere idraulici o ingegneri per apprezzare la semplicità del sistema nel suo risultato finale, ma ancora oggi i gruppi di ricerca faticano a mettere insieme tutti i pezzi che rendono possibile il coordinamento e la gestione delle varie attività legate alla minzione, cioè al fare pipì. Un secolo fa alcuni esperimenti su cavie di laboratorio, per esempio, fecero ipotizzare che il controllo della minzione derivasse dal “ponte”, una struttura che si trova nel tronco encefalico, la parte dell’encefalo appena al di sotto del cervello. Sarebbero però passati decenni prima di confermare l’ipotesi e soprattutto di scoprire che la regolazione della vescica deriva da meccanismi ancora più complessi.
    Man mano che si accumula l’urina, determinando l’espansione della vescica, alcune cellule specializzate che si trovano a contatto con il detrusore e con la parete interna della vescica stessa inviano un segnale alla sostanza grigia periacqueduttale, un complesso di neuroni che si trova nel mesencefalo, una parte del tronco encefalico. Il segnale raggiunge poi il lobo dell’insula, un’altra area del cervello che assolve a varie funzioni legate all’omeostasi corporea, cioè alla sua capacità di mantenere un certo equilibrio nelle attività che svolge di continuo. Più la vescica si riempie e si gonfia, più segnali arrivano all’insula che a sua volta si attiva con una grande quantità di impulsi elettrici (potenziali di azione).
    (Wikimedia)
    È a questo punto che dall’automatismo si passa alla gestione consapevole della necessità di fare pipì, che viene gestita attraverso la corteccia prefrontale, cioè l’area del cervello legata alla pianificazione e alla decisione delle azioni da compiere in base alla nostra volontà. Lo stimolo di urinare viene quindi valutato soprattutto in base alle condizioni in cui ci troviamo e a domande che ci facciamo spesso senza farci molto caso: è socialmente accettabile interrompere ciò che sto facendo per andare in bagno adesso? Lo stimolo è forte o posso reggere ancora per un po’? Tra quanto potrò raggiungere un bagno? E così via.
    Quando infine ci sono le condizioni per liberarsi, attraverso la corteccia prefrontale il segnale viene elaborato da altre aree del cervello, torna alla sostanza grigia periacqueduttale e viene indirizzato verso il ponte nel tronco encefalico (nucleo di Barrington). Il segnale arriva infine alla vescica, il detrusore si contrae, lo sfintere dell’uretra si rilassa e l’urina fluisce all’esterno.
    Il tortuoso percorso del segnale dal momento in cui la vescica inizia a essere piena a quando può vuotarsi si è arricchito in questi anni di ulteriori tappe grazie a nuove tecniche di analisi, come ha raccontato di recente alla rivista Knowable Rita Valentino, responsabile del dipartimento di neuroscienze e comportamento al National Institute on Drug Abuse negli Stati Uniti.
    Insieme ai propri colleghi, Valentino ha misurato l’attività elettrica dei neuroni in vari siti del sistema nervoso, identificando per esempio il particolare comportamento dei neuroni nel “locus coeruleus”, un nucleo nel tronco encefalico coinvolto nei meccanismi legati ad attenzione, stress e panico. Pochi secondi prima di iniziare a urinare, i neuroni in quest’area iniziano a produrre ritmicamente segnali indirizzati verso la corteccia. L’ipotesi è che ciò determini un maggiore stato di allerta in un momento in cui dobbiamo agire velocemente e siamo al tempo stesso vulnerabili.
    Le ricerche come quelle svolte da Valentino possono anche offrire spunti importanti per affrontare i problemi di salute legati alla minzione. Alcuni derivano da eventi traumatici, come lesioni spinali che rendono impossibile il controllo diretto della vescica, mentre altri subentrano con l’età e sono legati per lo più a problemi di incontinenza e di perdite.
    Eliminare l’urina è essenziale per l’organismo e per questo nelle prime fasi di vita questa funzione è svolta senza un diretto coinvolgimento del cervello. Subito dopo la nascita e fino ai 3-4 anni di vita, la minzione viene gestita da un riflesso spinale quando la vescica è piena. In seguito, le aree del cervello che usiamo per gestire alcune funzioni si sviluppano a sufficienza per controllare anche la minzione, riducendo i casi in cui si verifica il riflesso. Se a causa di un incidente si interrompono le vie di comunicazione tra il cervello e la vescica, il riflesso può riemergere e lo svuotamento della vescica avviene senza un controllo diretto.
    Anche in questo caso non tutti i meccanismi sono chiari, ma comprenderli meglio insieme a quelli che coinvolgono il cervello potrebbe offrire nuove opportunità per il trattamento di alcune condizioni come la sindrome da vescica iperattiva. Porta a una necessità improvvisa di urinare che non può essere rinviata nel tempo e che si ripete più volte al giorno, sia quando si è svegli sia quando si va a dormire. Stimare la diffusione di questa sindrome è molto difficile e i dati variano molto, con alcune ricerche che indicano una prevalenza del 15,6 per cento tra gli uomini e del 17,4 per cento tra le donne in Europa. In generale, la sindrome tende a presentarsi con maggiore frequenza tra le donne sopra i 60 anni e nel periodo successivo all’inizio della menopausa.
    (Sara D. Davis/Getty Images)
    Le cause della sindrome da vescica iperattiva sono ancora oggetto di studio. Un probabile fattore è una eccessiva reattività del detrusore, che porta a rapide contrazioni facendo arrivare al cervello segnali sbagliati su quanto sia effettivamente piena la vescica. Alcuni trattamenti prevedono l’impiego di farmaci per provare a ridurre gli spasmi, in modo da evitare l’attivazione dei meccanismi legati alla minzione. Calibrare correttamente le dosi non è però semplice: se il dosaggio è più basso del dovuto non ci sono benefici, se invece è troppo alto ci sono rischi di bloccare il sistema con la conseguente impossibilità di urinare.
    Diagnosticare la sindrome da vescica iperattiva richiede tempo e in alcuni casi non porta a identificare una causa precisa, per esempio se non vengono osservati spasmi anomali del detrusore. Per questo motivo alcuni gruppi di ricerca si stanno dedicando allo studio dell’urotelio (o epitelio di transizione), il rivestimento interno della vescica e delle vie urinarie. Gli strati cellulari che lo costituiscono assolvono a varie funzioni, oltre a quella di isolare l’urina dal resto dell’organismo, e sono molto importanti nel rilevare il grado di dilatazione della vescica su cui si basa poi l’attività del sistema nervoso.
    L’analisi dell’urotelio ha portato a scoprire il ruolo di una particolare proteina (PIEZO2) solitamente coinvolta nelle risposte agli stimoli sensoriali. Un trattamento potrebbe quindi mirare a regolare diversamente quella proteina, ma farlo non è semplice perché la stessa proteina è coinvolta in numerosi altri processi in altre parti del corpo che potrebbero essere compromessi.
    Ci sono poi fattori psicologici che possono condizionare la frequenza con cui si sente la necessità di vuotare la vescica, tali da rendere ancora più difficile una diagnosi. Alcune persone pensano più spesso di altre al dover fare pipì e questa condizione di assiduo “ascolto” della loro vescica fa sì che percepiscano più di frequente la necessità di vuotarla. Le cause possono essere molteplici e a volta dettate dalle circostanze.
    Alcune persone arrivate fino a questo punto leggendo un lungo articolo interamente dedicato all’argomento potrebbero avvertire un certo stimolo, o una strana sensazione di maggiore consapevolezza della loro vescica rispetto al solito. Altre avvertono l’esigenza di dover fare pipì non appena infilano la chiave nella porta per rientrare a casa, con una crescente urgenza man mano che si avvicina la possibilità di andare in bagno (è la “sindrome della toppa della chiave di casa”). Un certo condizionamento può avere temporaneamente qualche effetto e non è preoccupante, ma se circostanze di questo tipo si presentano di frequente possono essere un sintomo da non sottovalutare.
    Tra le cause di una maggiore frequentazione del bagno negli uomini di solito oltre i 50 anni c’è l’iperplasia prostatica benigna, cioè un naturale ingrossamento della ghiandola prostatica che si trova alla base della vescica, intorno all’uretra. L’aumento delle dimensioni fa sì che la prostata spinga verso l’alto la vescica riducendo la sua possibilità di espandersi: questo, insieme ad altri fattori, fa sì che la vescica si riempia più velocemente e di conseguenza che ci sia la necessità di urinare più di frequente. Le persone affette da diabete o da cistite e le donne incinte hanno anche di solito una minore autonomia prima di dovere andare in bagno.
    Rappresentazione schematica dell’iperplasia prostatica benigna e dei suoi effetti sul volume della vescica (Wikimedia)
    Anche il consumo di alcune sostanze può stimolare una maggiore produzione di urina. Il caffè e varie bibite contengono caffeina, che ha effetti diuretici piuttosto marcati. Anche l’alcol induce una maggiore attività renale e favorisce la disidratazione, portando a produrre più pipì. Periodi di particolare stress possono influire sulla frequenza con cui si va in bagno, perché alcuni neurotrasmettitori come l’adrenalina influiscono sull’attività renale. E può accadere di dovere andare più di frequente in bagno quando fa freddo: la normale traspirazione è ridotta, perché l’organismo prova a mantenere stabile la propria temperatura interna, di conseguenza c’è una minore sudorazione e maggiori quantità di acqua possono essere espulse tramite l’urina. Può succedere in una fredda giornata invernale o d’estate in una gelida sala di un cinema con l’aria condizionata.
    E per Hitchcock gli eventuali problemi di vescica per i suoi spettatori erano una preoccupazione ricorrente. In un’intervista del 1966, confidò di avere ben presente che con un film un regista chiede a una persona di starsene seduta per diverse ore e che: «Man mano che la storia procede verso la fine, il pubblico potrebbe iniziare a essere – come dire – fisicamente distratto, quindi devi aumentare le cose interessanti che succedono sullo schermo per distogliere il loro pensiero da quella cosa». Il film più lungo diretto da Hitchcock dura due ore e sedici minuti. LEGGI TUTTO

  • in

    Cosa vuol dire davvero un “esame del sangue per i tumori”

    Caricamento playerIn una delle sessioni di domenica dell’incontro annuale sul cancro organizzato dall’American Society of Clinical Oncology (ASCO) a Chicago, un gruppo di ricerca britannico ha presentato una versione “ultra sensibile” di esame del sangue per prevedere la ricomparsa del tumore al seno nelle pazienti, mesi se non anni prima che si verifichi una recidiva. L’annuncio è stato molto ripreso dai media e presentato come «rivoluzionario», ma per quanto importanti e utili in alcuni ambiti diagnostici, i test di questo tipo sono ancora discussi e non è sempre semplice valutarne costi e benefici.
    Il test presentato alla conferenza dell’ASCO rientra nelle cosiddette “biopsie liquide”, un tipo di esami diagnostici relativamente nuovi che servono per rilevare e analizzare tracce genetiche lasciate dalle cellule tumorali nel sangue o, in misura minore, in altri fluidi corporei. Alcuni esami servono per diagnosticare la presenza di un tumore e determinarne il tipo – insieme alle tecniche tradizionalmente impiegate come la diagnostica per immagini – altri come il test annunciato domenica servono invece per valutare l’andamento della malattia quando questa era già stata diagnosticata in precedenza.
    Una biopsia liquida può quindi essere impiegata per rilevare una “malattia minima residua”, cioè tracce di un tumore troppo piccole per notarne la presenza con i metodi tradizionali. Molto dipende però dalla tipologia del tumore e dalle eventuali possibilità di intervenire con terapie precocemente, in modo da ridurre la sua diffusione.
    “Cancro” è infatti una parola ombrello che usiamo comunemente, anche se descrive fenomeni e malattie molto diverse tra loro. I tumori sono strutture dinamiche e crescono più o meno velocemente, a seconda dei modi in cui avvengono le mutazioni nelle cellule che li costituiscono. Sono proprio queste mutazioni casuali nel loro materiale genetico a far sì che le cellule coinvolte si comportino in modo anomalo: in alcuni casi il sistema immunitario riesce a distruggerle e a tenerle sotto controllo, in altri non le riconosce come una minaccia e il tumore progredisce.
    Dal tumore iniziale possono staccarsi alcune cellule che, sempre grazie alle mutazioni accumulate, riescono a viaggiare nell’organismo e a insediarsi in altre parti del corpo (vengono definite “cellule tumorali circolanti” o CTC), creando quelle che vengono definite “metastasi”. Non tutti i tumori sono metastatici: alcuni danno problemi localmente senza che le loro cellule finiscano altrove nell’organismo e – quando possibile – possono essere trattati con tecniche di asportazione oppure con farmaci e radioterapia per distruggere le cellule tumorali. I tumori metastatici sono invece più difficili da trattare, soprattutto se la loro diffusione in altre parti del corpo è già avvenuta, perché non sempre ci sono terapie adatte per fermare il processo.
    Alcuni tipi di cellule tumorali circolanti possono essere rilevati con una biopsia liquida, un test meno invasivo rispetto alle classiche biopsie dove si rimuove del tessuto cellulare con un intervento chirurgico per poi analizzarlo. Identificare le CTC non è però semplice, perché queste sono rare e si trovano nel sangue in concentrazioni estremamente basse. Inoltre, le loro caratteristiche variano da paziente a paziente e rendono difficile l’impiego di sistemi sufficientemente sensibili e specifici. Ma non ci sono solamente le CTC.
    Come per le altre cellule, man mano che le cellule tumorali muoiono si producono dei detriti che finiscono nella circolazione sanguigna per essere poi smaltiti dall’organismo. Questi minuscoli resti del tumore contengono frammenti di DNA e altro materiale genetico che può essere identificato partendo da un prelievo di sangue. È una categoria di test relativamente nuova che rientra nell’analisi del cosiddetto “DNA tumorale circolante” (ctDNA) e che soprattutto nelle persone che hanno già avuto un tumore può essere impiegata per fare previsioni, più o meno accurate, sul rischio di sviluppare recidive.
    La tecnica annunciata a Chicago da un gruppo di ricerca dell’Institute of Cancer Research di Londra riguarda proprio una biopsia liquida del ctDNA, che era stata messa alla prova sui campioni di sangue prelevati da 78 donne con varie forme di tumore al seno, in diverse fasi della malattia e delle terapie per trattarla. Indicatori molecolari di malattia residua erano stati identificati in tutte le 11 pazienti che avevano poi avuto una recidiva, ha spiegato il gruppo di ricerca. Nella maggior parte delle altre pazienti in cui i livelli di ctDNA non erano stati individuati dal test non erano stati rilevati casi di recidiva.
    La maggiore sensibilità dell’esame è stata ottenuta utilizzando l’intero genoma, cioè tutto il DNA all’interno di una cellula, e non limitandosi ad alcune porzioni del materiale genetico come avviene con altre biopsie liquide. L’annuncio è stato accolto con grande interesse per i progressi nelle tecniche di analisi, ma è ancora presto per capire se e quali benefici pratici possa portare il nuovo esame, così come i test simili che verosimilmente saranno sviluppati per altre forme di tumore.
    Le biopsie liquide hanno il potenziale di essere utili per comprendere meglio le caratteristiche genetiche di un tumore, il modo in cui evolve nel tempo o come reagisce alle terapie, oppure ancora per individuare precocemente le recidive e stimare la probabilità con cui si potranno verificare. Soprattutto su quest’ultimo aspetto medici e pazienti si devono comunque confrontare con le grandi incertezze date dai falsi positivi o negativi dei test, nonché dagli approcci da seguire per ridurre i rischi. Il ricorso a forme di chemioterapia preventiva, per esempio, è discusso tra gli specialisti, con medici che preferiscono aumentare la frequenza dei controlli e agire semmai quando viene diagnosticata una recidiva vera e propria, cercando di affrontarla da subito.
    L’attesa rimane l’approccio più seguito, sia per non sottoporre i pazienti a terapie che possono essere pesanti e debilitanti, sia perché per varie forme di tumore non ci sono possibilità di agire prima che queste abbiano tornato a manifestarsi con una recidiva. Il rischio, almeno in questa fase iniziale, è che si ricorra con una frequenza eccessiva alle biopsie liquide, anche se il loro esito non porterà poi comunque a qualche azione concreta nell’immediato. Gli esami di questo tipo potrebbero gravare sui sistemi di salute pubblica, sia in termini pratici sia di risorse economiche, senza portare a effettivi benefici per i pazienti.
    Le biopsie liquide hanno comunque grandi potenzialità e per questo c’è un notevole interesse da parte della ricerca, sia in ambito pubblico sia in ambito privato. Gli investimenti nel settore non mancano soprattutto negli Stati Uniti, dove varie startup sono al lavoro per sviluppare e brevettare propri sistemi, che si potrebbero rivelare molto redditizi nel caso di un approccio sanitario orientato allo screening costante, non solo per le persone che hanno già avuto un tumore, ma anche per la popolazione sana. È stato proprio il grande interesse verso questi sistemi diagnostici di nuova generazione a portare allo scandalo di Theranos, società che prometteva di poter diagnosticare qualsiasi malattia da una goccia di sangue analizzata da un particolare scanner, che in realtà non aveva mai funzionato.
    Theranos aiuta a comprendere alcuni aspetti commerciali, ma fu naturalmente un caso estremo che non ha nulla a che vedere con i sistemi come quello annunciato per le biopsie liquide legate al tumore al seno. È bene però ricordare che lo studio realizzato dall’Institute of Cancer Research è stato effettuato per dimostrare il funzionamento del test in linea di principio, ma che saranno necessari molti altri approfondimenti per comprendere effettive potenzialità e opportunità offerte da questi nuovi approcci diagnostici, come ha detto Nicholas Turner, uno degli oncologi britannici coinvolti nel progetto: «L’analisi del sangue di un paziente per il ctDNA consentirà ai medici di diagnosticare la recidiva del cancro nella fase più precoce. Tuttavia, saranno necessari ulteriori test e ricerche prima di poter dimostrare se il rilevamento della malattia molecolare residua possa guidare la terapia in futuro». LEGGI TUTTO

  • in

    Che fine hanno fatto i collari cervicali

    Caricamento playerDopo essere stati molto utilizzati nei decenni passati, da qualche tempo è più raro vedere in giro i collari cervicali indossati da persone con qualche problema al collo. La progressiva sparizione riguarda soprattutto i collari morbidi e in misura minore quelli rigidi, utilizzati per lo più per immobilizzare in condizioni di emergenza le persone che hanno subìto gravi traumi, per esempio in seguito a un incidente stradale. Con il declino dei collari ortopedici c’entrano i progressi nei sistemi di sicurezza delle automobili, ma ancora di più un sensibile cambiamento negli approcci medici e nelle terapie per chi ha problemi cervicali.
    I collari cervicali per come li intendiamo oggi furono perfezionati e adottati dagli ortopedici a partire dalla seconda metà del secolo scorso, in seguito alla progressiva diffusione delle automobili e di conseguenza all’aumento degli incidenti stradali. Molte persone coinvolte nei tamponamenti segnalavano per esempio di avere dolore al collo, che spesso durava per settimane ed era accompagnato da altri problemi come mal di testa e capogiri. I sintomi variavano molto da persona a persona e non erano sempre diagnosticabili facilmente, quindi il problema assunse un nome alquanto generico e distante da una precisa definizione medica: “colpo di frusta”.
    Il colpo di frusta si verifica quando in seguito a una rapida decelerazione, dovuta per esempio a un tamponamento, il corpo viene spinto in avanti dall’urto, mentre il cranio rimane indietro per inerzia causando uno stiramento del collo, salvo poi essere proiettato violentemente in avanti poco dopo. Più è violenta la decelerazione, più è probabile che subiscano forti sollecitazioni le strutture che fanno parte del collo e che sorreggono la testa come le vertebre, i muscoli e i legamenti. Nella maggior parte dei casi, il contraccolpo causa qualche contrattura muscolare non molto diversa da quella che si può rimediare agli arti con un movimento scorretto, mentre nei casi più gravi si può anche verificare una frattura delle vertebre cervicali che richiede maggiori attenzioni e cautele.

    In linea di massima, un colpo di frusta è quasi sempre reversibile in pochi giorni e sono rari i casi di danni permanenti, con forme croniche che devono essere affrontate con terapie del dolore. Naturalmente il colpo di frusta esisteva ben prima dell’avvento delle automobili, un problema simile era stato riscontrato nel caso degli incidenti ferroviari ai primi tempi della diffusione del treno, ma è diventato un evento traumatico molto noto in seguito alla motorizzazione delle società. Così noto da essere sfruttato da alcuni per millantare qualche problema di salute e rimediare rimborsi dalle assicurazioni o indennità dai servizi di assistenza sociale.
    L’esagerazione degli effetti di un colpo di frusta era sfruttata soprattutto in passato quando era difficile diagnosticare in modo oggettivo gli eventuali danni causati dal trauma, semplicemente perché non c’erano strumenti diagnostici adeguati. Una radiografia poteva mostrare la lesione di una vertebra, certo, ma non c’erano molte possibilità di osservare altri tipi di lesioni per esempio ai muscoli e alle altre strutture del corpo. Le cose sarebbero cambiate almeno in parte con l’avvento della risonanza magnetica negli anni Ottanta, che permette di osservare più nel dettaglio i tessuti interni, ma per diverso tempo i medici si basarono soprattutto sui sintomi che riferivano i loro pazienti, prescrivendo loro l’utilizzo di un collare morbido per qualche tempo, ritenendo che limitando i movimenti del collo si potesse avere un migliore recupero.
    C’erano più incidenti stradali rispetto a oggi e minori dotazioni per ridurre i rischi – come cinture di sicurezza, poggiatesta, airbag e sistemi di assorbimento degli urti – di conseguenza non era raro notare per strada qualcuno con un collare. In paesi come gli Stati Uniti, dove erano frequenti le cause legali e le richieste di rimborsi alle assicurazioni, il collare era diventato per alcuni uno stigma: la prova visibile del tentativo di ottenere qualche soldo esagerando le conseguenze di un temporaneo problema di salute, ammesso esistesse davvero.
    Il sistema sanitario basato sulle assicurazioni aveva favorito il fenomeno, ma questo non era esclusivo degli Stati Uniti e ancora oggi ha una certa importanza in alcuni paesi compreso il nostro. Secondo uno studio pubblicato nel 2008, in Italia gli infortuni di piccola entità alla cervicale segnalati sono il 66 per cento del totale degli infortuni, il dato più alto dopo il Regno Unito (76 per cento) e prima della Norvegia (53 per cento). L’incidenza di danni derivanti dal colpo di frusta indicati come permanenti, ma spesso difficili da verificare, è molto alta in Italia e secondo diverse analisi fuori scala, rispetto ai dati scientifici dal punto di vista epidemiologico. Fare analisi e confronti accurati tra paesi diversi non è però semplice, perché cambiano le modalità di diagnosi e di segnalazione degli infortuni e questo potrebbe giustificare almeno in parte le marcate differenze segnalate nelle ricerche.
    Al di là degli aspetti assicurativi, negli ultimi anni c’è stato un progressivo abbandono del collare cervicale da parte di ortopedici e altri specialisti. Salvo casi particolari, l’orientamento è di non farlo più indossare ai pazienti perché può ritardare il recupero da un colpo di frusta invece di favorirlo. Inizialmente si pensava che il collare potesse offrire un sostegno alla testa, riducendo il carico per vertebre e muscoli della zona cervicale, mentre oggi si ritiene che siano soprattutto utili fisioterapia, ginnastica dolce, massaggi e all’occorrenza l’impiego di farmaci antinfiammatori.
    Una scena di Erin Brockovich – Forte come la verità con Julia Roberts (Universal)
    Una revisione sistematica e una meta-analisi, cioè una ricerca che ha analizzato la letteratura scientifica a disposizione, pubblicata nel 2021 ha rilevato una prevalenza nella pratica medica di un approccio attivo nella riabilitazione, rispetto alla sola immobilizzazione, segnalando comunque la necessità di condurre ulteriori studi e approfondimenti. Una ricerca condotta una decina di anni prima aveva concluso che l’impiego del collare morbido è «nella migliore delle ipotesi inefficace» nel trattare il colpo di frusta, specificando che nello scenario peggiore i pazienti avessero un maggior rischio di non dedicarsi alle attività di recupero che prevedono di fare esercizi con il collo.
    Il cambio di approccio rifletteva quello più generale sull’importanza di ridurre la permanenza a letto dei pazienti, una pratica molto in uso negli ospedali, per favorire il loro recupero e ridurre il rischio di sviluppare altri problemi di salute dovuti al restare fermi a lungo. Era per esempio diventato evidente che i pazienti con mal di schiena traevano maggiori benefici dal muoversi, con tempi di recupero minori, rispetto a chi trascorreva più di due giorni a letto come veniva spesso consigliato in precedenza.
    Il collare cervicale nella versione rigida continua invece a essere utilizzato nella medicina di urgenza, per esempio per immobilizzare le persone sopravvissute a un incidente stradale quando c’è il dubbio di un eventuale danno alla spina dorsale. È un uso con scopi diversi rispetto al collare morbido e negli ultimi anni si è iniziato a discutere una revisione del suo impiego, anche in questo caso in seguito a studi e analisi sull’efficacia del sistema.
    Applicazione di un collare rigido in seguito a un trauma nel corso di una partita di football a Perth, Australia, nel 2012 (Getty Images)
    Il neurochirurgo norvegese Terje Sundstrøm è tra i più convinti sostenitori della necessità di rivedere protocolli e pratiche di utilizzo del collarino rigido. Una decina di anni fa pubblicò insieme ad altri colleghi un’analisi nella quale segnalava come in media venga immobilizzato il collo di 50 pazienti per ogni paziente che ha effettivamente una lesione spinale. Secondo lo studio, il collare rigido rende più difficoltosa la respirazione dei pazienti e contribuisce a creare maggiore agitazione, perché il suo impiego induce a pensare di avere subìto un danno grave, anche se magari non è quello il caso. In alcuni casi il collare rigido può rivelarsi scomodo o non essere applicato nel migliore dei modi, cosa che porta i pazienti a fare proprio i movimenti che il collare dovrebbe prevenire.
    In alcuni paesi le linee guida per l’uso dei collari rigidi negli scenari di emergenza sono state riviste, ma il loro impiego è comunque ancora diffuso. Gli incidenti che portano a lesioni spinali cervicali sono relativamente rari, di conseguenza è difficile condurre studi approfonditi e disporre di dati a sufficienza per trarre qualche conclusione. La tendenza è quindi quella di applicare maggiori cautele, proseguendo con un approccio conservativo che prevede l’impiego dei collari rigidi, più di quanto avvenga per quelli morbidi usati sempre meno spesso e per meno tempo, al punto da non farsi notare più in giro come una volta. LEGGI TUTTO

  • in

    La ricerca di una migliore rianimazione

    Caricamento player«Libera!», l’operatore applica le due piastre del defibrillatore al torso del paziente che viene sottoposto a una forte scarica elettrica, ma il cuore non ha ripreso a battere. Un altro operatore effettua per alcuni secondi il massaggio cardiaco, poi è nuovamente il turno del defibrillatore e questa volta il cuore torna a battere. Il paziente apre gli occhi, sorride e per quanto affaticato ringrazia chi gli ha salvato la vita, mentre la musica di sottofondo da ansiogena diventa calma e rilassante.
    È una scena vista in decine di film e serie televisive, che segue più o meno sempre la stessa sequenza di eventi e che in molti casi ha contribuito a trasmettere una percezione sbagliata di come funzioni la rianimazione cardiopolmonare (CPR), la procedura di emergenza per trattare una persona in arresto cardiaco. L’idea che sia sufficiente massaggiare energicamente per qualche tempo il torace, intervenendo poi con una scarica elettrica, se necessario, per rianimare una persona è tanto diffusa quanto lontana dalla realtà. Rianimare qualcuno è estremamente difficile e non sempre le pratiche previste dalla CPR sono sufficienti.
    Per questo da tempo si valutano approcci diversi o, per meglio dire, integrazioni ai protocolli solitamente impiegati per rimediare a un arresto cardiaco. La tecnica più promettente, e già impiegata in numerosi paesi compresa l’Italia, prevede di affiancare alle normali tecniche per la CPR sistemi per la “circolazione extracorporea” in modo da far assolvere temporaneamente a una macchina le funzioni solitamente svolte dal cuore e dai polmoni, facendo guadagnare tempo ai medici per intervenire sul problema che ha causato l’arresto cardiaco in primo luogo.
    Nel parlato comune spesso infarto e arresto cardiaco vengono utilizzati per definire la stessa cosa, ma in realtà sono due condizioni differenti anche per gli esiti che possono avere. Con infarto si definisce un danno improvviso che subisce una parte del cuore a causa del blocco (occlusione) di una delle coronarie, cioè delle grandi arterie che portano il sangue al tessuto muscolare del cuore stesso. L’occlusione fa sì che il tessuto non riceva sangue a sufficienza e di conseguenza l’ossigeno che questo trasporta, una condizione che in poco tempo porta alla morte delle cellule coinvolte. In molte circostanze, il cuore funziona meno bene di come dovrebbe, ma continua comunque a battere.
    Un arresto cardiaco è invece l’interruzione improvvisa e completa dell’attività cardiaca, non solo di una sua parte come nell’infarto; può avere cause diverse e una di queste può anche essere l’infarto. In caso di arresto, il cuore non è più in condizione di far circolare il sangue, di conseguenza si interrompe l’afflusso di ossigeno agli organi e in poco tempo inizia il processo di morte cellulare, perché le cellule dell’organismo non riescono a proseguire nelle loro attività. Tra i tessuti più a rischio e che degenerano più velocemente ci sono quelli cerebrali. Per questo nel caso di un arresto cardiaco è importante intervenire il prima possibile, in modo da ripristinare l’afflusso di ossigeno al cervello e la rimozione, sempre attraverso la circolazione sanguigna, dell’anidride carbonica prodotta dalle cellule con il loro metabolismo.
    Si stima che l’arresto cardiaco sia la causa del 20 per cento circa dei decessi in Europa, con possibilità di sopravvivenza estremamente basse nella maggior parte dei casi (le stime più pessimistiche calcolano il 2 per cento, ma i dati variano molto; la maggior parte delle persone interessate ha altri problemi di salute o subisce un arresto per cause traumatiche). L’incidenza annuale dei casi fuori dagli ospedali è tra i 67 e i 170 casi ogni 100mila abitanti: in circa metà delle volte la CPR viene effettuata da personale specializzato con una percentuale di sopravvivenza, dopo il ricovero in ospedale, dell’8 per cento. In ospedale l’arresto cardiaco improvviso ha invece un’incidenza di 1,5-2,8 casi ogni mille ricoveri con una percentuale di sopravvivenza stimata tra il 15 e il 34 per cento.
    In caso di arresto cardiaco la persona interessata è priva di coscienza e non reagisce, non si muove e non respira normalmente o non respira del tutto. Per provare a rianimarla, o per lo meno provare a rallentare il processo di morte dovuto all’interruzione della circolazione sanguigna, si praticano alcune manovre che favoriscono un minimo di circolazione e preservano il cervello. La classica manovra, quella che si vede spesso nei film e nelle serie tv, consiste nel comprimere il centro del torace tenendo una mano intrecciata sull’altra sulla metà inferiore dello sterno, in modo da provare a far muovere il cuore e far circolare il sangue. È una pratica che non si può improvvisare più di tanto e per questo si viene guidati da soccorritori esperti, per esempio al telefono mentre si attende l’arrivo di un’ambulanza.

    La compressione può essere tale da provocare una frattura dello sterno o delle costole, con eventuali danni al cuore o ai polmoni, ma è un rischio che in alcuni casi deve essere corso per provare ugualmente a mantenere un minimo di circolazione e ossigenazione del sangue. Alle compressioni può essere accompagnata a intervalli regolari la ventilazione, spingendo aria nella bocca del paziente, pratica che di preferenza viene svolta solo dal personale di soccorso. Possono anche essere impiegati particolari farmaci per provare a indurre una migliore reazione muscolare e favorire il ritorno del ritmo cardiaco.
    È improbabile che con la sola CPR si riesca a ripristinare l’attività elettrica nel cuore, cioè il giusto alternarsi degli impulsi che fanno avvenire le contrazioni muscolari e quindi il battito cardiaco. Per provare a ripristinare il ritmo cardiaco si effettua una defibrillazione attraverso un apposito strumento (defibrillatore) che somministra una scarica elettrica verso il cuore. Questa procedura non può però essere sempre risolutiva, perché è efficace solamente per alcuni tipi di anomalie e non per altre. La CPR in alcuni casi può indurre un ritmo cardiaco che sia poi defibrillabile, ma non è detto che ciò avvenga, soprattutto se non si può identificare e intervenire su ciò che ha causato in primo luogo l’arresto cardiaco.
    Un defibrillatore automatico esterno (DEA) guida l’operatore nella procedura per effettuare una defibrillazione, determinando se questa sia utile e necessaria (Wikimedia)
    Chi presta soccorso in casi come questi si trova quindi in una situazione di estrema emergenza, con poco tempo per fare le proprie valutazioni e decidere che cosa fare per provare a salvare il paziente. Il rischio di danni cerebrali è concreto e pressante: il cervello è tra gli organi che più richiedono energia e per produrla ha bisogno tra le altre cose di ossigeno, perché in sua assenza i neuroni deperiscono con grande rapidità.
    Per guadagnare tempo e preservare le funzioni cerebrali dei pazienti, da alcuni anni si sta sperimentando, spesso con esiti positivi, la rianimazione cardiopolmonare extracorporea (ECPR), sfruttando un sistema per il supporto vitale che esiste da tempo negli ospedali e di cui si era parlato molto nei periodi più difficili della pandemia da coronavirus: l’ECMO (ossigenazione extracorporea a membrana).
    Una ECMO consiste nell’utilizzare uno speciale macchinario che si sostituisce nell’attività solitamente svolta dai polmoni e/o dal cuore. Nel primo caso viene effettuata una ECMO veno-venosa, nella quale il sangue viene prelevato dal paziente, ossigenato e poi rimesso in circolo, senza intervenire sull’attività del cuore. Nei malati gravi di COVID-19, per esempio, questa tecnica veniva utilizzata per mantenere un corretto livello di ossigenazione del sangue anche nella fase in cui i polmoni molto infiammati non funzionavano pienamente a causa di una eccessiva reazione del sistema immunitario, impegnato a contrastare il coronavirus.
    Nel caso in cui il problema riguardi anche il cuore viene invece effettuata una ECMO veno-arteriosa (VA-ECMO), dove il sangue prelevato e poi ossigenato viene pompato con una certa pressione all’interno dell’organismo, in modo da rendere possibile la circolazione sanguigna altrimenti ferma a causa dell’arresto cardiaco. La VA-ECMO viene effettuata con un intervento di solito la zona dell’inguine, usata come punto di accesso all’arteria e alla vena femorale. Vengono inserite due sonde che attraverso questi vasi sanguigni, tra i più grandi dell’organismo, raggiungono il cuore e che saranno poi impiegate come guide per far passare i due tubi che saranno collegati al macchinario esterno.
    Al termine dell’intervento, che richiede pochi minuti per essere effettuato, il sangue viene fatto fluire all’esterno del paziente e attraverso una particolare membrana, che lascia passare le sostanze in forma gassosa, ma non i liquidi. In questo modo il sangue viene ripulito dall’anidride carbonica e viene arricchito di ossigeno, mantenendolo intanto alla giusta temperatura per essere poi immesso nell’organismo a livello del cuore (dell’aorta discendente). In questo modo il sangue può continuare a fluire nell’organismo, ossigenando i tessuti degli organi e in particolare del cervello, riducendo il rischio di danni per il paziente.
    Rappresentazione schematica di una VA-ECMO (EMC – Tecniche Chirurgiche Torace)
    La VA-ECMO viene tradizionalmente usata per affrontare alcuni problemi cardiaci come la miocardite acuta (una forte infiammazione dei tessuti cardiaci) o per alcuni tipi di infarto, ma il suo impiego è sempre più consigliato anche per i casi di emergenza legati all’arresto cardiaco refrattario, cioè ai casi in cui nessuna altra tecnica di rianimazione abbia funzionato dopo 10 minuti con più di due defibrillazioni. La rianimazione cardiopolmonare extracorporea (ECPR) in queste condizioni si è dimostrata utile nel favorire la sopravvivenza dei pazienti e nell’avere esiti neurologici migliori rispetto alla classica rianimazione.
    Effettuare una ECPR, soprattutto se non ci si trova in prossimità di un ospedale dotato di ECMO, non è però semplice e a oggi non esistono indicazioni e protocolli condivisi a livello internazionale. I macchinari per l’ECMO sono costosi e sono una risorsa limitata, di conseguenza devono essere seguiti dei criteri di selezione per decidere l’eventuale accesso al trattamento (soprattutto in medicina d’urgenza si lavora spesso con risorse scarse, dovendo bilanciare costi e benefici contemporaneamente per più pazienti).
    Idealmente, una persona da sottoporre a una ECPR dovrebbe avere subìto una totale interruzione della circolazione sanguigna per non più di cinque minuti, trovandosi in una condizione di parziale afflusso di sangue grazie a una CPR che consenta di raggiungere una struttura dove si pratica l’ECMO entro al massimo un’ora. Dovrebbe essere inoltre di un’età inferiore ai 70 anni, non avere altri problemi di salute e avere una o più cause scatenanti che possano essere trattate per superare l’arresto cardiaco.
    L’ECPR da sola non è infatti in alcun modo una cura: serve soprattutto a guadagnare tempo per provare a risolvere ciò che ha causato l’interruzione del ritmo cardiaco. Nel caso in cui ciò non sia possibile, la sua utilità può essere invece quella di preservare gli organi della persona, in modo da poterli espiantare e trapiantare su altre persone.
    Uno studio effettuato negli Stati Uniti e pubblicato nel 2020 sulla rivista medica Lancet aveva riguardato pazienti che corrispondevano ai criteri di selezione più diffusi e sottoposti casualmente a ECPR o ai normali trattamenti di rianimazione. Lo studio era stato interrotto prematuramente perché il tasso di sopravvivenza tra i pazienti sottoposti a ECPR era decisamente più alto e tale da non rendere etico proseguire. A sei mesi di distanza, il 43 per cento dei 14 pazienti sottoposti a ECPR era vivo e manteneva buone condizioni cerebrali, rispetto a zero nel gruppo di controllo.
    Il successo dello studio pubblicato su Lancet aveva portato a un rinnovato interesse verso l’ECPR, in un periodo fortemente condizionato dalla pandemia da coronavirus. Anche grazie a quella ricerca nel Maryland (Stati Uniti) era stata avviata la sperimentazione di una prima unità mobile ECMO per il trattamento sul posto delle persone con arresto cardiaco. È un grande camion che contiene al suo interno i macchinari che servono per intervenire sui pazienti, in pratica una piccola sala operatoria su ruote. Al momento, per motivi di sicurezza e burocratici, l’unità mobile può essere impiegata solamente all’esterno di un ospedale, ma i suoi ideatori confidano che in futuro possa essere usata per raggiungere e trattare i pazienti in arresto cardiaco il più velocemente possibile, specialmente in aree distanti da ospedali attrezzati per le ECMO.
    L’unità mobile per l’ECMO attrezzata nel Maryland, Stati Uniti (Helmsley Trust)
    Iniziative di questo tipo sono al momento molto costose, così come lo è in generale l’applicazione dell’ECPR, che richiede squadre appositamente formate di anestesisti, cardiologi, cardiochirurghi e infermieri. L’ECMO può inoltre comportare serie complicanze come emorragie dovute alle terapie anticoagulanti, che vengono somministrate ai pazienti per mantenere più fluido il sangue, sviluppo di infezioni e gravi problemi di circolazione agli arti superiori e inferiori. La valutazione dei costi e dei benefici sta avendo quindi un certo impatto sul dibattito intorno alla questione, anche perché per ora i riferimenti nella letteratura scientifica non sono molti e presentano a volta conclusioni in contraddizione tra loro.
    Una ricerca pubblicata nel 2023 ha per esempio preso in considerazione 160 persone, 70 delle quali erano state sottoposte a una ECPR e 64 a metodi convenzionali di rianimazione (26 partecipanti erano stati esclusi per via dei criteri di selezione). A trenta giorni dagli interventi, il 20 per cento dei pazienti nel primo gruppo era sopravvissuto con buone condizioni cerebrali, contro il 16 per cento del secondo gruppo. La differenza non era significativa e non aveva quindi portato a identificare particolari vantaggi di un approccio sull’altro.
    Una meta-analisi, cioè una statistica dei risultati ottenuti da vari studi su un certo tema, pubblicata nel 2022 ha segnalato invece come poco meno dell’8 per cento dei pazienti sopravviva con buone condizioni cerebrali nel caso in cui sia trattato con metodi convenzionali, rispetto al 14 per cento tra chi viene sottoposto a ECPR.
    Nel complesso la qualità nel processo di selezione dei pazienti è l’aspetto più importante per effettuare ECPR con maggiori probabilità di successo, e questo probabilmente incide sui dati di alcune ricerche (si trattano i pazienti che teoricamente hanno maggiori possibilità di superare l’arresto cardiaco). La formazione del personale di soccorso e dei medici negli ospedali è importante quindi anche per rispondere meglio nelle emergenze di questo tipo.
    In Italia alcuni ospedali partecipano alla Extracorporeal Life Support Organization (ELSO), un consorzio senza scopo di lucro che si occupa di promuovere lo sviluppo e le esperienze cliniche sulla ECPR, raccogliendo e mettendo in condivisione i dati tra i vari centri medici che se ne occupano. Tra gli ospedali italiani partecipanti ci sono il Policlinico e la clinica Mangiagalli di Milano, l’ospedale Papa Giovanni XXIII di Bergamo, il Policlinico Umberto I di Roma e l’Istituto mediterraneo per i trapianti di Palermo.
    Un’altra importante iniziativa nell’ambito della fornitura in generale dei servizi ECMO è la rete ECMONet, che dal 2009 facilita il coordinamento dei 14 centri che offrono servizi di ECMO e delle terapie intensive in Italia, in modo da ridurre i tempi di accesso per i pazienti. È stata anche sviluppata una rete di gruppi ECMO con ambulanze attrezzate e di aerei, gestiti dall’Aeronautica militare, per il trasporto su maggiori distanze dei pazienti che hanno necessità urgente di assistenza. LEGGI TUTTO