More stories

  • in

    Come si affrontano le turbolenze in aereo

    Caricamento playerLa notizia della morte di un passeggero sul volo SQ321 di Singapore Airlines di martedì 21 maggio, diretto da Londra a Singapore, ha riportato una certa attenzione sulle turbolenze in particolare tra le persone che hanno paura di volare, o che affrontano un viaggio in aereo con qualche apprensione. Le cause della morte dell’uomo britannico di 73 anni non sono ancora completamente chiare (si è parlato di un infarto e di precedenti problemi cardiaci), ma alcune delle oltre 200 persone che si trovavano a bordo hanno raccontato di avere vissuto momenti di forte preoccupazione e di caos, mentre i piloti cercavano di portare l’aereo fuori dalla turbolenza.
    Stando ai dati diffusi finora o disponibili attraverso i sistemi per tracciare i voli, il Boeing 777-312ER di Singapore Airlines si trovava a un’altitudine di circa 11.300 metri quando è iniziata la forte turbolenza. In quel momento era in corso la distribuzione della colazione, di conseguenza c’era un certo movimento a bordo. I piloti hanno attivato il segnale per allacciare le cinture di sicurezza, ma secondo alcuni passeggeri l’indicazione sarebbe stata fornita tardivamente. Nel frattempo l’aereo è stato portato in meno di tre minuti a una quota di circa 9.500 metri per uscire dalla turbolenza, una manovra necessaria che ha però portato a ulteriori apprensioni a bordo per la rapida riduzione dell’altitudine.
    Gli aerei di linea sono progettati per sopportare grandi sollecitazioni mentre sono in volo ed è estremamente raro che una turbolenza causi qualche danno a un aereo, tale da comprometterne il funzionamento. I rari atterraggi di emergenza che vengono effettuati dopo una turbolenza sono di solito decisi per prestare soccorso alle persone a bordo, rimaste ferite a causa dell’improvviso movimento dell’aereo in orizzontale o in verticale. Spesso questi scossoni sono accompagnati dalla caduta di oggetti dalle cappelliere o dai tavolini dei sedili aperti che possono causare traumi di vario tipo, oppure da cadute accidentali delle persone che si sono alzate per andare in bagno o sgranchirsi dopo molte ore di volo da seduti.
    Secondo le informazioni fornite finora, il volo SQ321 ha incontrato una “turbolenza in aria limpida” (CAT), una delle forme più comuni e talvolta insidiose di turbolenza. Come suggerisce il nome, le CAT si verificano mentre si sta volando in una porzione di cielo apparentemente libera da nuvole e senza perturbazioni. È la classica turbolenza che dal punto di vista di un passeggero si presenta di punto in bianco, mentre dal finestrino non nota nulla di strano e il cielo appare terso.
    In diversi casi il viaggio di un aereo è favorito dal “vento di coda”: una corrente d’aria che soffia nella stessa direzione verso cui vola l’aereo e che quindi lo spinge, contribuendo a farlo andare più veloce. Questo tipo di vento è prodotto per lo più dalle correnti a getto, che possiamo considerare come grandi fiumi d’aria che attraversano l’atmosfera. Proprio come i fiumi, queste correnti producono anse e rientranze, cambiando quindi la direzione del vento. Se la rotta dell’aereo coincide con quella del fiume si ha il vento di coda (un po’ come avviene con una nave che sfrutta la corrente per discendere un corso d’acqua), ma se il fiume d’aria a un certo punto produce un’ansa mentre l’aereo prosegue dritto, quest’ultimo si troverà del vento laterale che lo renderà meno stabile.
    Esempi di correnti a getto (NOAA)
    Quando il vento “gira” rispetto alla direzione di volo, un’ala dell’aereo riceve una sollecitazione diversa rispetto all’altra e questo insieme ad altri fattori (per esempio ulteriori correnti) porta ai sobbalzi tipici delle turbolenze. La variazione può essere lieve e durare pochi istanti, oppure più forte e duratura al punto da rendere necessario un aggiustamento della rotta e della quota a cui sta volando l’aereo: portandolo di alcune centinaia di metri più in alto o in basso, il pilota può togliersi dalla corrente che stava causando la turbolenza. Raramente nel togliersi da una zona di turbolenza si può incontrare un’altra area interessata da correnti che possono destabilizzare l’assetto di volo, rendendo necessarie ulteriori manovre. Un’ipotesi è che qualcosa di simile sia avvenuto con il volo di Singapore Airlines.

    Le CAT non sono sempre semplici da prevedere, proprio perché si verificano quando le condizioni del cielo e in generale di volo sono buone, rispetto a un tratto di cielo interessato da una tempesta. Grazie a sistemi di previsione e simulazione dell’andamento delle correnti in tempo reale, agli strumenti di bordo e all’assistenza da terra, un aereo riesce comunque a prevenire molte turbolenze di questo tipo.
    Durante il volo si possono incontrare altri tipi di turbolenze, come quelle termiche, che a differenza delle CAT sono generalmente visibili anche a occhio nudo. Sono dovute alla risalita nell’atmosfera di aria calda proveniente dal suolo, che spostandosi porta alla formazione delle nubi che appaiono verticali e simili a una meringa, come i cumulonembi. Da queste nubi si possono formare temporali e correnti ascensionali caotiche, di conseguenza gli aerei provano a evitarle volandoci sopra oppure aggirandole, cambiando temporaneamente rotta. In alcuni casi un passaggio in parte di un cumulonembo non può essere evitato e a bordo si hanno generalmente scossoni più brevi, ma intensi, rispetto a quelli durante una CAT. È invece normale che gli aerei attraversino altri tipi di nubi come gli strati, le nuvole basse e uniformi come quelle che coprono il cielo in una tranquilla mattina di pioggia autunnale.
    Esempio di cumulonembo (Wikimedia)
    Le turbolenze meccaniche si verificano invece quando un aereo attraversa un’area in cui ci sono alcuni ostacoli fisici, che modificano le correnti d’aria. A bassa quota questi ostacoli possono essere alberi, piccoli rilievi collinari o gli edifici in prossimità di un aeroporto. A quote più alte queste turbolenze sono causate dalla presenza dei rilievi montuosi, che portano i venti che soffiano sui loro versanti a produrre dei vortici d’aria che possono raggiungere anche quote importanti. Queste correnti che cambiano frequentemente direzione possono rendere più turbolento il viaggio, anche in combinazione con le correnti termiche che si sviluppano con l’interazione delle masse d’aria più calde con quelle fredde in prossimità dei ghiacciai.
    Infine ci sono le turbolenze di scia che tipicamente si formano alle spalle di un aereo durante il suo movimento nell’aria, un po’ come avviene sull’acqua con la scia lasciata da una nave in movimento. Un aeroplano che si trova alle spalle di un altro aereo può intercettare questa scia e subirne gli effetti, soprattutto nelle fasi in cui è più probabile che ci siano più aerei lungo una stessa rotta, per esempio nelle fasi di avvicinamento all’aeroporto di destinazione. I controllori del traffico aereo tengono in considerazione le turbolenze di scia quando danno indicazioni sulla rotta e sulla quota che devono mantenere gli aerei, anche in base alle loro dimensioni (in genere più grandi sono più turbolenze di scia producono). Le turbolenze di questo tipo hanno comunque un’estensione limitata ed è sufficiente cambiare direzione o quota di poche decine di metri per non subirne gli effetti.
    Simulazione di una turbolenza di scia prodotta in volo da un Airbus A340 in assetto di atterraggio (Wikimedia)
    Talvolta è la combinazione di diversi tipi di turbolenza a causare gli scossoni che si sentono in aereo, anche se un tipo di turbolenza è di solito preponderante rispetto agli altri. Ciò non rende sempre prevedibili gli effetti sull’aereo del passaggio in un’area di turbolenza, che come abbiamo visto è comunque progettato per reggere sollecitazioni molto forti. Questo è uno dei motivi per cui viene consigliato ai passeggeri di tenere sempre le cinture di sicurezza allacciate, anche quando il segnale sopra al sedile non è attivo. I piloti lo accendono non appena sospettano un’imminente turbolenza, ma c’è poi il tempo fisiologico per ciascuno di accorgersi del segnale, trovare i due estremi della cintura e allacciarla, senza contare le persone che magari si sono addormentate e non si accorgono dell’avviso.
    Mantenere la cintura allacciata riduce il rischio di essere sbalzati dal sedile e battere la testa contro il sedile davanti, le cappelliere o altre parti dell’aereo. La maggior parte degli infortuni a bordo in caso di forti turbolenze si verifica proprio a causa di questi movimenti incontrollabili che possono essere limitati con le cinture. È inoltre importante non circolare nell’aereo quando il segnale di mantenere le cinture di sicurezza è attivo, rimandando la sessione di stretching e sgranchimento a un momento più propizio e meno turbolento. LEGGI TUTTO

  • in

    Dove finisce la chimica?

    Caricamento playerAlla fine del 2015 l’Unione internazionale di chimica pura e applicata (IUPAC) introdusse un importante aggiornamento della tavola periodica degli elementi, lo schema che mostra gli elementi chimici in base alle loro principali caratteristiche. I responsabili della IUPAC aggiunsero nihonio, moscovio, tennesso e oganesson, completando per la prima volta la settima riga (“periodo”) della tavola. Erano quattro nuovi elementi “superpesanti” scoperti e sintetizzati negli anni precedenti da laboratori alla ricerca della risposta a una delle domande più affascinanti e sfuggenti di sempre, con grandi implicazioni sulla nostra capacità di comprendere come funziona praticamente tutto: dove finisce la chimica?
    Negli anni se lo sono chiesto in molti, ma già oltre un secolo e mezzo fa la questione aveva probabilmente incuriosito Dmitrij Ivanovič Mendeleev, il chimico russo che trovò il modo di ordinare ossigeno, carbonio, ferro e tutti gli altri elementi scoperti – e ancora da scoprire – in una tabella per poterli classificare. Una prima versione del suo schema fu presentata nei primi mesi del 1869, mettendo le basi per lo studio e la ricerca di elementi all’epoca ancora ignoti che avrebbero permesso di riempire le caselle mancanti. In alcuni casi fu necessario più di un secolo per riuscirci, mentre già si ipotizzava che ci potessero essere ancora altri elementi che avrebbero resa necessaria l’aggiunta di nuove caselle nella tavola di Mendeleev.
    Nella tavola periodica, quella che studiano ogni anno milioni di studenti delle scuole superiori, le righe si chiamano periodi e ciascuno ospita gli elementi in una sequenza basata sul loro numero atomico, che indica la quantità di protoni contenuti nel nucleo (la parte centrale e densa di un atomo, formata da protoni che possiedono carica positiva e neutroni, invece privi di carica).
    Ogni nuovo periodo inizia dopo un gas nobile e il primo elemento è sempre un metallo alcalino, con un numero atomico più grande di un’unità rispetto all’elemento con cui si era conclusa la riga precedente. Nei sette periodi della tavola, i metalli sono sulla sinistra e gli altri tipi di elementi sulla destra. Ne consegue che man mano che ci si sposta lungo una riga verso destra si trovano elementi via via più pesanti, con caratteristiche differenti da metallo a gas.
    (Wikimedia)
    Se si legge la tavola in verticale, le colonne (gruppi o famiglie) contengono elementi con caratteristiche chimiche simili. Hanno per esempio una stessa configurazione elettronica esterna, cioè elettroni che si comportano allo stesso modo attorno ai nuclei dei loro atomi. Esistono 18 gruppi e si va da quello dei metalli alcalini fino a quello dei gas nobili.
    Gli elementi con numero atomico da 1 a 118 occupano i sette periodi della tavola periodica, ma come abbiamo visto non è sempre stato così. Per lungo tempo la tavola ebbe alcuni buchi, dovuti alla difficoltà di trovare in natura gli elementi che ci si attendeva di avere tra una casella e un’altra, o alla difficoltà di sintetizzarli nel caso in cui fosse impossibile reperirli nell’ambiente. Per questo si dice spesso che i primi 94 elementi sono tutti “naturali”, mentre quelli da 95 a 118 vengono definiti talvolta “artificiali” o “sintetici”, anche se la distinzione e la definizione sono dibattute.
    In questa ultima categoria ricadono anche gli elementi superpesanti, a partire dal rutherfordio che ha numero atomico 104. La loro caratteristica principale è quella di essere piuttosto schivi, al punto da preferire quasi sempre di non esistere o di farlo per pochissimo tempo. I nuclei dei loro atomi tendono a perdere pezzi, o per meglio dire a decadere, in alcuni casi pochi istanti dopo la loro creazione. Per questo è così difficile crearli, studiarli e immaginare applicazioni in cui potrebbero essere utili, per lo meno allo stato attuale delle conoscenze.
    Le fabbriche degli elementi superpesanti sono relativamente poche perché richiedono particolari acceleratori di particelle: sofisticati strumenti che vengono utilizzati per far scontrare tra loro gli atomi in modo che si uniscano producendo un elemento più pesante. Tra i vari centri, il Lawrence Berkeley National Laboratory (LBNL) in California è probabilmente il più conosciuto, per lo meno per una delle tante dispute che hanno riguardato la storia della chimica. Tra la fine degli anni Sessanta e l’inizio dei Settanta, il laboratorio confermò di avere sintetizzato per la prima volta il rutherfordio, anche se un altro laboratorio nell’Unione Sovietica, l’Istituto unito per la ricerca nucleare di Dubna (JINR), anni prima aveva segnalato la prima rivelazione del nuovo elemento.
    Parte dell’Electron Cyclotron Resonance presso il Lawrence Berkeley National Laboratory (Berkeley Lab)
    La disputa nacque intorno al nome da dare, visto che i ricercatori sovietici proponevano di chiamarlo dubnio come la città in cui era avvenuta la scoperta o kurchatovio in onore di Igor Kurchatov, tra i principali fautori del programma di ricerca nucleare sovietico. La controversia fu risolta solamente nel 1997, quando la IUPAC decise di adottare il nome rutherfordio, in onore di Ernest Rutherford, il fisico neozelandese considerato il padre della fisica nucleare.
    Ancora oggi l’LBNL negli Stati Uniti e il JINR in Russia sono i centri di riferimento per la ricerca dei nuovi elementi, insieme alla Società per la ricerca sugli ioni pesanti a Darmstadt in Germania. Dagli anni Ottanta in particolare, i tre centri si sarebbero fatti una serrata concorrenza nella ricerca e nella produzione di nuovi elementi. Nel corso del tempo alla competizione si sarebbero aggiunti altri laboratori, che ancora oggi studiano il mondo sfuggente degli elementi superpesanti con un obiettivo molto ambizioso: trovare nuovi elementi che siano stabili, al punto da durare anni se non secoli prima di decadere in modo significativo.
    Per produrre uno di questi elementi si parte da un fascio di ioni pesanti (solitamente nuclei di atomi privati dei loro elettroni) che viene orientato verso un bersaglio, cercando di vincere la forza di repulsione tra i nuclei (sono entrambi positivi) e di farli unire. A seconda dei laboratori e dei risultati che si vogliono ottenere si seguono vari approcci con strumentazioni ed elementi diversi. Si usano microonde e campi magnetici molto intensi per rimuovere gli elettroni dall’elemento di partenza (spesso si usa il calcio) e gli ioni ottenuti vengono poi fatti passare attraverso un acceleratore, in modo che raggiungano velocità pari al 5-20 per cento di quella della luce, che è di circa 300 milioni di metri al secondo.
    Raggiunta la velocità desiderata, il fascio di ioni viene indirizzato verso il bersaglio, costituito da un elemento diverso a seconda del numero atomico finale che si sta provando a ottenere. Per ottenerne uno pari a 114 si parte dal calcio che ha numero atomico 20 e si usa come bersaglio il plutonio che ha invece numero atomico 94. Fare centro è però molto difficile e per questo si utilizzano enormi quantità di ioni in modo da rendere più probabile una collisione. Quando si riesce a ottenere un nucleo superpesante, questo viene rallentato e guidato in altri strumenti per essere misurato: è il momento in cui si ha la conferma di avere ottenuto un risultato.

    La misurazione finale non è semplice, così come la possibilità di poter fare qualcosa prima del decadimento dell’elemento appena ottenuto. In breve tempo infatti questi nuclei atomici instabili si trasformano (o per meglio dire “trasmutano”) in nuclei di energia inferiore; il riferimento è il tempo di dimezzamento, cioè quanto ci mette la metà degli atomi di un campione radioattivo a decadere. Nel caso di diversi superelementi, per riuscire a sperimentare e studiare reazioni chimiche con altri elementi è necessario almeno un tempo di dimezzamento di mezzo secondo.
    La difficoltà nel produrli e in molti casi il poco tempo per fare esperimenti spiega come mai sappiamo ancora poche cose su molti elementi superpesanti, al punto da non essere certi della loro classificazione nella tavola periodica, o per meglio dire della possibilità di continuare a utilizzare la tabella come prima. L’oganesson (118) è nella posizione dei gas nobili, l’ultima colonna a destra, ma secondo alcuni gruppi di ricerca probabilmente non è un gas. Ipotizzano che sia un solido in condizioni standard e che diventi un liquido quando viene portato a 52 °C.
    Il particolare comportamento di questi metalli è dovuto al modo in cui si distribuiscono gli elettroni nei loro atomi e al modo in cui interagiscono, raggiungendo altissime velocità quasi prossime a quelle della luce. In queste condizioni si verificano effetti relativistici che hanno conseguenze più importanti rispetto a quelli che si verificano negli elementi più leggeri. Studiandoli i gruppi di ricerca hanno l’opportunità di capire meglio il funzionamento di alcuni fenomeni nella fisica dell’infinitamente piccolo, che potrebbero poi essere applicati in altri ambiti della ricerca sulla materia, le sue caratteristiche e il suo funzionamento.
    I più ottimisti pensano inoltre che procedendo con questi esperimenti si possa approdare un giorno all’”isola della stabilità“, un modo per definire il luogo dove idealmente si trovano versioni (isotopi) di elementi transuranici particolarmente stabili e che quindi decadono molto lentamente rispetto ai tempi finora osservati. In questo modo potrebbero diventare utilizzabili non solo per ricerche più approfondite, ma anche per lo sviluppo di qualcosa che oggi non riusciamo a immaginare come materiali con insolite proprietà.
    La ricerca di base funziona del resto in questo modo, come ha ammesso di recente a Scientific American Jacklyn Gates, responsabile del gruppo di ricerca sugli elementi pesanti a Berkeley: «Tutto ciò che facciamo ora… non ha applicazioni pratiche. Ma se pensi ai nostri telefoni cellulari e a tutte le tecnologie che ci sono finite dentro, beh quelle tecnologie risalgono fino all’età del bronzo. Le persone all’epoca non avevano certo idea che la loro scoperta sarebbe finita in questi dispositivi cui siamo sempre incollati e dai quali siamo fortemente dipendenti. Quindi gli elementi superpesanti possono essere utili? Forse non in questa generazione, ma magari tra una o due potremo disporre di migliori tecnologie che ci rendano le cose e la vita un poco più semplici». LEGGI TUTTO

  • in

    Che fine hanno fatto i collari cervicali

    Caricamento playerDopo essere stati molto utilizzati nei decenni passati, da qualche tempo è più raro vedere in giro i collari cervicali indossati da persone con qualche problema al collo. La progressiva sparizione riguarda soprattutto i collari morbidi e in misura minore quelli rigidi, utilizzati per lo più per immobilizzare in condizioni di emergenza le persone che hanno subìto gravi traumi, per esempio in seguito a un incidente stradale. Con il declino dei collari ortopedici c’entrano i progressi nei sistemi di sicurezza delle automobili, ma ancora di più un sensibile cambiamento negli approcci medici e nelle terapie per chi ha problemi cervicali.
    I collari cervicali per come li intendiamo oggi furono perfezionati e adottati dagli ortopedici a partire dalla seconda metà del secolo scorso, in seguito alla progressiva diffusione delle automobili e di conseguenza all’aumento degli incidenti stradali. Molte persone coinvolte nei tamponamenti segnalavano per esempio di avere dolore al collo, che spesso durava per settimane ed era accompagnato da altri problemi come mal di testa e capogiri. I sintomi variavano molto da persona a persona e non erano sempre diagnosticabili facilmente, quindi il problema assunse un nome alquanto generico e distante da una precisa definizione medica: “colpo di frusta”.
    Il colpo di frusta si verifica quando in seguito a una rapida decelerazione, dovuta per esempio a un tamponamento, il corpo viene spinto in avanti dall’urto, mentre il cranio rimane indietro per inerzia causando uno stiramento del collo, salvo poi essere proiettato violentemente in avanti poco dopo. Più è violenta la decelerazione, più è probabile che subiscano forti sollecitazioni le strutture che fanno parte del collo e che sorreggono la testa come le vertebre, i muscoli e i legamenti. Nella maggior parte dei casi, il contraccolpo causa qualche contrattura muscolare non molto diversa da quella che si può rimediare agli arti con un movimento scorretto, mentre nei casi più gravi si può anche verificare una frattura delle vertebre cervicali che richiede maggiori attenzioni e cautele.

    In linea di massima, un colpo di frusta è quasi sempre reversibile in pochi giorni e sono rari i casi di danni permanenti, con forme croniche che devono essere affrontate con terapie del dolore. Naturalmente il colpo di frusta esisteva ben prima dell’avvento delle automobili, un problema simile era stato riscontrato nel caso degli incidenti ferroviari ai primi tempi della diffusione del treno, ma è diventato un evento traumatico molto noto in seguito alla motorizzazione delle società. Così noto da essere sfruttato da alcuni per millantare qualche problema di salute e rimediare rimborsi dalle assicurazioni o indennità dai servizi di assistenza sociale.
    L’esagerazione degli effetti di un colpo di frusta era sfruttata soprattutto in passato quando era difficile diagnosticare in modo oggettivo gli eventuali danni causati dal trauma, semplicemente perché non c’erano strumenti diagnostici adeguati. Una radiografia poteva mostrare la lesione di una vertebra, certo, ma non c’erano molte possibilità di osservare altri tipi di lesioni per esempio ai muscoli e alle altre strutture del corpo. Le cose sarebbero cambiate almeno in parte con l’avvento della risonanza magnetica negli anni Ottanta, che permette di osservare più nel dettaglio i tessuti interni, ma per diverso tempo i medici si basarono soprattutto sui sintomi che riferivano i loro pazienti, prescrivendo loro l’utilizzo di un collare morbido per qualche tempo, ritenendo che limitando i movimenti del collo si potesse avere un migliore recupero.
    C’erano più incidenti stradali rispetto a oggi e minori dotazioni per ridurre i rischi – come cinture di sicurezza, poggiatesta, airbag e sistemi di assorbimento degli urti – di conseguenza non era raro notare per strada qualcuno con un collare. In paesi come gli Stati Uniti, dove erano frequenti le cause legali e le richieste di rimborsi alle assicurazioni, il collare era diventato per alcuni uno stigma: la prova visibile del tentativo di ottenere qualche soldo esagerando le conseguenze di un temporaneo problema di salute, ammesso esistesse davvero.
    Il sistema sanitario basato sulle assicurazioni aveva favorito il fenomeno, ma questo non era esclusivo degli Stati Uniti e ancora oggi ha una certa importanza in alcuni paesi compreso il nostro. Secondo uno studio pubblicato nel 2008, in Italia gli infortuni di piccola entità alla cervicale segnalati sono il 66 per cento del totale degli infortuni, il dato più alto dopo il Regno Unito (76 per cento) e prima della Norvegia (53 per cento). L’incidenza di danni derivanti dal colpo di frusta indicati come permanenti, ma spesso difficili da verificare, è molto alta in Italia e secondo diverse analisi fuori scala, rispetto ai dati scientifici dal punto di vista epidemiologico. Fare analisi e confronti accurati tra paesi diversi non è però semplice, perché cambiano le modalità di diagnosi e di segnalazione degli infortuni e questo potrebbe giustificare almeno in parte le marcate differenze segnalate nelle ricerche.
    Al di là degli aspetti assicurativi, negli ultimi anni c’è stato un progressivo abbandono del collare cervicale da parte di ortopedici e altri specialisti. Salvo casi particolari, l’orientamento è di non farlo più indossare ai pazienti perché può ritardare il recupero da un colpo di frusta invece di favorirlo. Inizialmente si pensava che il collare potesse offrire un sostegno alla testa, riducendo il carico per vertebre e muscoli della zona cervicale, mentre oggi si ritiene che siano soprattutto utili fisioterapia, ginnastica dolce, massaggi e all’occorrenza l’impiego di farmaci antinfiammatori.
    Una scena di Erin Brockovich – Forte come la verità con Julia Roberts (Universal)
    Una revisione sistematica e una meta-analisi, cioè una ricerca che ha analizzato la letteratura scientifica a disposizione, pubblicata nel 2021 ha rilevato una prevalenza nella pratica medica di un approccio attivo nella riabilitazione, rispetto alla sola immobilizzazione, segnalando comunque la necessità di condurre ulteriori studi e approfondimenti. Una ricerca condotta una decina di anni prima aveva concluso che l’impiego del collare morbido è «nella migliore delle ipotesi inefficace» nel trattare il colpo di frusta, specificando che nello scenario peggiore i pazienti avessero un maggior rischio di non dedicarsi alle attività di recupero che prevedono di fare esercizi con il collo.
    Il cambio di approccio rifletteva quello più generale sull’importanza di ridurre la permanenza a letto dei pazienti, una pratica molto in uso negli ospedali, per favorire il loro recupero e ridurre il rischio di sviluppare altri problemi di salute dovuti al restare fermi a lungo. Era per esempio diventato evidente che i pazienti con mal di schiena traevano maggiori benefici dal muoversi, con tempi di recupero minori, rispetto a chi trascorreva più di due giorni a letto come veniva spesso consigliato in precedenza.
    Il collare cervicale nella versione rigida continua invece a essere utilizzato nella medicina di urgenza, per esempio per immobilizzare le persone sopravvissute a un incidente stradale quando c’è il dubbio di un eventuale danno alla spina dorsale. È un uso con scopi diversi rispetto al collare morbido e negli ultimi anni si è iniziato a discutere una revisione del suo impiego, anche in questo caso in seguito a studi e analisi sull’efficacia del sistema.
    Applicazione di un collare rigido in seguito a un trauma nel corso di una partita di football a Perth, Australia, nel 2012 (Getty Images)
    Il neurochirurgo norvegese Terje Sundstrøm è tra i più convinti sostenitori della necessità di rivedere protocolli e pratiche di utilizzo del collarino rigido. Una decina di anni fa pubblicò insieme ad altri colleghi un’analisi nella quale segnalava come in media venga immobilizzato il collo di 50 pazienti per ogni paziente che ha effettivamente una lesione spinale. Secondo lo studio, il collare rigido rende più difficoltosa la respirazione dei pazienti e contribuisce a creare maggiore agitazione, perché il suo impiego induce a pensare di avere subìto un danno grave, anche se magari non è quello il caso. In alcuni casi il collare rigido può rivelarsi scomodo o non essere applicato nel migliore dei modi, cosa che porta i pazienti a fare proprio i movimenti che il collare dovrebbe prevenire.
    In alcuni paesi le linee guida per l’uso dei collari rigidi negli scenari di emergenza sono state riviste, ma il loro impiego è comunque ancora diffuso. Gli incidenti che portano a lesioni spinali cervicali sono relativamente rari, di conseguenza è difficile condurre studi approfonditi e disporre di dati a sufficienza per trarre qualche conclusione. La tendenza è quindi quella di applicare maggiori cautele, proseguendo con un approccio conservativo che prevede l’impiego dei collari rigidi, più di quanto avvenga per quelli morbidi usati sempre meno spesso e per meno tempo, al punto da non farsi notare più in giro come una volta. LEGGI TUTTO

  • in

    Weekly Beasts

    Quella appena trascorsa è stata una settimana piena di cani, complice la storica mostra cinofila statunitense del Westminster Kennel Club Dog Show: più di duemila cani sono stati valutati da una giuria che ha espresso giudizi sulla loro bellezza in relazione agli standard delle razze cui appartengono e alle prestazioni nelle varie categorie in cui hanno gareggiato, e i fotografi hanno coperto estesamente l’evento con decine e decine di foto. A contribuire nella raccolta di chi valesse fotografare c’è anche Messi, il cane che compare nel film Anatomia di una caduta, al festival di Cannes, e per bilanciare un po’ la rappresentazione della specie si finisce con cani “normali” che sonnecchiano con un gatto. Poi una femmina di tordo che imbocca i suoi pulcini, una mamma cinghiale che guida in acqua i suoi cuccioli, e una foto che mostra quanto è lunga la lingua di una giraffa. LEGGI TUTTO

  • in

    Tokyo ha un problema di procioni

    Caricamento playerNell’ultimo decennio il numero di procioni catturati a Tokyo è aumentato di quattro volte. Nel 2012, secondo i dati dell’amministrazione della città, ne erano stati catturati 259: nel 2022 invece 1.282. È un problema perché questi animali sono una specie aliena invasiva che può fare grossi danni, e si pensa che i dati sulle catture indichino che il numero totale di procioni in circolazione sia cresciuto a sua volta – e non che le operazioni di cattura siano semplicemente diventate più efficaci.
    È stato stimato che nelle campagne giapponesi nel 2022 i procioni abbiano fatto danni alle coltivazioni per 450 milioni di yen, l’equivalente di 2,7 milioni di euro. Secondo alcune segnalazioni sembra anche che abbiano cacciato e ucciso salamandre a rischio di estinzione.
    I procioni sono originari del Nord America, ma negli ultimi decenni si sono diffusi anche in aree urbane di altri paesi del mondo dove erano stati portati come animali da compagnia o come attrazioni all’interno di zoo privati. Sono animali con grandi capacità di adattamento agli ambienti nuovi e sono rapidi a riprodursi per cui si trovano bene nelle città, dove mangiano dalle ciotole degli animali domestici e dai bidoni della spazzatura e fanno vari danni. In alcuni casi diventano aggressivi con le persone e possono diffondere malattie.
    Anche in Giappone i procioni si sono diffusi non intenzionalmente dopo che molte persone se ne procurarono come animali da compagnia, forse influenzate dalla popolare serie televisiva animata del 1977 Rascal, il mio amico orsetto. Il ministero dell’Ambiente giapponese ritiene che le attuali popolazioni di procioni presenti nel paese derivino da procioni da compagnia fuggiti o abbandonati. A Tokyo sono presenti soprattutto nelle zone collinari della parte occidentale dell’area metropolitana – che complessivamente ha quasi 14 milioni di abitanti umani. I procioni sono stati inseriti da tempo nella lista delle 156 specie aliene invasive presenti in Giappone.

    In molte zone del Giappone esistono piani per la cattura e l’uccisione dei procioni, a Tokyo in particolare dal 2013. Nel comune di Ome, una città che fa parte dell’area urbana di Tokyo, i residenti possono usare delle trappole per catturarli; a Fuchu invece chi subisce danni alle coltivazioni è invitato a segnalarli alle autorità. Finora tuttavia queste iniziative non hanno fermato lo sviluppo delle popolazioni di procioni, di cui non si conosce l’esatta estensione.

    Dal 2016 i procioni sono anche nell’elenco delle specie esotiche invasive di cui i paesi membri dell’Unione Europea devono cercare di evitare la diffusione per ragioni ecologiche, oltre che sanitarie. In Europa ci sono popolazioni di procioni in almeno 16 paesi e il gruppo più grande si trova in Germania. L’Italia è uno dei paesi dove sono presenti: c’è una popolazione tra Emilia-Romagna e Toscana. Dal 1996 sono considerati una specie che può «costituire pericolo per la salute e l’incolumità pubblica» nel nostro paese e da allora ne è proibita la detenzione a meno che non si abbia una specifica autorizzazione. LEGGI TUTTO

  • in

    Forse è stato risolto il mistero dell’origine dei baobab

    Caricamento playerDopo anni di studio, un gruppo di ricerca ha ricostruito la storia evolutiva dei baobab e dice di avere risolto il mistero sulla loro particolare distribuzione sulla Terra. Questi grandi alberi, famosi per il loro tronco molto spesso rispetto a fronde in proporzione piccole e corte, avrebbero avuto origine nel Madagascar e non nell’Africa continentale come si pensava inizialmente. Alcune sue specie si sarebbero diffuse in seguito sul continente africano e in Australia grazie alla diffusione dei loro semi attraverso l’oceano Indiano.
    L’origine dei baobab (Adansonia) è discussa da tempo proprio per la particolare distribuzione geografica delle loro specie. Ne esistono otto in tutto il mondo: sei sono presenti in Madagascar, una nell’Africa continentale e una nell’Australia nord-occidentale. Per diverso tempo vari gruppi di ricerca avevano ipotizzato che la pianta avesse avuto origine nel continente africano e che da lì si fosse poi diffusa altrove, con l’evoluzione di nuove specie. Non era però chiaro come fosse avvenuta la diffusione e non c’erano nemmeno grandi elementi per sostenere che la specie originaria fosse quella ancora oggi esistente in Africa.
    Insieme al suo gruppo di ricerca, il botanico Tao Wan del Giardino botanico di Wuhan dell’Accademia cinese delle scienze ha effettuato un’analisi genetica di tutte le otto specie conosciute di baobab e ha poi incrociato i dati ottenuti, ricostruendo la storia nel corso di milioni di anni di questi alberi. Lo studio, pubblicato sulla rivista scientifica Nature, dice che l’antenato comune degli odierni baobab ebbe origine in Madagascar circa 21 milioni di anni fa, differenziandosi poi nel corso del tempo nelle diverse altre specie presenti sull’isola anche a causa di fattori ambientali, come variazioni della temperatura media, attività vulcaniche e diffusione a varie altitudini delle piante.
    Secondo il gruppo di ricerca, alcune mutazioni casuali nel materiale genetico favorirono gli alberi i cui fiori erano facilmente raggiungibili da alcune specie di grandi impollinatori, come i pipistrelli della frutta e alcuni piccoli primati. Questo portò a una loro maggiore diffusione e alla successiva differenziazione delle piante nelle specie che osserviamo oggi.
    Lo studio ipotizza che circa 12 milioni di anni fa due specie di baobab tipiche del Madagascar raggiunsero l’Africa continentale e l’Australia, dove si evolsero poi diventando le specie che possiamo osservare oggi e con caratteristiche specifiche che le distinguono da quelle del Madagascar. L’ipotesi è che i loro semi furono trasportati insieme a frammenti della vegetazione dalla corrente che nell’oceano Indiano circola in senso antiorario tra Australia, Asia meridionale e costa orientale dell’Africa.
    L’analisi genetica ha inoltre permesso di rilevare una bassa diversità genetica in due specie di baobab tipiche del Madagascar, tale da mettere a rischio la loro sopravvivenza; una terza specie è considerata a rischio per i numerosi incroci con un’altra più diffusa e che potrebbe soppiantarla. Le tre specie erano già note per essere in pericolo e sono considerate a rischio di estinzione come del resto molte altre, sia vegetali sia animali, in Madagascar a causa delle attività umane. LEGGI TUTTO

  • in

    La ricerca di una migliore rianimazione

    Caricamento player«Libera!», l’operatore applica le due piastre del defibrillatore al torso del paziente che viene sottoposto a una forte scarica elettrica, ma il cuore non ha ripreso a battere. Un altro operatore effettua per alcuni secondi il massaggio cardiaco, poi è nuovamente il turno del defibrillatore e questa volta il cuore torna a battere. Il paziente apre gli occhi, sorride e per quanto affaticato ringrazia chi gli ha salvato la vita, mentre la musica di sottofondo da ansiogena diventa calma e rilassante.
    È una scena vista in decine di film e serie televisive, che segue più o meno sempre la stessa sequenza di eventi e che in molti casi ha contribuito a trasmettere una percezione sbagliata di come funzioni la rianimazione cardiopolmonare (CPR), la procedura di emergenza per trattare una persona in arresto cardiaco. L’idea che sia sufficiente massaggiare energicamente per qualche tempo il torace, intervenendo poi con una scarica elettrica, se necessario, per rianimare una persona è tanto diffusa quanto lontana dalla realtà. Rianimare qualcuno è estremamente difficile e non sempre le pratiche previste dalla CPR sono sufficienti.
    Per questo da tempo si valutano approcci diversi o, per meglio dire, integrazioni ai protocolli solitamente impiegati per rimediare a un arresto cardiaco. La tecnica più promettente, e già impiegata in numerosi paesi compresa l’Italia, prevede di affiancare alle normali tecniche per la CPR sistemi per la “circolazione extracorporea” in modo da far assolvere temporaneamente a una macchina le funzioni solitamente svolte dal cuore e dai polmoni, facendo guadagnare tempo ai medici per intervenire sul problema che ha causato l’arresto cardiaco in primo luogo.
    Nel parlato comune spesso infarto e arresto cardiaco vengono utilizzati per definire la stessa cosa, ma in realtà sono due condizioni differenti anche per gli esiti che possono avere. Con infarto si definisce un danno improvviso che subisce una parte del cuore a causa del blocco (occlusione) di una delle coronarie, cioè delle grandi arterie che portano il sangue al tessuto muscolare del cuore stesso. L’occlusione fa sì che il tessuto non riceva sangue a sufficienza e di conseguenza l’ossigeno che questo trasporta, una condizione che in poco tempo porta alla morte delle cellule coinvolte. In molte circostanze, il cuore funziona meno bene di come dovrebbe, ma continua comunque a battere.
    Un arresto cardiaco è invece l’interruzione improvvisa e completa dell’attività cardiaca, non solo di una sua parte come nell’infarto; può avere cause diverse e una di queste può anche essere l’infarto. In caso di arresto, il cuore non è più in condizione di far circolare il sangue, di conseguenza si interrompe l’afflusso di ossigeno agli organi e in poco tempo inizia il processo di morte cellulare, perché le cellule dell’organismo non riescono a proseguire nelle loro attività. Tra i tessuti più a rischio e che degenerano più velocemente ci sono quelli cerebrali. Per questo nel caso di un arresto cardiaco è importante intervenire il prima possibile, in modo da ripristinare l’afflusso di ossigeno al cervello e la rimozione, sempre attraverso la circolazione sanguigna, dell’anidride carbonica prodotta dalle cellule con il loro metabolismo.
    Si stima che l’arresto cardiaco sia la causa del 20 per cento circa dei decessi in Europa, con possibilità di sopravvivenza estremamente basse nella maggior parte dei casi (le stime più pessimistiche calcolano il 2 per cento, ma i dati variano molto; la maggior parte delle persone interessate ha altri problemi di salute o subisce un arresto per cause traumatiche). L’incidenza annuale dei casi fuori dagli ospedali è tra i 67 e i 170 casi ogni 100mila abitanti: in circa metà delle volte la CPR viene effettuata da personale specializzato con una percentuale di sopravvivenza, dopo il ricovero in ospedale, dell’8 per cento. In ospedale l’arresto cardiaco improvviso ha invece un’incidenza di 1,5-2,8 casi ogni mille ricoveri con una percentuale di sopravvivenza stimata tra il 15 e il 34 per cento.
    In caso di arresto cardiaco la persona interessata è priva di coscienza e non reagisce, non si muove e non respira normalmente o non respira del tutto. Per provare a rianimarla, o per lo meno provare a rallentare il processo di morte dovuto all’interruzione della circolazione sanguigna, si praticano alcune manovre che favoriscono un minimo di circolazione e preservano il cervello. La classica manovra, quella che si vede spesso nei film e nelle serie tv, consiste nel comprimere il centro del torace tenendo una mano intrecciata sull’altra sulla metà inferiore dello sterno, in modo da provare a far muovere il cuore e far circolare il sangue. È una pratica che non si può improvvisare più di tanto e per questo si viene guidati da soccorritori esperti, per esempio al telefono mentre si attende l’arrivo di un’ambulanza.

    La compressione può essere tale da provocare una frattura dello sterno o delle costole, con eventuali danni al cuore o ai polmoni, ma è un rischio che in alcuni casi deve essere corso per provare ugualmente a mantenere un minimo di circolazione e ossigenazione del sangue. Alle compressioni può essere accompagnata a intervalli regolari la ventilazione, spingendo aria nella bocca del paziente, pratica che di preferenza viene svolta solo dal personale di soccorso. Possono anche essere impiegati particolari farmaci per provare a indurre una migliore reazione muscolare e favorire il ritorno del ritmo cardiaco.
    È improbabile che con la sola CPR si riesca a ripristinare l’attività elettrica nel cuore, cioè il giusto alternarsi degli impulsi che fanno avvenire le contrazioni muscolari e quindi il battito cardiaco. Per provare a ripristinare il ritmo cardiaco si effettua una defibrillazione attraverso un apposito strumento (defibrillatore) che somministra una scarica elettrica verso il cuore. Questa procedura non può però essere sempre risolutiva, perché è efficace solamente per alcuni tipi di anomalie e non per altre. La CPR in alcuni casi può indurre un ritmo cardiaco che sia poi defibrillabile, ma non è detto che ciò avvenga, soprattutto se non si può identificare e intervenire su ciò che ha causato in primo luogo l’arresto cardiaco.
    Un defibrillatore automatico esterno (DEA) guida l’operatore nella procedura per effettuare una defibrillazione, determinando se questa sia utile e necessaria (Wikimedia)
    Chi presta soccorso in casi come questi si trova quindi in una situazione di estrema emergenza, con poco tempo per fare le proprie valutazioni e decidere che cosa fare per provare a salvare il paziente. Il rischio di danni cerebrali è concreto e pressante: il cervello è tra gli organi che più richiedono energia e per produrla ha bisogno tra le altre cose di ossigeno, perché in sua assenza i neuroni deperiscono con grande rapidità.
    Per guadagnare tempo e preservare le funzioni cerebrali dei pazienti, da alcuni anni si sta sperimentando, spesso con esiti positivi, la rianimazione cardiopolmonare extracorporea (ECPR), sfruttando un sistema per il supporto vitale che esiste da tempo negli ospedali e di cui si era parlato molto nei periodi più difficili della pandemia da coronavirus: l’ECMO (ossigenazione extracorporea a membrana).
    Una ECMO consiste nell’utilizzare uno speciale macchinario che si sostituisce nell’attività solitamente svolta dai polmoni e/o dal cuore. Nel primo caso viene effettuata una ECMO veno-venosa, nella quale il sangue viene prelevato dal paziente, ossigenato e poi rimesso in circolo, senza intervenire sull’attività del cuore. Nei malati gravi di COVID-19, per esempio, questa tecnica veniva utilizzata per mantenere un corretto livello di ossigenazione del sangue anche nella fase in cui i polmoni molto infiammati non funzionavano pienamente a causa di una eccessiva reazione del sistema immunitario, impegnato a contrastare il coronavirus.
    Nel caso in cui il problema riguardi anche il cuore viene invece effettuata una ECMO veno-arteriosa (VA-ECMO), dove il sangue prelevato e poi ossigenato viene pompato con una certa pressione all’interno dell’organismo, in modo da rendere possibile la circolazione sanguigna altrimenti ferma a causa dell’arresto cardiaco. La VA-ECMO viene effettuata con un intervento di solito la zona dell’inguine, usata come punto di accesso all’arteria e alla vena femorale. Vengono inserite due sonde che attraverso questi vasi sanguigni, tra i più grandi dell’organismo, raggiungono il cuore e che saranno poi impiegate come guide per far passare i due tubi che saranno collegati al macchinario esterno.
    Al termine dell’intervento, che richiede pochi minuti per essere effettuato, il sangue viene fatto fluire all’esterno del paziente e attraverso una particolare membrana, che lascia passare le sostanze in forma gassosa, ma non i liquidi. In questo modo il sangue viene ripulito dall’anidride carbonica e viene arricchito di ossigeno, mantenendolo intanto alla giusta temperatura per essere poi immesso nell’organismo a livello del cuore (dell’aorta discendente). In questo modo il sangue può continuare a fluire nell’organismo, ossigenando i tessuti degli organi e in particolare del cervello, riducendo il rischio di danni per il paziente.
    Rappresentazione schematica di una VA-ECMO (EMC – Tecniche Chirurgiche Torace)
    La VA-ECMO viene tradizionalmente usata per affrontare alcuni problemi cardiaci come la miocardite acuta (una forte infiammazione dei tessuti cardiaci) o per alcuni tipi di infarto, ma il suo impiego è sempre più consigliato anche per i casi di emergenza legati all’arresto cardiaco refrattario, cioè ai casi in cui nessuna altra tecnica di rianimazione abbia funzionato dopo 10 minuti con più di due defibrillazioni. La rianimazione cardiopolmonare extracorporea (ECPR) in queste condizioni si è dimostrata utile nel favorire la sopravvivenza dei pazienti e nell’avere esiti neurologici migliori rispetto alla classica rianimazione.
    Effettuare una ECPR, soprattutto se non ci si trova in prossimità di un ospedale dotato di ECMO, non è però semplice e a oggi non esistono indicazioni e protocolli condivisi a livello internazionale. I macchinari per l’ECMO sono costosi e sono una risorsa limitata, di conseguenza devono essere seguiti dei criteri di selezione per decidere l’eventuale accesso al trattamento (soprattutto in medicina d’urgenza si lavora spesso con risorse scarse, dovendo bilanciare costi e benefici contemporaneamente per più pazienti).
    Idealmente, una persona da sottoporre a una ECPR dovrebbe avere subìto una totale interruzione della circolazione sanguigna per non più di cinque minuti, trovandosi in una condizione di parziale afflusso di sangue grazie a una CPR che consenta di raggiungere una struttura dove si pratica l’ECMO entro al massimo un’ora. Dovrebbe essere inoltre di un’età inferiore ai 70 anni, non avere altri problemi di salute e avere una o più cause scatenanti che possano essere trattate per superare l’arresto cardiaco.
    L’ECPR da sola non è infatti in alcun modo una cura: serve soprattutto a guadagnare tempo per provare a risolvere ciò che ha causato l’interruzione del ritmo cardiaco. Nel caso in cui ciò non sia possibile, la sua utilità può essere invece quella di preservare gli organi della persona, in modo da poterli espiantare e trapiantare su altre persone.
    Uno studio effettuato negli Stati Uniti e pubblicato nel 2020 sulla rivista medica Lancet aveva riguardato pazienti che corrispondevano ai criteri di selezione più diffusi e sottoposti casualmente a ECPR o ai normali trattamenti di rianimazione. Lo studio era stato interrotto prematuramente perché il tasso di sopravvivenza tra i pazienti sottoposti a ECPR era decisamente più alto e tale da non rendere etico proseguire. A sei mesi di distanza, il 43 per cento dei 14 pazienti sottoposti a ECPR era vivo e manteneva buone condizioni cerebrali, rispetto a zero nel gruppo di controllo.
    Il successo dello studio pubblicato su Lancet aveva portato a un rinnovato interesse verso l’ECPR, in un periodo fortemente condizionato dalla pandemia da coronavirus. Anche grazie a quella ricerca nel Maryland (Stati Uniti) era stata avviata la sperimentazione di una prima unità mobile ECMO per il trattamento sul posto delle persone con arresto cardiaco. È un grande camion che contiene al suo interno i macchinari che servono per intervenire sui pazienti, in pratica una piccola sala operatoria su ruote. Al momento, per motivi di sicurezza e burocratici, l’unità mobile può essere impiegata solamente all’esterno di un ospedale, ma i suoi ideatori confidano che in futuro possa essere usata per raggiungere e trattare i pazienti in arresto cardiaco il più velocemente possibile, specialmente in aree distanti da ospedali attrezzati per le ECMO.
    L’unità mobile per l’ECMO attrezzata nel Maryland, Stati Uniti (Helmsley Trust)
    Iniziative di questo tipo sono al momento molto costose, così come lo è in generale l’applicazione dell’ECPR, che richiede squadre appositamente formate di anestesisti, cardiologi, cardiochirurghi e infermieri. L’ECMO può inoltre comportare serie complicanze come emorragie dovute alle terapie anticoagulanti, che vengono somministrate ai pazienti per mantenere più fluido il sangue, sviluppo di infezioni e gravi problemi di circolazione agli arti superiori e inferiori. La valutazione dei costi e dei benefici sta avendo quindi un certo impatto sul dibattito intorno alla questione, anche perché per ora i riferimenti nella letteratura scientifica non sono molti e presentano a volta conclusioni in contraddizione tra loro.
    Una ricerca pubblicata nel 2023 ha per esempio preso in considerazione 160 persone, 70 delle quali erano state sottoposte a una ECPR e 64 a metodi convenzionali di rianimazione (26 partecipanti erano stati esclusi per via dei criteri di selezione). A trenta giorni dagli interventi, il 20 per cento dei pazienti nel primo gruppo era sopravvissuto con buone condizioni cerebrali, contro il 16 per cento del secondo gruppo. La differenza non era significativa e non aveva quindi portato a identificare particolari vantaggi di un approccio sull’altro.
    Una meta-analisi, cioè una statistica dei risultati ottenuti da vari studi su un certo tema, pubblicata nel 2022 ha segnalato invece come poco meno dell’8 per cento dei pazienti sopravviva con buone condizioni cerebrali nel caso in cui sia trattato con metodi convenzionali, rispetto al 14 per cento tra chi viene sottoposto a ECPR.
    Nel complesso la qualità nel processo di selezione dei pazienti è l’aspetto più importante per effettuare ECPR con maggiori probabilità di successo, e questo probabilmente incide sui dati di alcune ricerche (si trattano i pazienti che teoricamente hanno maggiori possibilità di superare l’arresto cardiaco). La formazione del personale di soccorso e dei medici negli ospedali è importante quindi anche per rispondere meglio nelle emergenze di questo tipo.
    In Italia alcuni ospedali partecipano alla Extracorporeal Life Support Organization (ELSO), un consorzio senza scopo di lucro che si occupa di promuovere lo sviluppo e le esperienze cliniche sulla ECPR, raccogliendo e mettendo in condivisione i dati tra i vari centri medici che se ne occupano. Tra gli ospedali italiani partecipanti ci sono il Policlinico e la clinica Mangiagalli di Milano, l’ospedale Papa Giovanni XXIII di Bergamo, il Policlinico Umberto I di Roma e l’Istituto mediterraneo per i trapianti di Palermo.
    Un’altra importante iniziativa nell’ambito della fornitura in generale dei servizi ECMO è la rete ECMONet, che dal 2009 facilita il coordinamento dei 14 centri che offrono servizi di ECMO e delle terapie intensive in Italia, in modo da ridurre i tempi di accesso per i pazienti. È stata anche sviluppata una rete di gruppi ECMO con ambulanze attrezzate e di aerei, gestiti dall’Aeronautica militare, per il trasporto su maggiori distanze dei pazienti che hanno necessità urgente di assistenza. LEGGI TUTTO

  • in

    Melinda French Gates lascerà la nota fondazione di cui è presidente insieme al suo ex marito Bill Gates

    Melinda French Gates, una delle imprenditrici e filantrope più famose al mondo, ha annunciato che dal 7 giugno lascerà la celebre fondazione di cui è presidente insieme al suo ex marito Bill Gates, la Bill & Melinda Gates Foundation.La fondazione era stata creata dai due nel 2000, quando erano ancora sposati, e oggi è considerata la più ricca e influente al mondo tra quelle private. Voci e ipotesi di un minore coinvolgimento di Melinda French Gates nella gestione della fondazione circolavano dal 2021, da quando la coppia si separò (in quell’occasione Melinda French Gates riprese a usare il cognome che aveva da nubile, cioè French).
    French Gates non ha spiegato le ragioni della sua decisione, ma ha precisato che continuerà a lavorare nel settore della beneficenza: gli accordi presi col suo ex marito Bill Gates prevedono infatti che per finanziare i suoi progetti personali French Gates abbia a disposizione 12,5 miliardi di dollari (circa 11,5 miliardi di euro) dal patrimonio condiviso che avevano accumulato durante il matrimonio. LEGGI TUTTO