More stories

  • in

    Weekly Beasts

    A Tocaima, in Colombia, c’è un centro che si occupa di curare animali sequestrati dalla polizia, feriti o abbandonati, e da cui vengono le foto di due piccolissimi opossum, un porcospino, un gufo e due cappuccini dalla faccia bianca che fanno parte degli animali di questa raccolta. Ci sono anche un leone evacuato da uno zoo di Rafah a causa degli attacchi israeliani e spostato in un rifugio a Khan Younis e una gazzella in un campo di grano vicino al confine tra Israele e la Striscia di Gaza. Per finire: api mellifere, una formica, e il cane di Demi Moore che è stato fotografato al photocall di The Substance al festival di Cannes. LEGGI TUTTO

  • in

    Forse è stato trovato un modo per ridurre le emissioni di gas serra causate dal cemento

    Un gruppo di ricerca in ingegneria dell’Università di Cambridge, nel Regno Unito, ha sviluppato un metodo per riciclare il cemento su larga scala, un’innovazione tecnologia che potrebbe ridurre in modo significativo le emissioni di gas serra a cui si deve il cambiamento climatico.Il cemento è una sostanza fondamentale e attualmente insostituibile per il funzionamento della società contemporanea: è l’ingrediente fondamentale per la realizzazione di strade, grandi infrastrutture e case perché mischiato a ghiaia, sabbia e acqua dà il calcestruzzo con cui le si costruisce. La sua produzione però causa ingenti quantità di anidride carbonica (CO2), tra il 3 e il 4 per cento del totale annuale di emissioni di gas serra secondo le stime dell’istituto di ricerca ambientale World Resources Institute. Questa quantità potrebbe diminuire se invece di produrre nuovo cemento si riuscisse a riutilizzare quello proveniente da edifici demoliti.
    La produzione del cemento causa grandi emissioni per due ragioni diverse. La prima è quella che riguarda la maggior parte dei processi industriali: per portarli avanti serve molta energia che si ottiene, nella maggior parte dei casi, bruciando combustibili fossili, di conseguenza emettendo anidride carbonica. Il cemento in particolare si fabbrica scaldando calcare mischiato ad argilla a una temperatura di almeno 1450 °C, che spesso viene raggiunta bruciando carbone, il più inquinante dei combustibili fossili.
    La seconda ragione per cui al cemento si devono molte emissioni è legata alle caratteristiche chimiche proprie di questa sostanza. Il calcare da cui è prodotta contiene calcio (l’elemento fondamentale del cemento), carbonio e ossigeno: la combustione crea da un lato ossido di calcio, dall’altro anidride carbonica. Complessivamente, se si usa il carbone, per ogni tonnellata di cemento nuovo si emette una tonnellata di CO2. E nel mondo ogni anno sono prodotti miliardi di tonnellate di cemento. Se l’industria del cemento fosse un paese, sarebbe il terzo per emissioni annuali di anidride carbonica al mondo dopo Cina e Stati Uniti.
    Una fabbrica di cemento di Cemex e la cava da cui si ottiene il calcare che utilizza, a Rüdersdorf, in Germania, il 10 agosto 2023 (Sean Gallup/Getty Images)
    La tecnologia sviluppata dai ricercatori dell’Università di Cambridge – Cyrille F. Dunant, Shiju Joseph, Rohit Prajapati e Julian M. Allwood – è spiegata in un articolo pubblicato mercoledì sulla prestigiosa rivista scientifica Nature. In breve, prevede di ricavare nuovo cemento da edifici demoliti. Per farlo i detriti ottenuti dalle demolizioni devono essere ridotti in polvere e successivamente esposti ad altissime temperature. Il gruppo di ricerca ha scoperto che lo si può fare in modo efficace nei forni già usati per riciclare l’acciaio, con vantaggi vicendevoli per entrambe le produzioni.
    Infatti nel processo di riciclo dell’acciaio si usano delle sostanze che fanno sì che il prodotto finito sia resistente alla corrosione. Tali sostanze sono praticamente le stesse che si trovano nei detriti contenenti il cemento. Aggiungendoli, una volta polverizzati, nei forni elettrici ad arco che si usano per ottenere l’acciaio riciclato si può ottenere non solo l’acciaio riciclato, ma anche una sostanza che, se raffreddata velocemente, è cemento riciclato. L’intero procedimento consente di evitare le emissioni dovute alla produzione di nuovo cemento attraverso il calcare e di ridurre quelle legate al processo industriale perché si sfrutta la produzione di un altro materiale.
    I ricercatori hanno coniato l’espressione “cemento elettrico” per indicare questo cemento riciclato, a patto che sia prodotto (insieme all’acciaio riciclati) usando forni elettrici ad arco, che possono essere alimentati con energia prodotta da fonti rinnovabili.
    Dunant, il primo autore dell’articolo pubblicato su Nature, ha detto a BBC che in futuro questa scoperta potrebbe permettere di produrre cemento senza emissioni, nel caso in cui si riesca ad applicare il metodo su scala industriale in modo concorrenziale. Per ora il procedimento è stato testato al Materials Processing Institute di Middlesbrough, in Inghilterra, dove entro la fine del mese si proverà ad aumentare la scala dell’esperimento producendo 60 tonnellate di cemento riciclato in due ore.

    – Leggi anche: Servono soluzioni per l’acciaio, il cemento e l’ammoniaca LEGGI TUTTO

  • in

    Come si affrontano le turbolenze in aereo

    Caricamento playerLa notizia della morte di un passeggero sul volo SQ321 di Singapore Airlines di martedì 21 maggio, diretto da Londra a Singapore, ha riportato una certa attenzione sulle turbolenze in particolare tra le persone che hanno paura di volare, o che affrontano un viaggio in aereo con qualche apprensione. Le cause della morte dell’uomo britannico di 73 anni non sono ancora completamente chiare (si è parlato di un infarto e di precedenti problemi cardiaci), ma alcune delle oltre 200 persone che si trovavano a bordo hanno raccontato di avere vissuto momenti di forte preoccupazione e di caos, mentre i piloti cercavano di portare l’aereo fuori dalla turbolenza.
    Stando ai dati diffusi finora o disponibili attraverso i sistemi per tracciare i voli, il Boeing 777-312ER di Singapore Airlines si trovava a un’altitudine di circa 11.300 metri quando è iniziata la forte turbolenza. In quel momento era in corso la distribuzione della colazione, di conseguenza c’era un certo movimento a bordo. I piloti hanno attivato il segnale per allacciare le cinture di sicurezza, ma secondo alcuni passeggeri l’indicazione sarebbe stata fornita tardivamente. Nel frattempo l’aereo è stato portato in meno di tre minuti a una quota di circa 9.500 metri per uscire dalla turbolenza, una manovra necessaria che ha però portato a ulteriori apprensioni a bordo per la rapida riduzione dell’altitudine.
    Gli aerei di linea sono progettati per sopportare grandi sollecitazioni mentre sono in volo ed è estremamente raro che una turbolenza causi qualche danno a un aereo, tale da comprometterne il funzionamento. I rari atterraggi di emergenza che vengono effettuati dopo una turbolenza sono di solito decisi per prestare soccorso alle persone a bordo, rimaste ferite a causa dell’improvviso movimento dell’aereo in orizzontale o in verticale. Spesso questi scossoni sono accompagnati dalla caduta di oggetti dalle cappelliere o dai tavolini dei sedili aperti che possono causare traumi di vario tipo, oppure da cadute accidentali delle persone che si sono alzate per andare in bagno o sgranchirsi dopo molte ore di volo da seduti.
    Secondo le informazioni fornite finora, il volo SQ321 ha incontrato una “turbolenza in aria limpida” (CAT), una delle forme più comuni e talvolta insidiose di turbolenza. Come suggerisce il nome, le CAT si verificano mentre si sta volando in una porzione di cielo apparentemente libera da nuvole e senza perturbazioni. È la classica turbolenza che dal punto di vista di un passeggero si presenta di punto in bianco, mentre dal finestrino non nota nulla di strano e il cielo appare terso.
    In diversi casi il viaggio di un aereo è favorito dal “vento di coda”: una corrente d’aria che soffia nella stessa direzione verso cui vola l’aereo e che quindi lo spinge, contribuendo a farlo andare più veloce. Questo tipo di vento è prodotto per lo più dalle correnti a getto, che possiamo considerare come grandi fiumi d’aria che attraversano l’atmosfera. Proprio come i fiumi, queste correnti producono anse e rientranze, cambiando quindi la direzione del vento. Se la rotta dell’aereo coincide con quella del fiume si ha il vento di coda (un po’ come avviene con una nave che sfrutta la corrente per discendere un corso d’acqua), ma se il fiume d’aria a un certo punto produce un’ansa mentre l’aereo prosegue dritto, quest’ultimo si troverà del vento laterale che lo renderà meno stabile.
    Esempi di correnti a getto (NOAA)
    Quando il vento “gira” rispetto alla direzione di volo, un’ala dell’aereo riceve una sollecitazione diversa rispetto all’altra e questo insieme ad altri fattori (per esempio ulteriori correnti) porta ai sobbalzi tipici delle turbolenze. La variazione può essere lieve e durare pochi istanti, oppure più forte e duratura al punto da rendere necessario un aggiustamento della rotta e della quota a cui sta volando l’aereo: portandolo di alcune centinaia di metri più in alto o in basso, il pilota può togliersi dalla corrente che stava causando la turbolenza. Raramente nel togliersi da una zona di turbolenza si può incontrare un’altra area interessata da correnti che possono destabilizzare l’assetto di volo, rendendo necessarie ulteriori manovre. Un’ipotesi è che qualcosa di simile sia avvenuto con il volo di Singapore Airlines.

    Le CAT non sono sempre semplici da prevedere, proprio perché si verificano quando le condizioni del cielo e in generale di volo sono buone, rispetto a un tratto di cielo interessato da una tempesta. Grazie a sistemi di previsione e simulazione dell’andamento delle correnti in tempo reale, agli strumenti di bordo e all’assistenza da terra, un aereo riesce comunque a prevenire molte turbolenze di questo tipo.
    Durante il volo si possono incontrare altri tipi di turbolenze, come quelle termiche, che a differenza delle CAT sono generalmente visibili anche a occhio nudo. Sono dovute alla risalita nell’atmosfera di aria calda proveniente dal suolo, che spostandosi porta alla formazione delle nubi che appaiono verticali e simili a una meringa, come i cumulonembi. Da queste nubi si possono formare temporali e correnti ascensionali caotiche, di conseguenza gli aerei provano a evitarle volandoci sopra oppure aggirandole, cambiando temporaneamente rotta. In alcuni casi un passaggio in parte di un cumulonembo non può essere evitato e a bordo si hanno generalmente scossoni più brevi, ma intensi, rispetto a quelli durante una CAT. È invece normale che gli aerei attraversino altri tipi di nubi come gli strati, le nuvole basse e uniformi come quelle che coprono il cielo in una tranquilla mattina di pioggia autunnale.
    Esempio di cumulonembo (Wikimedia)
    Le turbolenze meccaniche si verificano invece quando un aereo attraversa un’area in cui ci sono alcuni ostacoli fisici, che modificano le correnti d’aria. A bassa quota questi ostacoli possono essere alberi, piccoli rilievi collinari o gli edifici in prossimità di un aeroporto. A quote più alte queste turbolenze sono causate dalla presenza dei rilievi montuosi, che portano i venti che soffiano sui loro versanti a produrre dei vortici d’aria che possono raggiungere anche quote importanti. Queste correnti che cambiano frequentemente direzione possono rendere più turbolento il viaggio, anche in combinazione con le correnti termiche che si sviluppano con l’interazione delle masse d’aria più calde con quelle fredde in prossimità dei ghiacciai.
    Infine ci sono le turbolenze di scia che tipicamente si formano alle spalle di un aereo durante il suo movimento nell’aria, un po’ come avviene sull’acqua con la scia lasciata da una nave in movimento. Un aeroplano che si trova alle spalle di un altro aereo può intercettare questa scia e subirne gli effetti, soprattutto nelle fasi in cui è più probabile che ci siano più aerei lungo una stessa rotta, per esempio nelle fasi di avvicinamento all’aeroporto di destinazione. I controllori del traffico aereo tengono in considerazione le turbolenze di scia quando danno indicazioni sulla rotta e sulla quota che devono mantenere gli aerei, anche in base alle loro dimensioni (in genere più grandi sono più turbolenze di scia producono). Le turbolenze di questo tipo hanno comunque un’estensione limitata ed è sufficiente cambiare direzione o quota di poche decine di metri per non subirne gli effetti.
    Simulazione di una turbolenza di scia prodotta in volo da un Airbus A340 in assetto di atterraggio (Wikimedia)
    Talvolta è la combinazione di diversi tipi di turbolenza a causare gli scossoni che si sentono in aereo, anche se un tipo di turbolenza è di solito preponderante rispetto agli altri. Ciò non rende sempre prevedibili gli effetti sull’aereo del passaggio in un’area di turbolenza, che come abbiamo visto è comunque progettato per reggere sollecitazioni molto forti. Questo è uno dei motivi per cui viene consigliato ai passeggeri di tenere sempre le cinture di sicurezza allacciate, anche quando il segnale sopra al sedile non è attivo. I piloti lo accendono non appena sospettano un’imminente turbolenza, ma c’è poi il tempo fisiologico per ciascuno di accorgersi del segnale, trovare i due estremi della cintura e allacciarla, senza contare le persone che magari si sono addormentate e non si accorgono dell’avviso.
    Mantenere la cintura allacciata riduce il rischio di essere sbalzati dal sedile e battere la testa contro il sedile davanti, le cappelliere o altre parti dell’aereo. La maggior parte degli infortuni a bordo in caso di forti turbolenze si verifica proprio a causa di questi movimenti incontrollabili che possono essere limitati con le cinture. È inoltre importante non circolare nell’aereo quando il segnale di mantenere le cinture di sicurezza è attivo, rimandando la sessione di stretching e sgranchimento a un momento più propizio e meno turbolento. LEGGI TUTTO

  • in

    Dove finisce la chimica?

    Caricamento playerAlla fine del 2015 l’Unione internazionale di chimica pura e applicata (IUPAC) introdusse un importante aggiornamento della tavola periodica degli elementi, lo schema che mostra gli elementi chimici in base alle loro principali caratteristiche. I responsabili della IUPAC aggiunsero nihonio, moscovio, tennesso e oganesson, completando per la prima volta la settima riga (“periodo”) della tavola. Erano quattro nuovi elementi “superpesanti” scoperti e sintetizzati negli anni precedenti da laboratori alla ricerca della risposta a una delle domande più affascinanti e sfuggenti di sempre, con grandi implicazioni sulla nostra capacità di comprendere come funziona praticamente tutto: dove finisce la chimica?
    Negli anni se lo sono chiesto in molti, ma già oltre un secolo e mezzo fa la questione aveva probabilmente incuriosito Dmitrij Ivanovič Mendeleev, il chimico russo che trovò il modo di ordinare ossigeno, carbonio, ferro e tutti gli altri elementi scoperti – e ancora da scoprire – in una tabella per poterli classificare. Una prima versione del suo schema fu presentata nei primi mesi del 1869, mettendo le basi per lo studio e la ricerca di elementi all’epoca ancora ignoti che avrebbero permesso di riempire le caselle mancanti. In alcuni casi fu necessario più di un secolo per riuscirci, mentre già si ipotizzava che ci potessero essere ancora altri elementi che avrebbero resa necessaria l’aggiunta di nuove caselle nella tavola di Mendeleev.
    Nella tavola periodica, quella che studiano ogni anno milioni di studenti delle scuole superiori, le righe si chiamano periodi e ciascuno ospita gli elementi in una sequenza basata sul loro numero atomico, che indica la quantità di protoni contenuti nel nucleo (la parte centrale e densa di un atomo, formata da protoni che possiedono carica positiva e neutroni, invece privi di carica).
    Ogni nuovo periodo inizia dopo un gas nobile e il primo elemento è sempre un metallo alcalino, con un numero atomico più grande di un’unità rispetto all’elemento con cui si era conclusa la riga precedente. Nei sette periodi della tavola, i metalli sono sulla sinistra e gli altri tipi di elementi sulla destra. Ne consegue che man mano che ci si sposta lungo una riga verso destra si trovano elementi via via più pesanti, con caratteristiche differenti da metallo a gas.
    (Wikimedia)
    Se si legge la tavola in verticale, le colonne (gruppi o famiglie) contengono elementi con caratteristiche chimiche simili. Hanno per esempio una stessa configurazione elettronica esterna, cioè elettroni che si comportano allo stesso modo attorno ai nuclei dei loro atomi. Esistono 18 gruppi e si va da quello dei metalli alcalini fino a quello dei gas nobili.
    Gli elementi con numero atomico da 1 a 118 occupano i sette periodi della tavola periodica, ma come abbiamo visto non è sempre stato così. Per lungo tempo la tavola ebbe alcuni buchi, dovuti alla difficoltà di trovare in natura gli elementi che ci si attendeva di avere tra una casella e un’altra, o alla difficoltà di sintetizzarli nel caso in cui fosse impossibile reperirli nell’ambiente. Per questo si dice spesso che i primi 94 elementi sono tutti “naturali”, mentre quelli da 95 a 118 vengono definiti talvolta “artificiali” o “sintetici”, anche se la distinzione e la definizione sono dibattute.
    In questa ultima categoria ricadono anche gli elementi superpesanti, a partire dal rutherfordio che ha numero atomico 104. La loro caratteristica principale è quella di essere piuttosto schivi, al punto da preferire quasi sempre di non esistere o di farlo per pochissimo tempo. I nuclei dei loro atomi tendono a perdere pezzi, o per meglio dire a decadere, in alcuni casi pochi istanti dopo la loro creazione. Per questo è così difficile crearli, studiarli e immaginare applicazioni in cui potrebbero essere utili, per lo meno allo stato attuale delle conoscenze.
    Le fabbriche degli elementi superpesanti sono relativamente poche perché richiedono particolari acceleratori di particelle: sofisticati strumenti che vengono utilizzati per far scontrare tra loro gli atomi in modo che si uniscano producendo un elemento più pesante. Tra i vari centri, il Lawrence Berkeley National Laboratory (LBNL) in California è probabilmente il più conosciuto, per lo meno per una delle tante dispute che hanno riguardato la storia della chimica. Tra la fine degli anni Sessanta e l’inizio dei Settanta, il laboratorio confermò di avere sintetizzato per la prima volta il rutherfordio, anche se un altro laboratorio nell’Unione Sovietica, l’Istituto unito per la ricerca nucleare di Dubna (JINR), anni prima aveva segnalato la prima rivelazione del nuovo elemento.
    Parte dell’Electron Cyclotron Resonance presso il Lawrence Berkeley National Laboratory (Berkeley Lab)
    La disputa nacque intorno al nome da dare, visto che i ricercatori sovietici proponevano di chiamarlo dubnio come la città in cui era avvenuta la scoperta o kurchatovio in onore di Igor Kurchatov, tra i principali fautori del programma di ricerca nucleare sovietico. La controversia fu risolta solamente nel 1997, quando la IUPAC decise di adottare il nome rutherfordio, in onore di Ernest Rutherford, il fisico neozelandese considerato il padre della fisica nucleare.
    Ancora oggi l’LBNL negli Stati Uniti e il JINR in Russia sono i centri di riferimento per la ricerca dei nuovi elementi, insieme alla Società per la ricerca sugli ioni pesanti a Darmstadt in Germania. Dagli anni Ottanta in particolare, i tre centri si sarebbero fatti una serrata concorrenza nella ricerca e nella produzione di nuovi elementi. Nel corso del tempo alla competizione si sarebbero aggiunti altri laboratori, che ancora oggi studiano il mondo sfuggente degli elementi superpesanti con un obiettivo molto ambizioso: trovare nuovi elementi che siano stabili, al punto da durare anni se non secoli prima di decadere in modo significativo.
    Per produrre uno di questi elementi si parte da un fascio di ioni pesanti (solitamente nuclei di atomi privati dei loro elettroni) che viene orientato verso un bersaglio, cercando di vincere la forza di repulsione tra i nuclei (sono entrambi positivi) e di farli unire. A seconda dei laboratori e dei risultati che si vogliono ottenere si seguono vari approcci con strumentazioni ed elementi diversi. Si usano microonde e campi magnetici molto intensi per rimuovere gli elettroni dall’elemento di partenza (spesso si usa il calcio) e gli ioni ottenuti vengono poi fatti passare attraverso un acceleratore, in modo che raggiungano velocità pari al 5-20 per cento di quella della luce, che è di circa 300 milioni di metri al secondo.
    Raggiunta la velocità desiderata, il fascio di ioni viene indirizzato verso il bersaglio, costituito da un elemento diverso a seconda del numero atomico finale che si sta provando a ottenere. Per ottenerne uno pari a 114 si parte dal calcio che ha numero atomico 20 e si usa come bersaglio il plutonio che ha invece numero atomico 94. Fare centro è però molto difficile e per questo si utilizzano enormi quantità di ioni in modo da rendere più probabile una collisione. Quando si riesce a ottenere un nucleo superpesante, questo viene rallentato e guidato in altri strumenti per essere misurato: è il momento in cui si ha la conferma di avere ottenuto un risultato.

    La misurazione finale non è semplice, così come la possibilità di poter fare qualcosa prima del decadimento dell’elemento appena ottenuto. In breve tempo infatti questi nuclei atomici instabili si trasformano (o per meglio dire “trasmutano”) in nuclei di energia inferiore; il riferimento è il tempo di dimezzamento, cioè quanto ci mette la metà degli atomi di un campione radioattivo a decadere. Nel caso di diversi superelementi, per riuscire a sperimentare e studiare reazioni chimiche con altri elementi è necessario almeno un tempo di dimezzamento di mezzo secondo.
    La difficoltà nel produrli e in molti casi il poco tempo per fare esperimenti spiega come mai sappiamo ancora poche cose su molti elementi superpesanti, al punto da non essere certi della loro classificazione nella tavola periodica, o per meglio dire della possibilità di continuare a utilizzare la tabella come prima. L’oganesson (118) è nella posizione dei gas nobili, l’ultima colonna a destra, ma secondo alcuni gruppi di ricerca probabilmente non è un gas. Ipotizzano che sia un solido in condizioni standard e che diventi un liquido quando viene portato a 52 °C.
    Il particolare comportamento di questi metalli è dovuto al modo in cui si distribuiscono gli elettroni nei loro atomi e al modo in cui interagiscono, raggiungendo altissime velocità quasi prossime a quelle della luce. In queste condizioni si verificano effetti relativistici che hanno conseguenze più importanti rispetto a quelli che si verificano negli elementi più leggeri. Studiandoli i gruppi di ricerca hanno l’opportunità di capire meglio il funzionamento di alcuni fenomeni nella fisica dell’infinitamente piccolo, che potrebbero poi essere applicati in altri ambiti della ricerca sulla materia, le sue caratteristiche e il suo funzionamento.
    I più ottimisti pensano inoltre che procedendo con questi esperimenti si possa approdare un giorno all’”isola della stabilità“, un modo per definire il luogo dove idealmente si trovano versioni (isotopi) di elementi transuranici particolarmente stabili e che quindi decadono molto lentamente rispetto ai tempi finora osservati. In questo modo potrebbero diventare utilizzabili non solo per ricerche più approfondite, ma anche per lo sviluppo di qualcosa che oggi non riusciamo a immaginare come materiali con insolite proprietà.
    La ricerca di base funziona del resto in questo modo, come ha ammesso di recente a Scientific American Jacklyn Gates, responsabile del gruppo di ricerca sugli elementi pesanti a Berkeley: «Tutto ciò che facciamo ora… non ha applicazioni pratiche. Ma se pensi ai nostri telefoni cellulari e a tutte le tecnologie che ci sono finite dentro, beh quelle tecnologie risalgono fino all’età del bronzo. Le persone all’epoca non avevano certo idea che la loro scoperta sarebbe finita in questi dispositivi cui siamo sempre incollati e dai quali siamo fortemente dipendenti. Quindi gli elementi superpesanti possono essere utili? Forse non in questa generazione, ma magari tra una o due potremo disporre di migliori tecnologie che ci rendano le cose e la vita un poco più semplici». LEGGI TUTTO

  • in

    Che fine hanno fatto i collari cervicali

    Caricamento playerDopo essere stati molto utilizzati nei decenni passati, da qualche tempo è più raro vedere in giro i collari cervicali indossati da persone con qualche problema al collo. La progressiva sparizione riguarda soprattutto i collari morbidi e in misura minore quelli rigidi, utilizzati per lo più per immobilizzare in condizioni di emergenza le persone che hanno subìto gravi traumi, per esempio in seguito a un incidente stradale. Con il declino dei collari ortopedici c’entrano i progressi nei sistemi di sicurezza delle automobili, ma ancora di più un sensibile cambiamento negli approcci medici e nelle terapie per chi ha problemi cervicali.
    I collari cervicali per come li intendiamo oggi furono perfezionati e adottati dagli ortopedici a partire dalla seconda metà del secolo scorso, in seguito alla progressiva diffusione delle automobili e di conseguenza all’aumento degli incidenti stradali. Molte persone coinvolte nei tamponamenti segnalavano per esempio di avere dolore al collo, che spesso durava per settimane ed era accompagnato da altri problemi come mal di testa e capogiri. I sintomi variavano molto da persona a persona e non erano sempre diagnosticabili facilmente, quindi il problema assunse un nome alquanto generico e distante da una precisa definizione medica: “colpo di frusta”.
    Il colpo di frusta si verifica quando in seguito a una rapida decelerazione, dovuta per esempio a un tamponamento, il corpo viene spinto in avanti dall’urto, mentre il cranio rimane indietro per inerzia causando uno stiramento del collo, salvo poi essere proiettato violentemente in avanti poco dopo. Più è violenta la decelerazione, più è probabile che subiscano forti sollecitazioni le strutture che fanno parte del collo e che sorreggono la testa come le vertebre, i muscoli e i legamenti. Nella maggior parte dei casi, il contraccolpo causa qualche contrattura muscolare non molto diversa da quella che si può rimediare agli arti con un movimento scorretto, mentre nei casi più gravi si può anche verificare una frattura delle vertebre cervicali che richiede maggiori attenzioni e cautele.

    In linea di massima, un colpo di frusta è quasi sempre reversibile in pochi giorni e sono rari i casi di danni permanenti, con forme croniche che devono essere affrontate con terapie del dolore. Naturalmente il colpo di frusta esisteva ben prima dell’avvento delle automobili, un problema simile era stato riscontrato nel caso degli incidenti ferroviari ai primi tempi della diffusione del treno, ma è diventato un evento traumatico molto noto in seguito alla motorizzazione delle società. Così noto da essere sfruttato da alcuni per millantare qualche problema di salute e rimediare rimborsi dalle assicurazioni o indennità dai servizi di assistenza sociale.
    L’esagerazione degli effetti di un colpo di frusta era sfruttata soprattutto in passato quando era difficile diagnosticare in modo oggettivo gli eventuali danni causati dal trauma, semplicemente perché non c’erano strumenti diagnostici adeguati. Una radiografia poteva mostrare la lesione di una vertebra, certo, ma non c’erano molte possibilità di osservare altri tipi di lesioni per esempio ai muscoli e alle altre strutture del corpo. Le cose sarebbero cambiate almeno in parte con l’avvento della risonanza magnetica negli anni Ottanta, che permette di osservare più nel dettaglio i tessuti interni, ma per diverso tempo i medici si basarono soprattutto sui sintomi che riferivano i loro pazienti, prescrivendo loro l’utilizzo di un collare morbido per qualche tempo, ritenendo che limitando i movimenti del collo si potesse avere un migliore recupero.
    C’erano più incidenti stradali rispetto a oggi e minori dotazioni per ridurre i rischi – come cinture di sicurezza, poggiatesta, airbag e sistemi di assorbimento degli urti – di conseguenza non era raro notare per strada qualcuno con un collare. In paesi come gli Stati Uniti, dove erano frequenti le cause legali e le richieste di rimborsi alle assicurazioni, il collare era diventato per alcuni uno stigma: la prova visibile del tentativo di ottenere qualche soldo esagerando le conseguenze di un temporaneo problema di salute, ammesso esistesse davvero.
    Il sistema sanitario basato sulle assicurazioni aveva favorito il fenomeno, ma questo non era esclusivo degli Stati Uniti e ancora oggi ha una certa importanza in alcuni paesi compreso il nostro. Secondo uno studio pubblicato nel 2008, in Italia gli infortuni di piccola entità alla cervicale segnalati sono il 66 per cento del totale degli infortuni, il dato più alto dopo il Regno Unito (76 per cento) e prima della Norvegia (53 per cento). L’incidenza di danni derivanti dal colpo di frusta indicati come permanenti, ma spesso difficili da verificare, è molto alta in Italia e secondo diverse analisi fuori scala, rispetto ai dati scientifici dal punto di vista epidemiologico. Fare analisi e confronti accurati tra paesi diversi non è però semplice, perché cambiano le modalità di diagnosi e di segnalazione degli infortuni e questo potrebbe giustificare almeno in parte le marcate differenze segnalate nelle ricerche.
    Al di là degli aspetti assicurativi, negli ultimi anni c’è stato un progressivo abbandono del collare cervicale da parte di ortopedici e altri specialisti. Salvo casi particolari, l’orientamento è di non farlo più indossare ai pazienti perché può ritardare il recupero da un colpo di frusta invece di favorirlo. Inizialmente si pensava che il collare potesse offrire un sostegno alla testa, riducendo il carico per vertebre e muscoli della zona cervicale, mentre oggi si ritiene che siano soprattutto utili fisioterapia, ginnastica dolce, massaggi e all’occorrenza l’impiego di farmaci antinfiammatori.
    Una scena di Erin Brockovich – Forte come la verità con Julia Roberts (Universal)
    Una revisione sistematica e una meta-analisi, cioè una ricerca che ha analizzato la letteratura scientifica a disposizione, pubblicata nel 2021 ha rilevato una prevalenza nella pratica medica di un approccio attivo nella riabilitazione, rispetto alla sola immobilizzazione, segnalando comunque la necessità di condurre ulteriori studi e approfondimenti. Una ricerca condotta una decina di anni prima aveva concluso che l’impiego del collare morbido è «nella migliore delle ipotesi inefficace» nel trattare il colpo di frusta, specificando che nello scenario peggiore i pazienti avessero un maggior rischio di non dedicarsi alle attività di recupero che prevedono di fare esercizi con il collo.
    Il cambio di approccio rifletteva quello più generale sull’importanza di ridurre la permanenza a letto dei pazienti, una pratica molto in uso negli ospedali, per favorire il loro recupero e ridurre il rischio di sviluppare altri problemi di salute dovuti al restare fermi a lungo. Era per esempio diventato evidente che i pazienti con mal di schiena traevano maggiori benefici dal muoversi, con tempi di recupero minori, rispetto a chi trascorreva più di due giorni a letto come veniva spesso consigliato in precedenza.
    Il collare cervicale nella versione rigida continua invece a essere utilizzato nella medicina di urgenza, per esempio per immobilizzare le persone sopravvissute a un incidente stradale quando c’è il dubbio di un eventuale danno alla spina dorsale. È un uso con scopi diversi rispetto al collare morbido e negli ultimi anni si è iniziato a discutere una revisione del suo impiego, anche in questo caso in seguito a studi e analisi sull’efficacia del sistema.
    Applicazione di un collare rigido in seguito a un trauma nel corso di una partita di football a Perth, Australia, nel 2012 (Getty Images)
    Il neurochirurgo norvegese Terje Sundstrøm è tra i più convinti sostenitori della necessità di rivedere protocolli e pratiche di utilizzo del collarino rigido. Una decina di anni fa pubblicò insieme ad altri colleghi un’analisi nella quale segnalava come in media venga immobilizzato il collo di 50 pazienti per ogni paziente che ha effettivamente una lesione spinale. Secondo lo studio, il collare rigido rende più difficoltosa la respirazione dei pazienti e contribuisce a creare maggiore agitazione, perché il suo impiego induce a pensare di avere subìto un danno grave, anche se magari non è quello il caso. In alcuni casi il collare rigido può rivelarsi scomodo o non essere applicato nel migliore dei modi, cosa che porta i pazienti a fare proprio i movimenti che il collare dovrebbe prevenire.
    In alcuni paesi le linee guida per l’uso dei collari rigidi negli scenari di emergenza sono state riviste, ma il loro impiego è comunque ancora diffuso. Gli incidenti che portano a lesioni spinali cervicali sono relativamente rari, di conseguenza è difficile condurre studi approfonditi e disporre di dati a sufficienza per trarre qualche conclusione. La tendenza è quindi quella di applicare maggiori cautele, proseguendo con un approccio conservativo che prevede l’impiego dei collari rigidi, più di quanto avvenga per quelli morbidi usati sempre meno spesso e per meno tempo, al punto da non farsi notare più in giro come una volta. LEGGI TUTTO

  • in

    Weekly Beasts

    Quella appena trascorsa è stata una settimana piena di cani, complice la storica mostra cinofila statunitense del Westminster Kennel Club Dog Show: più di duemila cani sono stati valutati da una giuria che ha espresso giudizi sulla loro bellezza in relazione agli standard delle razze cui appartengono e alle prestazioni nelle varie categorie in cui hanno gareggiato, e i fotografi hanno coperto estesamente l’evento con decine e decine di foto. A contribuire nella raccolta di chi valesse fotografare c’è anche Messi, il cane che compare nel film Anatomia di una caduta, al festival di Cannes, e per bilanciare un po’ la rappresentazione della specie si finisce con cani “normali” che sonnecchiano con un gatto. Poi una femmina di tordo che imbocca i suoi pulcini, una mamma cinghiale che guida in acqua i suoi cuccioli, e una foto che mostra quanto è lunga la lingua di una giraffa. LEGGI TUTTO

  • in

    Tokyo ha un problema di procioni

    Caricamento playerNell’ultimo decennio il numero di procioni catturati a Tokyo è aumentato di quattro volte. Nel 2012, secondo i dati dell’amministrazione della città, ne erano stati catturati 259: nel 2022 invece 1.282. È un problema perché questi animali sono una specie aliena invasiva che può fare grossi danni, e si pensa che i dati sulle catture indichino che il numero totale di procioni in circolazione sia cresciuto a sua volta – e non che le operazioni di cattura siano semplicemente diventate più efficaci.
    È stato stimato che nelle campagne giapponesi nel 2022 i procioni abbiano fatto danni alle coltivazioni per 450 milioni di yen, l’equivalente di 2,7 milioni di euro. Secondo alcune segnalazioni sembra anche che abbiano cacciato e ucciso salamandre a rischio di estinzione.
    I procioni sono originari del Nord America, ma negli ultimi decenni si sono diffusi anche in aree urbane di altri paesi del mondo dove erano stati portati come animali da compagnia o come attrazioni all’interno di zoo privati. Sono animali con grandi capacità di adattamento agli ambienti nuovi e sono rapidi a riprodursi per cui si trovano bene nelle città, dove mangiano dalle ciotole degli animali domestici e dai bidoni della spazzatura e fanno vari danni. In alcuni casi diventano aggressivi con le persone e possono diffondere malattie.
    Anche in Giappone i procioni si sono diffusi non intenzionalmente dopo che molte persone se ne procurarono come animali da compagnia, forse influenzate dalla popolare serie televisiva animata del 1977 Rascal, il mio amico orsetto. Il ministero dell’Ambiente giapponese ritiene che le attuali popolazioni di procioni presenti nel paese derivino da procioni da compagnia fuggiti o abbandonati. A Tokyo sono presenti soprattutto nelle zone collinari della parte occidentale dell’area metropolitana – che complessivamente ha quasi 14 milioni di abitanti umani. I procioni sono stati inseriti da tempo nella lista delle 156 specie aliene invasive presenti in Giappone.

    In molte zone del Giappone esistono piani per la cattura e l’uccisione dei procioni, a Tokyo in particolare dal 2013. Nel comune di Ome, una città che fa parte dell’area urbana di Tokyo, i residenti possono usare delle trappole per catturarli; a Fuchu invece chi subisce danni alle coltivazioni è invitato a segnalarli alle autorità. Finora tuttavia queste iniziative non hanno fermato lo sviluppo delle popolazioni di procioni, di cui non si conosce l’esatta estensione.

    Dal 2016 i procioni sono anche nell’elenco delle specie esotiche invasive di cui i paesi membri dell’Unione Europea devono cercare di evitare la diffusione per ragioni ecologiche, oltre che sanitarie. In Europa ci sono popolazioni di procioni in almeno 16 paesi e il gruppo più grande si trova in Germania. L’Italia è uno dei paesi dove sono presenti: c’è una popolazione tra Emilia-Romagna e Toscana. Dal 1996 sono considerati una specie che può «costituire pericolo per la salute e l’incolumità pubblica» nel nostro paese e da allora ne è proibita la detenzione a meno che non si abbia una specifica autorizzazione. LEGGI TUTTO

  • in

    Forse è stato risolto il mistero dell’origine dei baobab

    Caricamento playerDopo anni di studio, un gruppo di ricerca ha ricostruito la storia evolutiva dei baobab e dice di avere risolto il mistero sulla loro particolare distribuzione sulla Terra. Questi grandi alberi, famosi per il loro tronco molto spesso rispetto a fronde in proporzione piccole e corte, avrebbero avuto origine nel Madagascar e non nell’Africa continentale come si pensava inizialmente. Alcune sue specie si sarebbero diffuse in seguito sul continente africano e in Australia grazie alla diffusione dei loro semi attraverso l’oceano Indiano.
    L’origine dei baobab (Adansonia) è discussa da tempo proprio per la particolare distribuzione geografica delle loro specie. Ne esistono otto in tutto il mondo: sei sono presenti in Madagascar, una nell’Africa continentale e una nell’Australia nord-occidentale. Per diverso tempo vari gruppi di ricerca avevano ipotizzato che la pianta avesse avuto origine nel continente africano e che da lì si fosse poi diffusa altrove, con l’evoluzione di nuove specie. Non era però chiaro come fosse avvenuta la diffusione e non c’erano nemmeno grandi elementi per sostenere che la specie originaria fosse quella ancora oggi esistente in Africa.
    Insieme al suo gruppo di ricerca, il botanico Tao Wan del Giardino botanico di Wuhan dell’Accademia cinese delle scienze ha effettuato un’analisi genetica di tutte le otto specie conosciute di baobab e ha poi incrociato i dati ottenuti, ricostruendo la storia nel corso di milioni di anni di questi alberi. Lo studio, pubblicato sulla rivista scientifica Nature, dice che l’antenato comune degli odierni baobab ebbe origine in Madagascar circa 21 milioni di anni fa, differenziandosi poi nel corso del tempo nelle diverse altre specie presenti sull’isola anche a causa di fattori ambientali, come variazioni della temperatura media, attività vulcaniche e diffusione a varie altitudini delle piante.
    Secondo il gruppo di ricerca, alcune mutazioni casuali nel materiale genetico favorirono gli alberi i cui fiori erano facilmente raggiungibili da alcune specie di grandi impollinatori, come i pipistrelli della frutta e alcuni piccoli primati. Questo portò a una loro maggiore diffusione e alla successiva differenziazione delle piante nelle specie che osserviamo oggi.
    Lo studio ipotizza che circa 12 milioni di anni fa due specie di baobab tipiche del Madagascar raggiunsero l’Africa continentale e l’Australia, dove si evolsero poi diventando le specie che possiamo osservare oggi e con caratteristiche specifiche che le distinguono da quelle del Madagascar. L’ipotesi è che i loro semi furono trasportati insieme a frammenti della vegetazione dalla corrente che nell’oceano Indiano circola in senso antiorario tra Australia, Asia meridionale e costa orientale dell’Africa.
    L’analisi genetica ha inoltre permesso di rilevare una bassa diversità genetica in due specie di baobab tipiche del Madagascar, tale da mettere a rischio la loro sopravvivenza; una terza specie è considerata a rischio per i numerosi incroci con un’altra più diffusa e che potrebbe soppiantarla. Le tre specie erano già note per essere in pericolo e sono considerate a rischio di estinzione come del resto molte altre, sia vegetali sia animali, in Madagascar a causa delle attività umane. LEGGI TUTTO