More stories

  • in

    In California vogliono salvare una popolazione di puma con un cavalcavia

    Caricamento playerIn California l’autostrada 101, che da Los Angeles porta a nord verso San Francisco, è nota per l’alto numero di animali che vi vengono investiti quotidianamente. Per affrontare il problema e permettere alla fauna selvatica di spostarsi più liberamente fra due riserve naturali, una trentina di chilometri a nord-ovest di Hollywood è in costruzione quello che dovrebbe diventare il più grande attraversamento stradale per animali selvatici al mondo, il Wallis Annenberg Wildlife Crossing.
    La frammentazione dell’habitat naturale, dovuta all’espansione delle aree urbane e alla costruzione di strade, ha causato grossi problemi a molte specie di animali selvatici che abitano nella zona di Los Angeles. L’attraversamento in costruzione, in pratica un grosso cavalcavia coperto di terriccio e piante locali, dovrebbe rendere più facili e sicuri gli spostamenti della fauna selvatica fra l’area protetta delle montagne di Santa Monica e quella delle Simi Hills, appena a nord, aree che sono divise dall’autostrada 101.

    Fra gli animali messi più in difficoltà dalla presenza dell’autostrada ci sono i puma. Questi grossi felini carnivori abitualmente si muovono in un’area di più di 250 chilometri quadrati, ma gli spostamenti della popolazione che abita nelle montagne di Santa Monica sono di fatto bloccati dall’autostrada 101 a nord e dalla 405 a est. La limitazione ha causato un aumento degli accoppiamenti fra puma consanguinei, che ha portato a sua volta a una maggiore diffusione di alcuni problemi di salute. Secondo il sito web del progetto, la riduzione della diversità genetica fra i puma di Santa Monica potrebbe portarli all’estinzione fra qualche decina di anni.
    Gli sforzi per la costruzione del Wallis Annenberg Wildlife Crossing, che ha un costo stimato attorno ai 90 milioni di dollari, hanno ricevuto una grossa spinta proprio dalla storia di un esemplare di puma in particolare (negli Stati Uniti chiamati solitamente leoni di montagna o coguari), diventato una sorta di celebrità locale. Nato nelle montagne di Santa Monica, il puma noto come P-22 si stanziò dalle parti di Hollywood attorno al 2012, dopo aver attraversato decine di chilometri e le autostrade 101 e 405. È un viaggio molto rischioso per un puma, e infatti una volta arrivato in città era rimasto bloccato e isolato dal resto della sua specie.
    Per una decina di anni P-22 visse in un parco cittadino, senza creare grossi problemi agli umani (è molto raro che i puma attacchino le persone), a parte un’occasione in cui probabilmente si mangiò un koala dello zoo cittadino, e un’altra in cui cercò di stabilirsi nello spazio sotto una villetta, venendo poi scacciato. Al contrario, la sua sopravvivenza in un ambiente urbano per molti versi ostile era associata dai residenti umani di Los Angeles alle proprie esperienze di sopravvivenza in città. P-22 divenne una specie di mascotte cittadina: fra le altre cose dopo la sua morte fu organizzato un evento di commemorazione a cui parteciparono migliaia di persone e diverse celebrità e politici californiani. Il puma venne abbattuto alla fine del 2022, anche per via delle gravi ferite riportate dopo essere stato investito da un’auto.

    La sua storia, dall’attraversamento di due autostrade per arrivare in città all’investimento poco prima della morte, e l’affetto che ha suscitato fra gli abitanti di Los Angeles verso i puma, hanno contribuito a dare una grossa spinta al progetto dell’attraversamento per animali selvatici sull’autostrada 101. Dopo la sua morte l’opinione pubblica cittadina aveva espresso molto favore per quelle misure, come l’attraversamento, che facilitassero la coesistenza fra le attività umane e le specie selvatiche.

    – Leggi anche: Non è così insolito trovare un puma nel tuo giardino, in California

    La costruzione del Wallis Annenberg Wildlife Crossing è iniziata nel 2022: a maggio 2024 è stata completata la posa delle 82 travi di cemento che costituiscono la sua struttura, e dovrebbe finire nel 2026. Passa a qualche metro di altezza sopra otto corsie stradali, è lungo circa 50 metri e largo 60. Oltre agli spostamenti dei puma, faciliterà anche quelli delle linci rosse, dei cervi muli e di decine di specie di rettili e anfibi.
    Ora le travi saranno coperte di terra: il progetto prevede che vi sia piantato più di un milione di piante locali, e che sia popolato da ecosistemi di funghi e di microbi analoghi a quelli che si trovano nel terreno delle zone circostanti. Per confondere il passaggio nell’ambiente naturale, e invogliare gli animali a passare da lì anziché attraversare la strada, anche nell’area adiacente al passaggio saranno piantati degli alberi.
    Rorie Skei, vicedirettrice della Santa Monica Mountains Conservancy, un’agenzia statale coinvolta in progetti di tutela ambientale nella zona, ha detto al Washington Post che il Wallis Annenberg Wildlife Crossing «è molto costoso, ma è praticamente un prototipo», uno schema per progetti futuri. Secondo Skei infatti nel tempo «potremo costruire attraversamenti più economici».
    La struttura in costruzione in California è per molti versi all’avanguardia, ma non è certo la prima del suo genere. I primi attraversamenti stradali per la fauna furono costruiti in Europa negli anni Sessanta, e dagli anni Settanta ce ne sono anche negli Stati Uniti. I loro benefici non riguardano solo gli animali selvatici, ma anche gli esseri umani: nei soli Stati Uniti ci sono circa un milione di scontri fra veicoli e animali ogni anno, che causano 26mila feriti e 200 morti, e danni economici per 10 miliardi di dollari.

    – Leggi anche: Il gran traffico di un sovrappassaggio per animali selvatici su un’autostrada dello Utah LEGGI TUTTO

  • in

    Forse torneremo a mangiare le ostriche solo nei mesi “con la R”

    Caricamento playerFino a qualche decennio fa in Francia si diceva che le ostriche vanno mangiate solo nei mesi “con la R” nel nome, che in francese sono tutti tranne maggio, giugno, luglio e agosto. In italiano funziona, ma va aggiunto ai mesi buoni gennaio, che in francese si dice janvier. D’estate infatti le ostriche selvatiche si riproducono e per questo producono uova e sperma, che in ambito culinario sono chiamati “latte”: una sostanza lattiginosa che ingrossa il corpo dei molluschi e ne modifica il gusto, rendendoli sgradevoli anche per molte delle persone a cui piacciono. Il detto era diventato meno significativo negli ultimi decenni con la diffusione delle ostriche triploidi, una varietà sterile ottenuta con un processo di selezione artificiale che non produce “latte” nemmeno d’estate ed è allevata in gran parte del mondo, Italia compresa.
    Tuttavia di recente negli Stati Uniti si è visto che le triploidi sono più vulnerabili alle ondate di calore marino: uno studio pubblicato l’anno scorso sulla rivista Global Change Biology dice che le temperature più alte della media registrate nell’estate del 2021 lungo le coste dell’oceano Pacifico occidentale causarono una moria di ostriche molto più grave tra le triploidi che tra le altre popolazioni di ostriche. Per questo, dato che anche le ondate di calore marino sono favorite dal cambiamento climatico in atto, c’è chi si sta chiedendo se in futuro non torneremo a mangiare questi molluschi solo nei mesi con la R.
    Le ostriche triploidi, chiamate anche “ostriche quattro stagioni”, vennero selezionate dalla fine degli anni Settanta negli Stati Uniti a partire da due specie di ostriche originarie delle coste asiatiche del Pacifico, e in particolare da quella generalmente chiamata Crassostrea gigas («generalmente» perché sulla sua classificazione scientifica non c’è unanimità).
    Devono la sterilità e il loro nome al fatto di avere tre, e non due, cromosomi sessuali. Per ottenerle si sfrutta una caratteristica comune dei molluschi bivalvi: sottoponendo le loro uova a forti sbalzi di temperatura, o esponendole a certe sostanze, come la caffeina, si possono ottenere individui con un numero di cromosomi sessuali superiore a due. In particolare si possono ottenere molluschi maschi con quattro cromosomi sessuali (tetraploidi) e fertili, che accoppiati con femmine con due cromosomi (diploidi), generano individui con tre cromosomi, non fertili.

    – Leggi anche: Non siamo così d’accordo su cosa sia davvero una specie

    Le triploidi sono vantaggiose per l’ostricoltura perché crescono in fretta e hanno lo stesso sapore tutto l’anno, ragioni per cui sono state adottate da tantissimi ostricultori del mondo. Il primo brevetto statunitense risale al 1995, al 2007 invece quello delle ostriche triploidi francesi, selezionate dall’Istituto di ricerca francese per lo sfruttamento del mare (Ifremer). In anni recenti circa la metà delle ostriche prodotte nel nord-ovest degli Stati Uniti era triploide, e anche in Francia, il primo paese europeo per produzione di ostriche, una buona parte della produzione è “quattro stagioni”.
    La diffusione delle triploidi ha permesso di estendere i periodi dell’anno in cui si mangiano le ostriche e fatto sviluppare il consumo estivo, che negli Stati Uniti è diventato quello principale per questi molluschi.
    Gli effetti delle ondate di calore marino degli ultimi anni però rischiano di mettere in crisi la produzione e dunque questa usanza, come racconta un articolo pubblicato sulla rivista statunitense Hakai per cui sono stati intervistati scienziati e ostricultori. Uno è Matthew George, che lavora per il dipartimento per il Pesce e la Natura dello stato di Washington ed è il primo autore dello studio pubblicato su Global Change Biology. In laboratorio George e i suoi collaboratori hanno verificato che se sottoposte a stress termici le ostriche triploidi muoiono in quantità significativamente maggiori delle diploidi.
    A causa delle morie vari ostricultori statunitensi stanno riducendo la propria produzione di triploidi, o ci stanno rinunciando. C’entra anche il costo più elevato del “seme” delle ostriche triploidi, cioè delle larve degli animali, che gli ostricultori generalmente acquistano da aziende specializzate. Vari ostricultori hanno detto ad Hakai di essere passati dal 70 per cento di triploidi nella propria produzione al 20 per cento.
    Dato che però ora negli Stati Uniti le ostriche sono maggiormente richieste d’estate nel settore dell’ostricoltura si sta pensando a nuove strategie, che potrebbero riguardare anche la Francia perché anche in Europa ci sono stati effetti nefasti sulle produzioni di ostriche per via delle ondate di calore. Una possibilità è fare ricerca per provare a ottenere ostriche triploidi più resistenti, come hanno cominciato a fare cinque anni fa l’azienda Taylor Shellfish Farms e alcuni genetisti del dipartimento dell’Agricoltura statunitense. L’altra è usare gli strumenti del marketing, o per tentare di aumentare la domanda nei mesi con la R (la via più percorsa in Francia finora), o per proporre ai consumatori le ostriche lattiginose, ad esempio evitando di menzionare uova e sperma.
    Infatti al di là del futuro delle ostriche quattro stagioni, ci si potrebbe abituare a mangiare le ostriche lattiginose. Sono edibili tanto quanto le altre, anche se il gusto è un po’ diverso.
    È peraltro possibile che in origine la “regola” sui mesi con la R non fosse dovuta a una questione di sapore, ma ad altre ragioni. Non si sa con esattezza quando e come sia nato il detto. Nella zona di Arcachon, una località della Gironda nota per la produzione di ostriche, si dice che fu coniato all’inizio del Novecento quando l’ostricoltura francese venne danneggiata da un virus o da un parassita che sterminò quasi interamente la popolazione di Ostrea edulis, la specie di ostrica locale. In quel periodo si sarebbe evitato di mangiare le ostriche nei mesi estivi per favorirne la riproduzione e così la crescita del loro numero.
    In Normandia, un’altra regione francese dove si allevano ostriche, il modo di dire viene ricondotto a un periodo precedente e cioè al Seicento, quando servivano quattro giorni di viaggio per fare arrivare le ostriche alla corte del re a Parigi. Le temperature estive impedivano di conservarle tanto a lungo e dunque era sconsigliato mangiarle in quel periodo. LEGGI TUTTO

  • in

    Weekly Beasts

    A Tocaima, in Colombia, c’è un centro che si occupa di curare animali sequestrati dalla polizia, feriti o abbandonati, e da cui vengono le foto di due piccolissimi opossum, un porcospino, un gufo e due cappuccini dalla faccia bianca che fanno parte degli animali di questa raccolta. Ci sono anche un leone evacuato da uno zoo di Rafah a causa degli attacchi israeliani e spostato in un rifugio a Khan Younis e una gazzella in un campo di grano vicino al confine tra Israele e la Striscia di Gaza. Per finire: api mellifere, una formica, e il cane di Demi Moore che è stato fotografato al photocall di The Substance al festival di Cannes. LEGGI TUTTO

  • in

    Forse è stato trovato un modo per ridurre le emissioni di gas serra causate dal cemento

    Un gruppo di ricerca in ingegneria dell’Università di Cambridge, nel Regno Unito, ha sviluppato un metodo per riciclare il cemento su larga scala, un’innovazione tecnologia che potrebbe ridurre in modo significativo le emissioni di gas serra a cui si deve il cambiamento climatico.Il cemento è una sostanza fondamentale e attualmente insostituibile per il funzionamento della società contemporanea: è l’ingrediente fondamentale per la realizzazione di strade, grandi infrastrutture e case perché mischiato a ghiaia, sabbia e acqua dà il calcestruzzo con cui le si costruisce. La sua produzione però causa ingenti quantità di anidride carbonica (CO2), tra il 3 e il 4 per cento del totale annuale di emissioni di gas serra secondo le stime dell’istituto di ricerca ambientale World Resources Institute. Questa quantità potrebbe diminuire se invece di produrre nuovo cemento si riuscisse a riutilizzare quello proveniente da edifici demoliti.
    La produzione del cemento causa grandi emissioni per due ragioni diverse. La prima è quella che riguarda la maggior parte dei processi industriali: per portarli avanti serve molta energia che si ottiene, nella maggior parte dei casi, bruciando combustibili fossili, di conseguenza emettendo anidride carbonica. Il cemento in particolare si fabbrica scaldando calcare mischiato ad argilla a una temperatura di almeno 1450 °C, che spesso viene raggiunta bruciando carbone, il più inquinante dei combustibili fossili.
    La seconda ragione per cui al cemento si devono molte emissioni è legata alle caratteristiche chimiche proprie di questa sostanza. Il calcare da cui è prodotta contiene calcio (l’elemento fondamentale del cemento), carbonio e ossigeno: la combustione crea da un lato ossido di calcio, dall’altro anidride carbonica. Complessivamente, se si usa il carbone, per ogni tonnellata di cemento nuovo si emette una tonnellata di CO2. E nel mondo ogni anno sono prodotti miliardi di tonnellate di cemento. Se l’industria del cemento fosse un paese, sarebbe il terzo per emissioni annuali di anidride carbonica al mondo dopo Cina e Stati Uniti.
    Una fabbrica di cemento di Cemex e la cava da cui si ottiene il calcare che utilizza, a Rüdersdorf, in Germania, il 10 agosto 2023 (Sean Gallup/Getty Images)
    La tecnologia sviluppata dai ricercatori dell’Università di Cambridge – Cyrille F. Dunant, Shiju Joseph, Rohit Prajapati e Julian M. Allwood – è spiegata in un articolo pubblicato mercoledì sulla prestigiosa rivista scientifica Nature. In breve, prevede di ricavare nuovo cemento da edifici demoliti. Per farlo i detriti ottenuti dalle demolizioni devono essere ridotti in polvere e successivamente esposti ad altissime temperature. Il gruppo di ricerca ha scoperto che lo si può fare in modo efficace nei forni già usati per riciclare l’acciaio, con vantaggi vicendevoli per entrambe le produzioni.
    Infatti nel processo di riciclo dell’acciaio si usano delle sostanze che fanno sì che il prodotto finito sia resistente alla corrosione. Tali sostanze sono praticamente le stesse che si trovano nei detriti contenenti il cemento. Aggiungendoli, una volta polverizzati, nei forni elettrici ad arco che si usano per ottenere l’acciaio riciclato si può ottenere non solo l’acciaio riciclato, ma anche una sostanza che, se raffreddata velocemente, è cemento riciclato. L’intero procedimento consente di evitare le emissioni dovute alla produzione di nuovo cemento attraverso il calcare e di ridurre quelle legate al processo industriale perché si sfrutta la produzione di un altro materiale.
    I ricercatori hanno coniato l’espressione “cemento elettrico” per indicare questo cemento riciclato, a patto che sia prodotto (insieme all’acciaio riciclati) usando forni elettrici ad arco, che possono essere alimentati con energia prodotta da fonti rinnovabili.
    Dunant, il primo autore dell’articolo pubblicato su Nature, ha detto a BBC che in futuro questa scoperta potrebbe permettere di produrre cemento senza emissioni, nel caso in cui si riesca ad applicare il metodo su scala industriale in modo concorrenziale. Per ora il procedimento è stato testato al Materials Processing Institute di Middlesbrough, in Inghilterra, dove entro la fine del mese si proverà ad aumentare la scala dell’esperimento producendo 60 tonnellate di cemento riciclato in due ore.

    – Leggi anche: Servono soluzioni per l’acciaio, il cemento e l’ammoniaca LEGGI TUTTO

  • in

    Come si affrontano le turbolenze in aereo

    Caricamento playerLa notizia della morte di un passeggero sul volo SQ321 di Singapore Airlines di martedì 21 maggio, diretto da Londra a Singapore, ha riportato una certa attenzione sulle turbolenze in particolare tra le persone che hanno paura di volare, o che affrontano un viaggio in aereo con qualche apprensione. Le cause della morte dell’uomo britannico di 73 anni non sono ancora completamente chiare (si è parlato di un infarto e di precedenti problemi cardiaci), ma alcune delle oltre 200 persone che si trovavano a bordo hanno raccontato di avere vissuto momenti di forte preoccupazione e di caos, mentre i piloti cercavano di portare l’aereo fuori dalla turbolenza.
    Stando ai dati diffusi finora o disponibili attraverso i sistemi per tracciare i voli, il Boeing 777-312ER di Singapore Airlines si trovava a un’altitudine di circa 11.300 metri quando è iniziata la forte turbolenza. In quel momento era in corso la distribuzione della colazione, di conseguenza c’era un certo movimento a bordo. I piloti hanno attivato il segnale per allacciare le cinture di sicurezza, ma secondo alcuni passeggeri l’indicazione sarebbe stata fornita tardivamente. Nel frattempo l’aereo è stato portato in meno di tre minuti a una quota di circa 9.500 metri per uscire dalla turbolenza, una manovra necessaria che ha però portato a ulteriori apprensioni a bordo per la rapida riduzione dell’altitudine.
    Gli aerei di linea sono progettati per sopportare grandi sollecitazioni mentre sono in volo ed è estremamente raro che una turbolenza causi qualche danno a un aereo, tale da comprometterne il funzionamento. I rari atterraggi di emergenza che vengono effettuati dopo una turbolenza sono di solito decisi per prestare soccorso alle persone a bordo, rimaste ferite a causa dell’improvviso movimento dell’aereo in orizzontale o in verticale. Spesso questi scossoni sono accompagnati dalla caduta di oggetti dalle cappelliere o dai tavolini dei sedili aperti che possono causare traumi di vario tipo, oppure da cadute accidentali delle persone che si sono alzate per andare in bagno o sgranchirsi dopo molte ore di volo da seduti.
    Secondo le informazioni fornite finora, il volo SQ321 ha incontrato una “turbolenza in aria limpida” (CAT), una delle forme più comuni e talvolta insidiose di turbolenza. Come suggerisce il nome, le CAT si verificano mentre si sta volando in una porzione di cielo apparentemente libera da nuvole e senza perturbazioni. È la classica turbolenza che dal punto di vista di un passeggero si presenta di punto in bianco, mentre dal finestrino non nota nulla di strano e il cielo appare terso.
    In diversi casi il viaggio di un aereo è favorito dal “vento di coda”: una corrente d’aria che soffia nella stessa direzione verso cui vola l’aereo e che quindi lo spinge, contribuendo a farlo andare più veloce. Questo tipo di vento è prodotto per lo più dalle correnti a getto, che possiamo considerare come grandi fiumi d’aria che attraversano l’atmosfera. Proprio come i fiumi, queste correnti producono anse e rientranze, cambiando quindi la direzione del vento. Se la rotta dell’aereo coincide con quella del fiume si ha il vento di coda (un po’ come avviene con una nave che sfrutta la corrente per discendere un corso d’acqua), ma se il fiume d’aria a un certo punto produce un’ansa mentre l’aereo prosegue dritto, quest’ultimo si troverà del vento laterale che lo renderà meno stabile.
    Esempi di correnti a getto (NOAA)
    Quando il vento “gira” rispetto alla direzione di volo, un’ala dell’aereo riceve una sollecitazione diversa rispetto all’altra e questo insieme ad altri fattori (per esempio ulteriori correnti) porta ai sobbalzi tipici delle turbolenze. La variazione può essere lieve e durare pochi istanti, oppure più forte e duratura al punto da rendere necessario un aggiustamento della rotta e della quota a cui sta volando l’aereo: portandolo di alcune centinaia di metri più in alto o in basso, il pilota può togliersi dalla corrente che stava causando la turbolenza. Raramente nel togliersi da una zona di turbolenza si può incontrare un’altra area interessata da correnti che possono destabilizzare l’assetto di volo, rendendo necessarie ulteriori manovre. Un’ipotesi è che qualcosa di simile sia avvenuto con il volo di Singapore Airlines.

    Le CAT non sono sempre semplici da prevedere, proprio perché si verificano quando le condizioni del cielo e in generale di volo sono buone, rispetto a un tratto di cielo interessato da una tempesta. Grazie a sistemi di previsione e simulazione dell’andamento delle correnti in tempo reale, agli strumenti di bordo e all’assistenza da terra, un aereo riesce comunque a prevenire molte turbolenze di questo tipo.
    Durante il volo si possono incontrare altri tipi di turbolenze, come quelle termiche, che a differenza delle CAT sono generalmente visibili anche a occhio nudo. Sono dovute alla risalita nell’atmosfera di aria calda proveniente dal suolo, che spostandosi porta alla formazione delle nubi che appaiono verticali e simili a una meringa, come i cumulonembi. Da queste nubi si possono formare temporali e correnti ascensionali caotiche, di conseguenza gli aerei provano a evitarle volandoci sopra oppure aggirandole, cambiando temporaneamente rotta. In alcuni casi un passaggio in parte di un cumulonembo non può essere evitato e a bordo si hanno generalmente scossoni più brevi, ma intensi, rispetto a quelli durante una CAT. È invece normale che gli aerei attraversino altri tipi di nubi come gli strati, le nuvole basse e uniformi come quelle che coprono il cielo in una tranquilla mattina di pioggia autunnale.
    Esempio di cumulonembo (Wikimedia)
    Le turbolenze meccaniche si verificano invece quando un aereo attraversa un’area in cui ci sono alcuni ostacoli fisici, che modificano le correnti d’aria. A bassa quota questi ostacoli possono essere alberi, piccoli rilievi collinari o gli edifici in prossimità di un aeroporto. A quote più alte queste turbolenze sono causate dalla presenza dei rilievi montuosi, che portano i venti che soffiano sui loro versanti a produrre dei vortici d’aria che possono raggiungere anche quote importanti. Queste correnti che cambiano frequentemente direzione possono rendere più turbolento il viaggio, anche in combinazione con le correnti termiche che si sviluppano con l’interazione delle masse d’aria più calde con quelle fredde in prossimità dei ghiacciai.
    Infine ci sono le turbolenze di scia che tipicamente si formano alle spalle di un aereo durante il suo movimento nell’aria, un po’ come avviene sull’acqua con la scia lasciata da una nave in movimento. Un aeroplano che si trova alle spalle di un altro aereo può intercettare questa scia e subirne gli effetti, soprattutto nelle fasi in cui è più probabile che ci siano più aerei lungo una stessa rotta, per esempio nelle fasi di avvicinamento all’aeroporto di destinazione. I controllori del traffico aereo tengono in considerazione le turbolenze di scia quando danno indicazioni sulla rotta e sulla quota che devono mantenere gli aerei, anche in base alle loro dimensioni (in genere più grandi sono più turbolenze di scia producono). Le turbolenze di questo tipo hanno comunque un’estensione limitata ed è sufficiente cambiare direzione o quota di poche decine di metri per non subirne gli effetti.
    Simulazione di una turbolenza di scia prodotta in volo da un Airbus A340 in assetto di atterraggio (Wikimedia)
    Talvolta è la combinazione di diversi tipi di turbolenza a causare gli scossoni che si sentono in aereo, anche se un tipo di turbolenza è di solito preponderante rispetto agli altri. Ciò non rende sempre prevedibili gli effetti sull’aereo del passaggio in un’area di turbolenza, che come abbiamo visto è comunque progettato per reggere sollecitazioni molto forti. Questo è uno dei motivi per cui viene consigliato ai passeggeri di tenere sempre le cinture di sicurezza allacciate, anche quando il segnale sopra al sedile non è attivo. I piloti lo accendono non appena sospettano un’imminente turbolenza, ma c’è poi il tempo fisiologico per ciascuno di accorgersi del segnale, trovare i due estremi della cintura e allacciarla, senza contare le persone che magari si sono addormentate e non si accorgono dell’avviso.
    Mantenere la cintura allacciata riduce il rischio di essere sbalzati dal sedile e battere la testa contro il sedile davanti, le cappelliere o altre parti dell’aereo. La maggior parte degli infortuni a bordo in caso di forti turbolenze si verifica proprio a causa di questi movimenti incontrollabili che possono essere limitati con le cinture. È inoltre importante non circolare nell’aereo quando il segnale di mantenere le cinture di sicurezza è attivo, rimandando la sessione di stretching e sgranchimento a un momento più propizio e meno turbolento. LEGGI TUTTO

  • in

    Dove finisce la chimica?

    Caricamento playerAlla fine del 2015 l’Unione internazionale di chimica pura e applicata (IUPAC) introdusse un importante aggiornamento della tavola periodica degli elementi, lo schema che mostra gli elementi chimici in base alle loro principali caratteristiche. I responsabili della IUPAC aggiunsero nihonio, moscovio, tennesso e oganesson, completando per la prima volta la settima riga (“periodo”) della tavola. Erano quattro nuovi elementi “superpesanti” scoperti e sintetizzati negli anni precedenti da laboratori alla ricerca della risposta a una delle domande più affascinanti e sfuggenti di sempre, con grandi implicazioni sulla nostra capacità di comprendere come funziona praticamente tutto: dove finisce la chimica?
    Negli anni se lo sono chiesto in molti, ma già oltre un secolo e mezzo fa la questione aveva probabilmente incuriosito Dmitrij Ivanovič Mendeleev, il chimico russo che trovò il modo di ordinare ossigeno, carbonio, ferro e tutti gli altri elementi scoperti – e ancora da scoprire – in una tabella per poterli classificare. Una prima versione del suo schema fu presentata nei primi mesi del 1869, mettendo le basi per lo studio e la ricerca di elementi all’epoca ancora ignoti che avrebbero permesso di riempire le caselle mancanti. In alcuni casi fu necessario più di un secolo per riuscirci, mentre già si ipotizzava che ci potessero essere ancora altri elementi che avrebbero resa necessaria l’aggiunta di nuove caselle nella tavola di Mendeleev.
    Nella tavola periodica, quella che studiano ogni anno milioni di studenti delle scuole superiori, le righe si chiamano periodi e ciascuno ospita gli elementi in una sequenza basata sul loro numero atomico, che indica la quantità di protoni contenuti nel nucleo (la parte centrale e densa di un atomo, formata da protoni che possiedono carica positiva e neutroni, invece privi di carica).
    Ogni nuovo periodo inizia dopo un gas nobile e il primo elemento è sempre un metallo alcalino, con un numero atomico più grande di un’unità rispetto all’elemento con cui si era conclusa la riga precedente. Nei sette periodi della tavola, i metalli sono sulla sinistra e gli altri tipi di elementi sulla destra. Ne consegue che man mano che ci si sposta lungo una riga verso destra si trovano elementi via via più pesanti, con caratteristiche differenti da metallo a gas.
    (Wikimedia)
    Se si legge la tavola in verticale, le colonne (gruppi o famiglie) contengono elementi con caratteristiche chimiche simili. Hanno per esempio una stessa configurazione elettronica esterna, cioè elettroni che si comportano allo stesso modo attorno ai nuclei dei loro atomi. Esistono 18 gruppi e si va da quello dei metalli alcalini fino a quello dei gas nobili.
    Gli elementi con numero atomico da 1 a 118 occupano i sette periodi della tavola periodica, ma come abbiamo visto non è sempre stato così. Per lungo tempo la tavola ebbe alcuni buchi, dovuti alla difficoltà di trovare in natura gli elementi che ci si attendeva di avere tra una casella e un’altra, o alla difficoltà di sintetizzarli nel caso in cui fosse impossibile reperirli nell’ambiente. Per questo si dice spesso che i primi 94 elementi sono tutti “naturali”, mentre quelli da 95 a 118 vengono definiti talvolta “artificiali” o “sintetici”, anche se la distinzione e la definizione sono dibattute.
    In questa ultima categoria ricadono anche gli elementi superpesanti, a partire dal rutherfordio che ha numero atomico 104. La loro caratteristica principale è quella di essere piuttosto schivi, al punto da preferire quasi sempre di non esistere o di farlo per pochissimo tempo. I nuclei dei loro atomi tendono a perdere pezzi, o per meglio dire a decadere, in alcuni casi pochi istanti dopo la loro creazione. Per questo è così difficile crearli, studiarli e immaginare applicazioni in cui potrebbero essere utili, per lo meno allo stato attuale delle conoscenze.
    Le fabbriche degli elementi superpesanti sono relativamente poche perché richiedono particolari acceleratori di particelle: sofisticati strumenti che vengono utilizzati per far scontrare tra loro gli atomi in modo che si uniscano producendo un elemento più pesante. Tra i vari centri, il Lawrence Berkeley National Laboratory (LBNL) in California è probabilmente il più conosciuto, per lo meno per una delle tante dispute che hanno riguardato la storia della chimica. Tra la fine degli anni Sessanta e l’inizio dei Settanta, il laboratorio confermò di avere sintetizzato per la prima volta il rutherfordio, anche se un altro laboratorio nell’Unione Sovietica, l’Istituto unito per la ricerca nucleare di Dubna (JINR), anni prima aveva segnalato la prima rivelazione del nuovo elemento.
    Parte dell’Electron Cyclotron Resonance presso il Lawrence Berkeley National Laboratory (Berkeley Lab)
    La disputa nacque intorno al nome da dare, visto che i ricercatori sovietici proponevano di chiamarlo dubnio come la città in cui era avvenuta la scoperta o kurchatovio in onore di Igor Kurchatov, tra i principali fautori del programma di ricerca nucleare sovietico. La controversia fu risolta solamente nel 1997, quando la IUPAC decise di adottare il nome rutherfordio, in onore di Ernest Rutherford, il fisico neozelandese considerato il padre della fisica nucleare.
    Ancora oggi l’LBNL negli Stati Uniti e il JINR in Russia sono i centri di riferimento per la ricerca dei nuovi elementi, insieme alla Società per la ricerca sugli ioni pesanti a Darmstadt in Germania. Dagli anni Ottanta in particolare, i tre centri si sarebbero fatti una serrata concorrenza nella ricerca e nella produzione di nuovi elementi. Nel corso del tempo alla competizione si sarebbero aggiunti altri laboratori, che ancora oggi studiano il mondo sfuggente degli elementi superpesanti con un obiettivo molto ambizioso: trovare nuovi elementi che siano stabili, al punto da durare anni se non secoli prima di decadere in modo significativo.
    Per produrre uno di questi elementi si parte da un fascio di ioni pesanti (solitamente nuclei di atomi privati dei loro elettroni) che viene orientato verso un bersaglio, cercando di vincere la forza di repulsione tra i nuclei (sono entrambi positivi) e di farli unire. A seconda dei laboratori e dei risultati che si vogliono ottenere si seguono vari approcci con strumentazioni ed elementi diversi. Si usano microonde e campi magnetici molto intensi per rimuovere gli elettroni dall’elemento di partenza (spesso si usa il calcio) e gli ioni ottenuti vengono poi fatti passare attraverso un acceleratore, in modo che raggiungano velocità pari al 5-20 per cento di quella della luce, che è di circa 300 milioni di metri al secondo.
    Raggiunta la velocità desiderata, il fascio di ioni viene indirizzato verso il bersaglio, costituito da un elemento diverso a seconda del numero atomico finale che si sta provando a ottenere. Per ottenerne uno pari a 114 si parte dal calcio che ha numero atomico 20 e si usa come bersaglio il plutonio che ha invece numero atomico 94. Fare centro è però molto difficile e per questo si utilizzano enormi quantità di ioni in modo da rendere più probabile una collisione. Quando si riesce a ottenere un nucleo superpesante, questo viene rallentato e guidato in altri strumenti per essere misurato: è il momento in cui si ha la conferma di avere ottenuto un risultato.

    La misurazione finale non è semplice, così come la possibilità di poter fare qualcosa prima del decadimento dell’elemento appena ottenuto. In breve tempo infatti questi nuclei atomici instabili si trasformano (o per meglio dire “trasmutano”) in nuclei di energia inferiore; il riferimento è il tempo di dimezzamento, cioè quanto ci mette la metà degli atomi di un campione radioattivo a decadere. Nel caso di diversi superelementi, per riuscire a sperimentare e studiare reazioni chimiche con altri elementi è necessario almeno un tempo di dimezzamento di mezzo secondo.
    La difficoltà nel produrli e in molti casi il poco tempo per fare esperimenti spiega come mai sappiamo ancora poche cose su molti elementi superpesanti, al punto da non essere certi della loro classificazione nella tavola periodica, o per meglio dire della possibilità di continuare a utilizzare la tabella come prima. L’oganesson (118) è nella posizione dei gas nobili, l’ultima colonna a destra, ma secondo alcuni gruppi di ricerca probabilmente non è un gas. Ipotizzano che sia un solido in condizioni standard e che diventi un liquido quando viene portato a 52 °C.
    Il particolare comportamento di questi metalli è dovuto al modo in cui si distribuiscono gli elettroni nei loro atomi e al modo in cui interagiscono, raggiungendo altissime velocità quasi prossime a quelle della luce. In queste condizioni si verificano effetti relativistici che hanno conseguenze più importanti rispetto a quelli che si verificano negli elementi più leggeri. Studiandoli i gruppi di ricerca hanno l’opportunità di capire meglio il funzionamento di alcuni fenomeni nella fisica dell’infinitamente piccolo, che potrebbero poi essere applicati in altri ambiti della ricerca sulla materia, le sue caratteristiche e il suo funzionamento.
    I più ottimisti pensano inoltre che procedendo con questi esperimenti si possa approdare un giorno all’”isola della stabilità“, un modo per definire il luogo dove idealmente si trovano versioni (isotopi) di elementi transuranici particolarmente stabili e che quindi decadono molto lentamente rispetto ai tempi finora osservati. In questo modo potrebbero diventare utilizzabili non solo per ricerche più approfondite, ma anche per lo sviluppo di qualcosa che oggi non riusciamo a immaginare come materiali con insolite proprietà.
    La ricerca di base funziona del resto in questo modo, come ha ammesso di recente a Scientific American Jacklyn Gates, responsabile del gruppo di ricerca sugli elementi pesanti a Berkeley: «Tutto ciò che facciamo ora… non ha applicazioni pratiche. Ma se pensi ai nostri telefoni cellulari e a tutte le tecnologie che ci sono finite dentro, beh quelle tecnologie risalgono fino all’età del bronzo. Le persone all’epoca non avevano certo idea che la loro scoperta sarebbe finita in questi dispositivi cui siamo sempre incollati e dai quali siamo fortemente dipendenti. Quindi gli elementi superpesanti possono essere utili? Forse non in questa generazione, ma magari tra una o due potremo disporre di migliori tecnologie che ci rendano le cose e la vita un poco più semplici». LEGGI TUTTO

  • in

    Che fine hanno fatto i collari cervicali

    Caricamento playerDopo essere stati molto utilizzati nei decenni passati, da qualche tempo è più raro vedere in giro i collari cervicali indossati da persone con qualche problema al collo. La progressiva sparizione riguarda soprattutto i collari morbidi e in misura minore quelli rigidi, utilizzati per lo più per immobilizzare in condizioni di emergenza le persone che hanno subìto gravi traumi, per esempio in seguito a un incidente stradale. Con il declino dei collari ortopedici c’entrano i progressi nei sistemi di sicurezza delle automobili, ma ancora di più un sensibile cambiamento negli approcci medici e nelle terapie per chi ha problemi cervicali.
    I collari cervicali per come li intendiamo oggi furono perfezionati e adottati dagli ortopedici a partire dalla seconda metà del secolo scorso, in seguito alla progressiva diffusione delle automobili e di conseguenza all’aumento degli incidenti stradali. Molte persone coinvolte nei tamponamenti segnalavano per esempio di avere dolore al collo, che spesso durava per settimane ed era accompagnato da altri problemi come mal di testa e capogiri. I sintomi variavano molto da persona a persona e non erano sempre diagnosticabili facilmente, quindi il problema assunse un nome alquanto generico e distante da una precisa definizione medica: “colpo di frusta”.
    Il colpo di frusta si verifica quando in seguito a una rapida decelerazione, dovuta per esempio a un tamponamento, il corpo viene spinto in avanti dall’urto, mentre il cranio rimane indietro per inerzia causando uno stiramento del collo, salvo poi essere proiettato violentemente in avanti poco dopo. Più è violenta la decelerazione, più è probabile che subiscano forti sollecitazioni le strutture che fanno parte del collo e che sorreggono la testa come le vertebre, i muscoli e i legamenti. Nella maggior parte dei casi, il contraccolpo causa qualche contrattura muscolare non molto diversa da quella che si può rimediare agli arti con un movimento scorretto, mentre nei casi più gravi si può anche verificare una frattura delle vertebre cervicali che richiede maggiori attenzioni e cautele.

    In linea di massima, un colpo di frusta è quasi sempre reversibile in pochi giorni e sono rari i casi di danni permanenti, con forme croniche che devono essere affrontate con terapie del dolore. Naturalmente il colpo di frusta esisteva ben prima dell’avvento delle automobili, un problema simile era stato riscontrato nel caso degli incidenti ferroviari ai primi tempi della diffusione del treno, ma è diventato un evento traumatico molto noto in seguito alla motorizzazione delle società. Così noto da essere sfruttato da alcuni per millantare qualche problema di salute e rimediare rimborsi dalle assicurazioni o indennità dai servizi di assistenza sociale.
    L’esagerazione degli effetti di un colpo di frusta era sfruttata soprattutto in passato quando era difficile diagnosticare in modo oggettivo gli eventuali danni causati dal trauma, semplicemente perché non c’erano strumenti diagnostici adeguati. Una radiografia poteva mostrare la lesione di una vertebra, certo, ma non c’erano molte possibilità di osservare altri tipi di lesioni per esempio ai muscoli e alle altre strutture del corpo. Le cose sarebbero cambiate almeno in parte con l’avvento della risonanza magnetica negli anni Ottanta, che permette di osservare più nel dettaglio i tessuti interni, ma per diverso tempo i medici si basarono soprattutto sui sintomi che riferivano i loro pazienti, prescrivendo loro l’utilizzo di un collare morbido per qualche tempo, ritenendo che limitando i movimenti del collo si potesse avere un migliore recupero.
    C’erano più incidenti stradali rispetto a oggi e minori dotazioni per ridurre i rischi – come cinture di sicurezza, poggiatesta, airbag e sistemi di assorbimento degli urti – di conseguenza non era raro notare per strada qualcuno con un collare. In paesi come gli Stati Uniti, dove erano frequenti le cause legali e le richieste di rimborsi alle assicurazioni, il collare era diventato per alcuni uno stigma: la prova visibile del tentativo di ottenere qualche soldo esagerando le conseguenze di un temporaneo problema di salute, ammesso esistesse davvero.
    Il sistema sanitario basato sulle assicurazioni aveva favorito il fenomeno, ma questo non era esclusivo degli Stati Uniti e ancora oggi ha una certa importanza in alcuni paesi compreso il nostro. Secondo uno studio pubblicato nel 2008, in Italia gli infortuni di piccola entità alla cervicale segnalati sono il 66 per cento del totale degli infortuni, il dato più alto dopo il Regno Unito (76 per cento) e prima della Norvegia (53 per cento). L’incidenza di danni derivanti dal colpo di frusta indicati come permanenti, ma spesso difficili da verificare, è molto alta in Italia e secondo diverse analisi fuori scala, rispetto ai dati scientifici dal punto di vista epidemiologico. Fare analisi e confronti accurati tra paesi diversi non è però semplice, perché cambiano le modalità di diagnosi e di segnalazione degli infortuni e questo potrebbe giustificare almeno in parte le marcate differenze segnalate nelle ricerche.
    Al di là degli aspetti assicurativi, negli ultimi anni c’è stato un progressivo abbandono del collare cervicale da parte di ortopedici e altri specialisti. Salvo casi particolari, l’orientamento è di non farlo più indossare ai pazienti perché può ritardare il recupero da un colpo di frusta invece di favorirlo. Inizialmente si pensava che il collare potesse offrire un sostegno alla testa, riducendo il carico per vertebre e muscoli della zona cervicale, mentre oggi si ritiene che siano soprattutto utili fisioterapia, ginnastica dolce, massaggi e all’occorrenza l’impiego di farmaci antinfiammatori.
    Una scena di Erin Brockovich – Forte come la verità con Julia Roberts (Universal)
    Una revisione sistematica e una meta-analisi, cioè una ricerca che ha analizzato la letteratura scientifica a disposizione, pubblicata nel 2021 ha rilevato una prevalenza nella pratica medica di un approccio attivo nella riabilitazione, rispetto alla sola immobilizzazione, segnalando comunque la necessità di condurre ulteriori studi e approfondimenti. Una ricerca condotta una decina di anni prima aveva concluso che l’impiego del collare morbido è «nella migliore delle ipotesi inefficace» nel trattare il colpo di frusta, specificando che nello scenario peggiore i pazienti avessero un maggior rischio di non dedicarsi alle attività di recupero che prevedono di fare esercizi con il collo.
    Il cambio di approccio rifletteva quello più generale sull’importanza di ridurre la permanenza a letto dei pazienti, una pratica molto in uso negli ospedali, per favorire il loro recupero e ridurre il rischio di sviluppare altri problemi di salute dovuti al restare fermi a lungo. Era per esempio diventato evidente che i pazienti con mal di schiena traevano maggiori benefici dal muoversi, con tempi di recupero minori, rispetto a chi trascorreva più di due giorni a letto come veniva spesso consigliato in precedenza.
    Il collare cervicale nella versione rigida continua invece a essere utilizzato nella medicina di urgenza, per esempio per immobilizzare le persone sopravvissute a un incidente stradale quando c’è il dubbio di un eventuale danno alla spina dorsale. È un uso con scopi diversi rispetto al collare morbido e negli ultimi anni si è iniziato a discutere una revisione del suo impiego, anche in questo caso in seguito a studi e analisi sull’efficacia del sistema.
    Applicazione di un collare rigido in seguito a un trauma nel corso di una partita di football a Perth, Australia, nel 2012 (Getty Images)
    Il neurochirurgo norvegese Terje Sundstrøm è tra i più convinti sostenitori della necessità di rivedere protocolli e pratiche di utilizzo del collarino rigido. Una decina di anni fa pubblicò insieme ad altri colleghi un’analisi nella quale segnalava come in media venga immobilizzato il collo di 50 pazienti per ogni paziente che ha effettivamente una lesione spinale. Secondo lo studio, il collare rigido rende più difficoltosa la respirazione dei pazienti e contribuisce a creare maggiore agitazione, perché il suo impiego induce a pensare di avere subìto un danno grave, anche se magari non è quello il caso. In alcuni casi il collare rigido può rivelarsi scomodo o non essere applicato nel migliore dei modi, cosa che porta i pazienti a fare proprio i movimenti che il collare dovrebbe prevenire.
    In alcuni paesi le linee guida per l’uso dei collari rigidi negli scenari di emergenza sono state riviste, ma il loro impiego è comunque ancora diffuso. Gli incidenti che portano a lesioni spinali cervicali sono relativamente rari, di conseguenza è difficile condurre studi approfonditi e disporre di dati a sufficienza per trarre qualche conclusione. La tendenza è quindi quella di applicare maggiori cautele, proseguendo con un approccio conservativo che prevede l’impiego dei collari rigidi, più di quanto avvenga per quelli morbidi usati sempre meno spesso e per meno tempo, al punto da non farsi notare più in giro come una volta. LEGGI TUTTO

  • in

    Weekly Beasts

    Quella appena trascorsa è stata una settimana piena di cani, complice la storica mostra cinofila statunitense del Westminster Kennel Club Dog Show: più di duemila cani sono stati valutati da una giuria che ha espresso giudizi sulla loro bellezza in relazione agli standard delle razze cui appartengono e alle prestazioni nelle varie categorie in cui hanno gareggiato, e i fotografi hanno coperto estesamente l’evento con decine e decine di foto. A contribuire nella raccolta di chi valesse fotografare c’è anche Messi, il cane che compare nel film Anatomia di una caduta, al festival di Cannes, e per bilanciare un po’ la rappresentazione della specie si finisce con cani “normali” che sonnecchiano con un gatto. Poi una femmina di tordo che imbocca i suoi pulcini, una mamma cinghiale che guida in acqua i suoi cuccioli, e una foto che mostra quanto è lunga la lingua di una giraffa. LEGGI TUTTO